본문 바로가기
교회를 위한 신학이야기/목회와 신학

생성형 AI를 활용한 설교의 가능성과 한계

by 데오스앤로고스 2024. 3. 19.
728x90
반응형

 

 

 

* 설교연구(63) * 


 

"AI는 비인격체이므로 감정도 양심도 없고, 믿음도 없고, 영혼도 없다. AI는 하나님을 알지 못한다."

 

"인공지능이 생성한 설교가 아무리 정교하고 감동적이어도 그것의 본질을 망각하고 마치 그 자체에 어떤 대단한 힘이 있는 것처럼 믿고 의존할 때에, 설교자는 타락하고 교회는 병들게 될 것이다."

 

"진정한 기독교 설교는 말씀의 내용이 무엇인지 정보전달만을 하는 설교가 아니라 말씀 속으로 교회 공동체와 함께 들어가 실존적이며 영적인 부딪힘을 경험하고 그 자신의 인격에 적용하고 삶 속에서 실천하여 육화된 말씀을 전달하는 것이어야 한다. 그렇지 않은 설교는 인공지능이 만들어낸 설교처럼 모양은 그럴듯하지만 알맹이가 없는 설교, 생명이 없는 설교, 껍데기 설교가 될 것이다"

 

 

 

한국실천신학회가 지난 2월 16일(금)~17일(토)까지 인천 카리스호텔에서 <생성AI시대, 알파세대를 위한 실천신학의 역할>을 주제로 개최한 '제91회 정기학술대회'에서 발표한 정재웅 박사(서울신대)의 주장이다.

 

챗GPT의 유익함

<기독교 설교를 위한 생성형 인공지능(AI) 활용의 가능성과 한계>라는 제목으로 발표한 정재웅 박사는 "챗GPT는 본문 해석을 위한 자료 검색, 설교에 필요한 예화 검색, 관주 검색, 설교의 기본 틀 아이디어 얻기, 성경 해석의 새로운 관점, 설교 준비 시간 단축 등의 도움을 받을 수 있다"라고 설명했다.

 

특히 "생성형 AI는 이미 다양한 콘텐츠를 생성할 수 있기 때문에 설교에 도움을 줄 수 있는 것은 이보다 더 다양할 것이다"라며 "예를 들어 성서 지리나 절기, 제사법 등에 관해서 설교를 할 때에 이미지 생성 AI를 활용하여 본인이 보여주고자 하는 장면을 이미지로 만들어 달라고 하면 긴 시간의 노력을 들이지 않고도 효과적으로 원하는 이미지를 획득할 수 있을 것이다"라고 주장했다.

 

또한 "영상 설교를 하고자 할 때에 의도한 주제에 부합하는 영상들을 찾아달라고 하거나 영상을 의도에 맞게 일부 변형하는 것도 가능할 것이다. 더 나아가 자신의 목소리를 음성 생성 AI에 입력하여 실제 자기가 목소리를 내어 설교하지 않아도 자기가 설교한 것처럼 만들어 낼 수도 있다"라고 덧붙였다.

 

 

 

 

 

인공지능 설교자의 출현?

무엇보다 정 박사는 "향후 기술 발전이 더 가속화되면 현실 설교자의 위협이 될만한 인공지능 설교자의 등장도 가능할 것이다"라며 "생성형 인공지능은 실제 인간과 유사한 이미지(정지 이미지 혹은 동영상 모두를 포함하여)와 음성을 생성함으로써 실제 인간과 유사한 표정과 목소리로 설교할 수 있는 버츄얼 휴먼 설교자 혹은 디지털 트윈 설교자를 만들어 낼 수 있다. 더하여 마치 인간이 작성한 것처럼 자연스러운 언어로 설교문을 생성할 수 있다"라고 설명했다.

 

이어 "설교자가 자신의 아바타를 만들어서 영상 설교를 제작해 송출하는 것이 얼마든지 가능하다. 더 나아가 이미 소천한 유명 설교자들의 설교문과 설교 영상을 학습한 인공지능을 통해 그들이 마치 지금 살아서 설교하는 것처럼 설교영상을 제작해 유튜브에 올리는 것도 기술적으로는 충분히 가능하다"라며 "이미 AI 주님에게 신앙적인 고민을 털어놓고 상담하는 사례도 보고되고 있기 때문에 이러한 AI 설교자의 등장이 현실로 다가올 날이 머지않았다고 할 수 있다"라고 피력했다.

 

생성형 인공지능의 한계

하지만 정 박사는 "생성형 AI가 가진 기능적인 한계는 한 마디로 부정확성이다. 생성형 AI는 문장 속 단어 등 데이터 간 관계를 추적해 맥락을 학습하는 신경망으로서 답을 ‘찾는’ 개념이 아니라 관계성을 분석해 답을 ‘생성’하는 형태로, 다른 정보와 충돌하거나 질문 유형을 잘못 판단하면 오답이 나올 수 있다"라고 설명했다.

 

특히 "인공지능이 개념 자체를 분명히 이해하고 답을 하기보다는 단어들의 관계를 분석해 답을 하기 때문에 얼핏 보면 그럴듯해 보이지만 뜯어보면 논리적으로 모순이 큰 답이나 엉뚱한 답을 내놓는 경우가 있다는 것이다"라며 "이는 설교의 경우도 마찬가지다. AI가 그럴듯해 보이지만 잘못된 해석이나 메시지를 내놓을 수 있다. 그러므로 이용자는 AI가 허위정보를 생성할 수 있다는 것을 인지하고 AI가 생성한 결과물을 그대로 사실로 받아들이지 말고 그것의 진위여부를 파악하는 최종 검수 과정을 가져야 한다"라고 당부했다.

 

이어 정 박사는 "결국 AI가 생성한 결과물이 데이터 조합을 통해 형식상 새로운 것을 만들어 낼 수는 있을지 몰라도 인간이 직관과 감성, 창의성을 활용하여 새로운 작품을 내놓는 것과 같은 수준의 결과물을 만들어 낼 수는 없다는 점은 분명하다"라고 피력했다.

 

 

728x90

 

이단 설교 사용과 표절 문제

편향성과 관련된 법적, 윤리적 한계에 대해서도 설명했다. 정 박사는 "특별히 가장 많은 데이터를 가지고 있는 특정한 신학적 입장을 AI가 보편적 규범적 해석으로 만들어 낼 수 있다는 점을 주의해야 한다"라며 "만약 이단이 생산해 낸 설교나 신학적 데이터가 더 많다면 AI는 이단의 해석학적 입장을 주류 입장으로 설정하여 설교문을 생산할 수 있다. 그러므로 설교자는 AI가 생산하는 결과물을 보편적인 혹은 규범적인 해석으로 보아서는 안되며 그것이 실제로 타당한지 신학적 숙고와 성찰을 통해 걸러낼 수 있어야 한다"라고 당부했다.

 

표절(plagiarism)과 저작권의 문제 또한 생성형 AI가 지닌 중요한 법적 윤리적 문제라고 언급한 정 박사는 "ChatGPT가 제공한 자료를 인터넷을 통해 추가로 검색해 정보의 출처를 명확하게 하려는 시도를 하지 않을 경우 표절 논란이 제기될 수 있다"라며 "ChatGPT에 특정 설교자 혹은 신학자의 설교문을 기초로 설교문을 작성하게 하여 생성한 설교문이나 출처를 알기는 어려우나 생성된 설교문이 대중적으로 널리 알려진 누군가의 설교문과 유사하다면 표절의 위험성이 있다"라고 경고했다.

 

정 박사는 "표절과 편향성의 문제가 텍스트 생성형 AI에 있어서 주된 문제라면 이미지 혹은 영상 생성 AI의 경우 딥페이크로 인한 인권 침해 문제가 큰 윤리적 법적 문제를 야기하고 있다"라며 "법적 안전망을 수립하기 이전에 사회의 각 영역에서 논의하여 최소한의 윤리적 가이드 라인을 제정하고 지킬 수 있도록 교육과 홍보를 하는 것이 필요하다. 이는 목회와 설교에 있어서도 마찬가지일 것이다"라고 설명했다.

 

생성형 AI의 설교학적 한계

특히 정 박사는 "ChatGPT 설교는 성경의 율법 시편 잠언, 서신서, 묵시 본문, 내러티브 본문 등 다양한 장르적 특성을 살린 설교를 제시하지 못하며 특별히 내러티브 설교의 플롯, 인물, 배경, 관점 등 세부적 요소들을 살리지 못한다"라며 "이러한 문제들 외에 본문에 대한 신학적 해석이 부실하고 도덕적 적용이나 알레고리적 해석과 적용이 나올 위험성이 있으며, 비성경적 신학과 이단적 교리를 분별하지 못하고 설교에 담아낼 위험이 있으며, 신학 진영에 따른 세부적 특징을 반영한 해석에는 한계가 있다"라고 주장했다.

 

또한 "청중 주해를 위해 필요한 청중의 심리와 마음 분석, 문화와 세계관 청중의 영적 상태, 청중의 영적 우상에 대한 분석에 대해서 가장 큰 한계를 보이고 있다"라며 "이러한 문제들 때문에 본문에 나타난 저자의 의도를 제대로 이해하고 현대 청중에 적용하는 데 있어서도 약점을 지니고 있다"라고 분석했다.

 

 

 

 

 

AI는 하나님을 모른다

정 박사는 "많은 설교학자들이 인공지능은 영적 존재가 아니기 때문에 영적 기능을 수행할 수 없다고 설명한다"라며 "인공지능은 진정한 영적 교류를 가능하게 하는 영혼이 없기 때문에 기독교 설교를 흉내낼 수 있을지는 몰라도 그 본질인 영적 사건 혹은 계시 사건으로서 설교를 할 수 없다는 한계를 갖고 있다"라고 주장했다.

 

특히 "영적 계시 사건을 중개하는 매체로서 인공지능의 한계는 분명하다"라며 "AI는 비인격체이므로 감정도 양심도 없고, 믿음도 없고, 영혼도 없다. AI는 하나님을 알지 못한다. 인공지능은 인간이 역사를 통해 경험한 하나님에 관한 수많은 말들을 디지털화한 하나님에 관한 정보와 데이터를 처리하여 하나님에 관한 지식(knowledge about God)을 공급할 수 있지만 하나님을 경험할 수 없는 인공지능은 하나님과의 인격적인 교류에서 나오는 하나님을 아는 지식(knowledge of God)은 없다"라고 역설했다.

 

또한 정 박사는 "인공지능이 생성한 설교가 아무리 정교하고 감동적이어도 그것의 본질을 망각하고 마치 그 자체에 어떤 대단한 힘이 있는 것처럼 믿고 의존할 때에, 설교자는 타락하고 교회는 병들게 될 것이다"라며 "만약 이러한 점들을 간과한 채 지나치게 인공지능에 의지하여 손쉽게 설교하고자 한다면 성도들은 실존적 고민도 본문에 대한 깊이 있는 해석도 결여한 인스턴트 설교에 길들여져 신앙은 더욱 약화될 것이며 설교자 역시 오히려 사역자로서의 소명과 기쁨을 누리기 어려워질 것이다"라고 진단했다.

 

이어 "진정한 기독교 설교는 말씀의 내용이 무엇인지 정보전달만을 하는 설교가 아니라 말씀 속으로 교회 공동체와 함께 들어가 실존적이며 영적인 부딪힘을 경험하고 그 자신의 인격에 적용하고 삶 속에서 실천하여 육화된 말씀을 전달하는 것이어야 한다. 그렇지 않은 설교는 인공지능이 만들어낸 설교처럼 모양은 그럴듯하지만 알맹이가 없는 설교, 생명이 없는 설교, 껍데기 설교가 될 것이다"라고 덧붙였다.

 

한편, 이번에 개최된 한국실천신학회 정기학술대회에서 발표된 논문은 아래와 같다.

 

<기독교 설교를 위한 생성형 AI 활용의 가능성과 한계>

정재웅 박사(서울신대)

 

<신기술 출현과 알파세대 복음전파를 위한 소통>

남성혁 박사(장신대)

 

<ChatGPT 시대와 기독교 예배: 기독교 예배에서 생성형 인공지능(AI)의 활용에 대한 연구>

김형락 박사(서울신대) 

 

<AI를 묻는다, 복제 인간을 묻는다. 그리고 교회를 묻는다: 1982년작, ‘블레이드 러너’와 2017년작 ‘블레이드 러너 2049’를 생각하며>

주원규 박사(한양대)

 

<알파 세대의 '관계' 문제 치유를 위한 목회상담적 고찰:아노미 현상을 중심으로>

김상백 박사(순복음대학원대)

 

<알파 세대의 특성과 기독교교육적 소통에 관한 연구:요한복음 4장을 중심으로>

문진형 박사(백석대)

 

<선교를 위한 기독교와 테크놀로지의 문화적 관계: 실천신학적 기술성찰, 관계 정립, 실천방안>

이민형 박사(성결대)

 

<알파 세대 교육목회를 위한 교육과정 개발>

이종민 박사(총신대)

 

<인공지능 시대 포스트휴먼에 대한 교육인간학적 성찰>
고원석 박사(장신대)

 

<사회서비스 시대 알파 세대와 교회의 돌봄>

박란이 박사(대전사회서비스원)

 

<알파 세대의 영성훈련을 위한 제언>

김정희 박사(한일장신대)

 

<디지털 네이티브를 위한 영성 형성:AI시대 기독교 영성 연구의 예비적 고찰>

이주형 박사(연세대)

 

<생성AI시대 알파세대의 디지털 리터러시(Digital Literacy)의 영향과 돌봄을 위한 목회상담적 접근>

송준용 박사(수도국제대학원대)

 

<교회 소그룹활동을 위한 생성형 AI 활용사례 연구:상호텍스트성에 기반한 창의적 문화예술 활동을 중심으로>

주희현 박사(홍익대)

 

<설교학 비평(homiletical criticism)과 설교적 상상력(homiletical imagination): 생성 AI 시대와 설교자>

구아름 박사(실천신대)

 

<성만찬 성례전 기억의 의미: 성서와 신경과학의 관점을 중심으로>

나인선 박사(목원대)

 

 


<Copyright데오스앤로고스 / 무단 복제 및 전재, 재배포를 금지합니다>


 

728x90
반응형

댓글