인공지능의 확산에 어떻게 대비해야 하는가?_[월드뷰 23년11월호 커버스토리]

인공지능의 확산에 어떻게 대비해야 하는가?_[월드뷰 23년11월호 커버스토리]

2023-11-20 0 By 월드뷰

‘미래세대’ 특집을 이어가는 <월드뷰>는 급격한 기술변화의 시대에 다음세대를 준비시킨다는 의미에서 “인공지능의 확산에 어떻게 대비해야 하는가?”라는 주제를 특집으로 정했다. 이를 위해 아시아연합신학대학교 교육미디어커뮤니케이션학부의 이수인 교수를 인터뷰했다. 그는 총신대학교에서 신학(B. A.)을 전공한 후 총신대학교 신학대학원에서 목회학석사(M. Div.)과정을 마치고, 미국 Fort Worth에 있는 Southwestern Baptist Theological Seminary에서 기독교교육 석사과정을 (M.A.C.E.), 그리고 Talbot School of Theology에서 기독교교육박사 학위(Ph. D.)를 취득하였다. 그가 특히 관심을 쏟는 연구 분야는 교육방법론으로 각종 미디어를 이용한 효과적인 학습과 학습자 중심 교육에 힘쓰고 있다. 현재 아신대학교 교육미디어커뮤니케이션 학부에서 포스트 코로나 시대를 섬길 교육과 미디어 전문가들을 양성하고 있다(편집자 주).

이수인 교수 (아신대학교 교육미디어커뮤니케이션 학부)


김승욱 : 인공지능(AI)이라고 하면, 알파고(AlphaGo)와 챗GPT 등이 떠오릅니다. 각자 취향에 맞는 것을 추천하는 등 광고에 이용되는 알고리즘도 인공지능을 활용한 것이고, 통역이나 자율주행에도 인공지능이 사용된다고 하더군요. 우리는 이미 인공지능 시대에 살고 있다고 해도 과언이 아닐 것 같습니다. 

이수인 : 네 맞습니다. 인공지능은 이미 다양한 모습으로 우리의 삶 가운데 깊이 들어와 있습니다. 스마트폰을 사용하고 계신 분들은 이미 다 쓰고 계시는 기능인데요, 이제는 모든 글자를 다 타이핑하지 않아도 스마트폰에서 자동으로 완성된 단어를 추천해 줍니다. 문서를 작성할 때도 느끼시겠지만, 맞춤법이나 띄어쓰기에 맞지 않는 글을 입력하면 자동으로 감지해 표시해 주지요. 뿐만 아니라 검색엔진과 기계번역, 스마트 스피커와 챗봇, 내비게이션과 자율주행차 그리고 유튜브나 넷플릭스 등의 각종 추천 알고리즘까지 이미 우리의 삶 가운데 다양한 인공지능 서비스가 널리 사용되고 있습니다. 말씀하신 대로 우리는 이미 인공지능의 세계에 살고 있습니다. 

김승욱 : 교육 분야에도 꽤 큰 충격이 있지 않았을까 싶은데요, 챗GPT 등장 이후 어떤 변화들이 나타났습니까? 

이수인 : 챗GPT의 등장이 사회 여러 영역에 큰 충격을 주었지만, 그중에서도 가장 큰 충격과 혼란을 준 곳은 바로 교육계라고 봅니다. 챗GPT가 엄청난 충격을 주며 등장했을 때, 사용 자체를 막았던 가장 대표적인 곳이 바로 교육계였습니다. 간단한 주제와 요청 사항만 입력하면 수 초 만에 간단한 에세이부터 제법 분량이 있는 소논문까지 작성해 주는 인공지능의 출현은 교육 전문가들을 아연실색하게 만들었지요. 실제로 뉴욕의 모든 공립대학은 챗GPT의 악용을 막기 위해 학교 내 전산망에서 접속이 아예 불가능하도록 막아버리기도 했고, 도쿄대를 비롯한 교토대, 규슈대 등 많은 일본의 대학도 챗GPT 사용을 금지하고 적발될 경우 부정행위로 여기겠다고 학생들에게 공지하기도 했습니다. 물론, 곧 이어 GPTZero, Originality.AI 등 사람이 쓴 글과 인공지능이 쓴 글을 구별해 낼 수 있는 탐지 프로그램들이 나오기는 했으나, 100% 완벽하게 구별해 내는 것은 불가능하기에 이처럼 사용 자체를 막아버렸던 초기의 대응도 이해가 갑니다. 

그런데 교육계에서는 챗GPT 등장에 대해 부정적으로만 반응하지는 않았습니다. 챗GPT 등장 이전에도 교육에 인공지능을 적극적으로 사용해야 함을 주장하는 학자들이 있었는데, 이런 생각을 가진 분들은 챗GPT 출현을 누구보다도 반겼습니다. 이들이 인공지능의 교육적 가능성 중에 가장 높게 평가한 것이 바로 개별 학생에게 맞춤 교육을 할 수 있다는 것이었습니다. 사실 한 명의 교사가 20-30명의 학생을 한 반에 몰아넣고 수업을 진행하는 한국의 교육 상황에서는 차별화 및 개별화된 맞춤 교육은 거의 불가능한 일입니다. 그러나 챗GPT와 같은 인공지능이 도와준다면 이 일은 얼마든지 실현 가능해집니다. 사실 챗GPT가 등장하기 이전에도 여러 교육 서비스 회사들은 학생들의 수준을 식별하여 각 수준에 맞는 적절한 학습 과제를 부여하고, 학습에 대한 체계적인 피드백을 제공하는 등 기초적인 인공지능 기반의 학습 서비스들을 제공하고 있었는데, 이번에 확인한 챗GPT의 능력은 한 마디로 게임 체인저(game changer)가 되기에 충분해 보였던 것이죠. 

챗GPT는 단순히 하나의 교육적 도구 차원이 아닌, 현재 이루어지고 있는 교육 구조와 패러다임 자체를 변화시킬 수 있는 엄청난 잠재력을 가지고 있습니다. 그렇기 때문에 이제는 우리가 가르치고 배우는 이 일련의 일에 대해 본질적인 고민을 해야 할 때입니다. 그런 의미에서 저는 챗GPT의 등장을 조금 반기는 편입니다. 왜냐하면 이전에는 교육의 본질에 대해 이야기할 기회도 잘 없었고, 또 아무리 열심히 소리쳐도 귀담아듣는 분들이 많지 않았는데, 챗GPT와 그 대응에 대한 주제를 논하면서 이야기하니 많은 분들이 관심을 갖습니다. 

김승욱 : 급격한 기술변화가 있을 때마다 일부 기존 직업이 없어지고 새로운 직업이 생겨나곤 합니다. 산업혁명 이후 기계 파괴 운동(러다이트 운동)이 일어난 이후 지속적으로 새로운 기술에 대한 경계가 있었습니다. 만화 일러스트를 하는 조카는, 이미 거의 직업을 잃은 것이나 다름없다고 하더군요. 또 프로그래머인 조카는, 챗GPT가 이미 많은 프로그램을 짜 주고 있다고 합니다. 자기도 버그 수정이나 부분적인 프로그래밍 등에 도움을 받고 있는데, 머지않아 자신의 일거리도 없어질까 봐 걱정하더군요. 인터넷 보급 등으로 인한 4차산업혁명 시대에 회계사, 엑스레이 판독의사 등 상당 직군이 위협을 받을 것이라고 했는데, 인공지능과 관련해서 기존의 일자리를 위협하는 분야는 어떤 것이 있을까요? 

이수인 : 사실 이 주제에 대해서는 여러 가지 전망이 공존합니다. 먼저 인공지능의 발전으로 어떤 일자리는 줄어들기도 하겠지만, 그와 동시에 다른 수요와 일자리들이 새롭게 창출되어 전체적으로는 큰 문제가 없을 것이라 보는 관점이 있습니다. 기업가이자 뉴욕 대학교 스턴 경영대학원 교수인 스콧 갤러웨이(Scott Galloway)는 “러다이트(Luddites)”라는 제목의 글에서 기술이 발전됨에 따라 미국의 고용 노동자의 수가 어떻게 변화되었는지를 설명합니다. 

이 그래프에서 보여주듯 컬러 TV의 등장, 인터넷과 아이폰의 발명 등 새로운 혁신적인 기술이 나타나고, 무엇보다 공장이나 수술실에 로봇이 등장하는 기술적인 혁명이 일어났음에도 불구하고 미국 노동시장에서 일자리 수는 지속적으로 증가해 왔음을 알 수 있습니다. 인공지능의 출현 이후에도 이와 비슷한 흐름이 지속될 것이라는 주장입니다. 

그러나 반대로 부정적인 전망도 존재하는데 대체로 그런 주장이 우세합니다. 대표적으로 지난 5월 세계경제포럼(WEF)이 발간한 ‘2023 일자리의 미래(The Future of Jobs Report 2023)’ 보고서에 따르면 인공지능과 기술혁신 등의 영향으로 2027년까지 세계에서 일자리 6,900만 개가 새롭게 만들어지고 8,300만 개가 사라질 것으로 예견했습니다. 직업별로는 인공지능(AI) 전문가가 늘고 단순 반복직종이나 사무 행정직은 감소할 것이라는 전망이 지배적이었습니다. 특히 없어질 직업은 비서, 은행 출납 직원, 우편 배달부, 티켓 판매원 등이 꼽혔고, AI·머신러닝 전문가, 정보보안 분석가, 재생에너지 엔지니어 등의 직업들은 늘어날 것으로 예상되었습니다. 또한 챗GPT를 개발한 openAI 연구진은 챗GPT가 노동 시장에 어떤 영향을 미칠지 그 파급 효과를 분석한 보고서를 공개했는데, 이 보고서에 따르면 미국 노동자의 약 80%가 자신의 직무에 적어도 10% 수준의 영향을 받을 것이고, 약 19%의 노동자는 적어도 50% 수준의 영향을 받을 것으로 예상했습니다. 

그런데 긍정적인 관점과 부정적인 관점 모두 동의하는 것은 앞으로의 노동 시장에 근본적인 변화의 물결이 닥친다는 것입니다. 사실 인간의 일을 기계가 대신하는 것은 모든 인류가 항상 꿈꿔왔던 일이고, 육체 노동에 있어서는 많은 부분이 현실화되었습니다. 예를 들어 수많은 사람이 해야 할 일을 포크레인 1대가 해결할 수 있습니다. 그런데 이와 같은 육체 노동과는 달리 인간의 지적 노동은 기계가 대신하기 어려웠습니다. 아무리 간단한 행정·사무직이라고 해도 인간이 직접 모든 일들을 처리해야 했습니다. 그런데 최근 등장한 생성형 AI가 놀라운 것은 이제 인간의 지적 노동을 대체할 가능성을 보이고 있다는 것입니다. 실제로 월 30달러만 주면 사용할 수 있는 마이크로소프트의 코파일럿(copilot)은 마이크로소프트의 오피스 프로그램에 GPT-4를 결합한 서비스로, 워드 문서에서 코파일럿을 호출해 문서의 초안을 만들도록 할 수도 있고, 만들어진 문서를 파워포인트에서 불러내 슬라이드로 자동 변환하거나 발표자 노트를 생성하는 등의 작업을 너무나 쉽게 해내고 있습니다. 

이런 이유로 일자리가 줄어들 수도 있고, 혹은 오히려 늘어날 수도 있지만 중요한 것은 단 10년 후의 일자리 환경조차 예측이 어려울 정도로 큰 변화가 찾아올 것은 분명해 보입니다. 그리고 그 변화의 충격은 무엇보다 육체 노동자들보다는 사무직 지식 노동자들에게 더 크게 찾아올 것입니다. 특히 기존의 직업별 소득 피라미드를 그려본다고 할 때 상층부는 큰 변화는 없을 것 같지만, 중간 계층의 지식 노동자나 서비스 직종의 일자리와 소득이 많이 줄어들게 되지 않을까 예상됩니다. 

김승욱 : 사실 없어질 일자리는 예측이 가능하지만, 새로 생길 일자리는 예측하기 어렵다는 측면에서 새로운 일자리수는 낮게 추정될 수밖에 없다고 봅니다. 인공지능시대에는 흔히들 지식 축적이 아니라 지혜를 키워야 한다고 하는데, 지혜를 갖도록 교육한다는 것이 어떤 의미인가요? 

이수인 : 어려운 질문입니다. 본질적인 것을 말씀드리겠습니다. 인터넷과 구글 검색이 나왔을 때, “이제 암기의 시대는 끝났고, 검색의 시대가 되었다.”고 했습니다. 검색하면 되니 암기할 필요가 없죠. 정보의 양이 많아져서 암기히기도 어려워졌고요. 그런데 이번에 생성형 인공지능이 나오면서 이 말도 약간 바뀝니다. “이제 검색의 시대도 끝났고, 지금부터는 질문의 시대이다.” 그러니까 이제는 굳이 검색을 하지 않아도 됩니다. 챗GPT와 같은 생성형 인공지능에게 질문만 하면 바로 잘 정리된 답을 줍니다. 검색 실력이 부족해도 큰 상관이 없습니다. 

이제는 질문을 잘 해야 합니다. 질문이 없으면 지식도 없는 시대가 된 것입니다. 아무리 탁월한 인공지능이 있어도 질문하지 않으면 아무 결과도 내놓지 않습니다. 문제는 질문을 남이 대신해 줄 수 없다는 것입니다. 답은 누군가 줄 수 있습니다. 남의 답도 내 답이 될 수 있습니다. 그런데 질문은 스스로 생각하고, 사고하지 않으면 만들 수 없습니다. 깊이 있는 사고력이 있어야 좋은 질문을 만들 수 있습니다. 따라서 인공지능 시대를 대비하는 교육으로 가장 중요한 것은 깊이 있는 사고력을 키우는 교육이라고 생각합니다.

한편으로는 염려가 됩니다. 왜냐하면 인공지능에 점점 더 의지하다 보면 사고 훈련을 할 수가 없기 때문입니다. 워싱턴포스트와의 인터뷰에서 델라웨어 대학 교육학과의 조슈아 윌슨(Joshua Wilson) 교수는 “우리의 사고력은 글쓰기 과정을 통해 향상된다”며 “챗GPT는 과정을 생략하고 완성품으로 점프하는 것으로, 학생들이 사고하는 방법을 완전히 잃을 수 있다”고 우려했습니다. 실제로 어떤 글을 쓰려면 자료를 찾고, 주제에 대해 고민하고, 논리적으로 구조화하는 등의 다양한 지적 과업을 수행해야 합니다. 그 과정에서 자연스럽게 논리력과 사고력이 키워지죠. 그런데 이 모든 과정을 챗GPT에게 맡기고 편집만 한다면 우리 뇌는 자연스럽게 게을러지고 사고력이 떨어질 수밖에 없습니다. 이런 문제들을 생성형 인공지능을 만드는 개발사들도 잘 알고 있습니다. 그래서 쳇GPT를 만든 openAI는 사용자 가이드에 13세 미만의 사용을 금지하고 있고, 18세 미만의 경우는 부모나 보호자의 관리가 필요하다고 명시했습니다. 구글이 만든 생성형 인공지능 바드(Bard) 역시 18세 미만의 사용을 금지했습니다.

그렇다면 우리가 어떻게 다음세대의 사고력을 키울 수 있을까요? 저는 가장 오래된 미디어 중 하나인 책을 읽는 것, 즉 독서가 가장 좋은 방법이라고 생각합니다. 책과 다른 미디어들 사이에는 근본적인 차이점이 있는데, 책은 능동적으로 그 안의 내용을 흡수해야 한다는 것입니다. 책을 읽는 사람이 멍하게 있으면 단 1페이지도 그냥 넘어가지 않습니다. 그렇기 때문에 책을 읽으면 독자는 끊임없이 생각하고 사고하게 됩니다. 완전히 다 만들어서 보여주는 영상 미디어와는 달리 독자가 스스로 생각하면서 저자의 머리 속에 있었던 생각을 복원해 내야 진도를 나갈 수 있습니다. 이와 같은 이유로 사고력이 무엇보다 중요해지는 인공지능 시대를 대비하는 해법으로 책 읽기가 정말 중요합니다. 

김승욱 : AI는 결국 기존 데이터를 딥러닝을 통해 학습해서 새로운 것을 만들어 내는 것인데, 기존 데이터가 옳은지 그른지 판단할 수 있는 기준은 결국 인간이 제공해야 합니다. 단지 많은 데이터를 분석한다고 해서 올바른 답이 나온다는 보장은 없습니다. 예를 들면 과학계는 진화론이 지배하고 있는데, 그렇다면 당연히 챗GPT는 진화론에 기초한 답변들을 쏟아 놓을 것이 뻔합니다. 철학이나 신학의 영역에서는 진리가 다수결로 정해지는 것이 아니기 때문에 챗GPT가 만들어내는 결과는 오히려 편견을 더욱 증폭시킬 것으로 생각되는데, 이에 대한 대책에는 무엇이 있을까요? 

이수인 : 그렇습니다. 사실 뾰족한 대책이 없습니다. 왜냐하면 최근에 개발이 된 인공지능은 뇌 구조를 모방한 인공신경망을 만들고 여기에 수많은 데이터들을 집어넣어 학습시켜 개발이 되었습니다. 이처럼 서로 복잡하게 연결된 수백 개의 계층에서 수백만 개의 매개변수들이 상호작용하는 구조로 되어 있기 때문에 이를 사람이 인지하는 게 불가능합니다. 차라리 “빨간색 불이 들어오면 서고, 초록색 불이 들어오면 가라”와 같이 규칙에 기반해 인공지능을 개발했다면 인공지능에 문제가 생겼을 경우 그 규칙만 수정하면 되는데, 딥러닝 과정을 통해 개발되었기 때문에 인공지능에 문제가 생겨도 어느 부분의 무엇을 어떻게 수정해야 할지 전혀 알 수가 없습니다. 지난 2020년 말 등장했던 AI 챗봇인 ‘이루다’가 혐오 및 차별 발언 그리고 개인정보 유출 등의 문제를 일으켜 출시 20일 만에 서비스를 중단할 수밖에 없었던 사건이 있었습니다. 당시 어떻게든 수정을 하거나 하지 않고 아예 서비스를 중단하게 된 이유도 이 챗봇이 딥러닝을 통해 개발되었기 때문에 수정이 거의 불가능했기 때문입니다. 

또한 챗GPT와 같은 거대 언어모델(large language model, LLM)은 확률과 알고리즘에 근거해 말을 만들어 내는 원리로 되어 있기 때문에 전혀 사실이 아닌 말도 마치 사실인 것처럼 자신 있게 이야기하기도 하는데, 이를 할루시네이션(Hallucination) 현상이라고 합니다. 제가 한 번은 장난으로 챗GPT에게 “1930~1940년대 활동했던 항일 독립운동가였던 이수인 선생에 대해 알려줘”라고 질문을 했는데, 사실 저는 1970년대에 태어났으니 완전히 말도 안 되는 질문을 챗GPT에게 한 것이죠. 그런데 바로 다음과 같은 답을 주었습니다. 


이수인(1904~1996)은 한국의 독립운동가, 시인, 작가로서 일제시대 동안 활발한 항일 활동을 펼쳤습니다. 그의 생애와 활동에 대해 간략하게 소개하겠습니다.

초기 생애: 이수인은 1904년 경기도 파주에서 태어났습니다. 그는 일찍부터 국어와 문학에 관심을 갖게 되었고, 이를 바탕으로 독립운동에 참여하게 되었습니다.

독립운동: 1930년대 중반부터 1940년대 초반까지, 이수인은 항일 독립운동의 일환으로 시와 소설을 통해 국민들의 의식을 높이려고 노력했습니다. 그의 작품들은 일제의 검열을 피하기 위해 은유와 상징을 사용하여 국민들의 저항 의지를 불태웠습니다.

작품 활동: 이수인은 시와 소설뿐만 아니라, 편지와 수필 등 다양한 장르에서 활동하였습니다. 그의 대표작으로는 시집 <무제>가 있습니다. 이 작품들은 일제의 억압과 탄압 속에서도 국민의 의지와 희망을 잃지 않는 메시지를 전달하였습니다.

후기 생애: 광복 후, 이수인은 대한민국에서 문학과 교육 활동을 계속하였습니다. 그는 국민들에게 독립의 의미와 가치를 깨닫게 하기 위해 노력했으며, 그의 노력은 많은 사람들에게 큰 영향을 미쳤습니다.

기타: 이수인은 그의 생애 동안 국민의 독립 의지를 높이기 위한 다양한 활동을 펼쳤습니다. 그는 항일 독립운동의 중요한 인물로서, 그의 작품과 활동은 대한민국의 독립과 국민의 의식 형성에 큰 기여를 하였습니다.

이수인 선생은 그의 시와 문학을 통해 한국 국민의 독립 의지를 불태우는 데 큰 역할을 하였습니다. 그의 작품과 생애는 대한민국의 독립운동 역사에 깊은 흔적을 남겼습니다.


진짜 말도 안 되는 이야기를 맞는 말처럼 이렇게 뻔뻔하게 합니다. 이게 바로 할루시네이션 현상입니다. 특히 챗GPT는 대화형 챗봇이기 때문에 검색 결과나 출처를 함께 알려주는 것이 아니라 답 만을 정리해서 이야기해주는데요, 그런데 이렇게 답 만을 제공하게 될 경우 그 답의 내용을 잘 알고 있는 사람이 아니면 그 답이 맞는지 틀렸는지 판별하기 어렵습니다. 이것은 굉장히 곤란한 상황입니다. 답을 알고 있다면 질문을 할리가 없죠. 답을 모르니 질문을 하는 것인데, 질문에 대한 답을 모르면 챗GPT의 답이 맞는지 틀렸는지 구분할 수 없는 우스운 상황이 펼쳐지는 것입니다. 

  게다가 거짓을 가려내기 더욱 어려울 때는 진실 속에 거짓이 섞여 있을 때입니다. 즉 어떤 사람이 매번 말할 때마다 거짓말을 하면 주변 사람들이 절대 안 속죠. 그런데 대체로 진실을 이야기하면 그 진실된 말들을 통해 신뢰가 생기기 때문에, 진실된 말 가운데 슬쩍 거짓말이 섞이면 쉽게 속아 넘어가게 됩니다. 챗GPT의 가장 심각한 문제점이 바로 이것입니다. 출처도 없는 답을 내놓는데, 그 답들이 맞는 경우가 많습니다. 그러다 보니 신뢰가 생겨 사용자들은 그 응답들을 잘 받아들이게 됩니다. 그런데 어느 날 어떤 특정 질문에 대해 말도 안 되는 잘못된 답변을 내 놓을 수 있는 것이 바로 챗GPT입니다. 그렇게 되면 사용자는 출처도 알 수 없는 그 잘못된 정보를 맞는 말로 그대로 받아들이게 되고 나중에 그 잘못된 정보를 다른 사람들에게 퍼뜨리게 될 수도 있습니다. 그렇기 때문에 앞으로 다가오는 시대에는 비판적 사고력이 훨씬 더 중요해집니다. 이는 누구를 비판하거나 비난하는 것과는 전혀 다른 의미입니다. 비판적 사고는 주어진 지식이나 주장을 무조건적으로 수동적으로 받아들이는 것이 아니라 스스로 그 지식과 주장이 참인지 거짓인지, 유용한지 무용한지를 주의 깊게 따지면서 생각하는 능력을 이야기합니다. 그리고 이러한 비판적 사고력은 단순히 인지적인 차원에만 그치지 않습니다. 삶의 태도와 경향성으로 나타나야 합니다. 우리가 인사를 할 줄 안다고 해서 인사성이 밝다고 이야기하지는 않고, 삶의 태도와 경향으로 인사하는 모습이 나타나야 인사성이 밝다고 하는 것과 비슷합니다. 비판적 사고는 단순한 인지적인 기능이 아니라 태도와 경향성이 합쳐진 개념입니다. 삶의 태도가 언제나 함께 나타나야 하는 것이죠. 그리고 그러한 태도로 인공지능이 제시하는 정보들을 대할 때 잘못된 정보나 편향된 관점에 경도되지 않을 수 있습니다.

그리고 조금 더 적극적으로 대응한다면, 생성형 인공지능들이 신학적으로 잘못된 답을 할 수 있으니 아예 기독교인들이 전용 인공지능을 개발하는 것도 좋다고 생각합니다. 2023년 3월 국내 한 스타트업 회사에서 챗GPT를 활용해 ‘주님AI’라는 것을 만들었습니다(현재는 초원in(chowon.in)’으로 변경함). 기본적으로는 챗GPT와 대화하듯 자신의 고민과 질문을 입력하면 거기에 대한 성경적 답변, 성경 해설 그리고 기도문까지 제공하는 서비스인데요, 특히 본인의 질문과 답변을 공유할 수 있도록 소셜 공유 기능을 활용할 수 있기 때문에 특별한 광고없이 1주일 동안 5만 명 이상 사용했습니다. 물론 천문학적인 돈이 들어가는 거대 언어모델을 개발하는 것은 불가능하지만, 챗GPT의 모회사인 openAI에서는 챗GPT의 API(Application Programming Interface)를 공개했기 때문에 이를 활용한 다양한 서비스들이 나오고 있습니다. 특히 페이스북의 모회사인 메타(Meta)는 지난 7월 자신들이 개발한 거대 언어모델 라마2(Llama 2)를 상업적으로도 이용할 수 있도록 오픈소스로 공개했는데요, 이제 누구나 이를 무료로 활용해 AI를 개발할 수 있는 시대가 열렸니다. 따라서 이제 교단이나 교회 연합 차원의 노력과 투자가 이루어진다면 바른 신학 지식을 가지고 있는 기독교 인공지능을 개발할 수 있을 것이고, 이는 기독교 역사에 한 획을 긋는 의미 있는 작업이 될 수 있을 것입니다.

김승욱 : 좋은 대안이라고 생각됩니다. 그러나 수많은 영역에서 다 자체의 생성형인공지능을 만들 수 없으니, 어떤 윤리기준은 제시되어야 하지 않을까요? 인간복제와 같이 도덕적 기준이 세워지지 않은 상태에서 과학기술이 발전할 경우 고삐 풀린 말과 같이 인류의 큰 해악을 가져다줄 수 있어서, 핵이나 유전자공학의 경우에 윤리기준을 세우고 있습니다. 인공지능의 경우 그러한 기준이 세워지고 있는지요?  

이수인 : 정말 중요한 문제를 잘 지적해 주셨습니다. 사실 인공지능 윤리 기준의 문제는 의외로 일찍부터 논의가 되어 왔습니다. 2018년 1월 카카오는 국내 업계 최초로 인공지능 알고리즘 윤리 헌장을 발표했고, 2020년 12월에는 과학기술정보통신부(과기정통부)가 주관하여 ‘인공지능(AI) 윤리기준’을 제정했습니다. 이러던 중 최근 생성형 인공지능 기술이 가파르게 발전하자 과기정통부에서는 AI 윤리정책이 핵심 이슈가 될 ‘디지털 권리장전(가칭)’을 올 하반기까지 마련한다고 합니다. 그리고 이 이슈에 대해서는 유럽 연합(EU)이 가장 앞서고 있는데요, 지난 6월 14일(현지시간) 유럽의회는 세계 최초로 ‘인공지능 규제 법안’을 채택했습니다. 이 법안은 EU 집행위원회까지 통과되면 2026년부터 시행되는데, 더 엄격한 개인정보 보호 기준과 더 엄격한 투명성을 강조하고 있고 이에 협조하지 않을 경우 징벌적 벌금까지 부과할 수 있습니다. 

저는 인공지능의 윤리적 기준과 규제와 관련된 일은 그 주체가 중요하다고 생각합니다. 런던 정치경제대학교(London School of Economics and Political Science)의 주디 와이즈먼(Judy Wajcman) 교수는 기술 전문가가 아닌 사람들이 인공지능에 대한 대화를 형성하는 데 참여하고 미래를 만드는 데 주도적인 역할을 하는 것이 중요하며, 이들이 늘 변화의 바람을 경계하며 지평선에 시선을 고정해야 한다고 주장했습니다. 저도 공감합니다. 사실 기술 전문가들은 기술을 계속 발전시키려고 하기 때문에 스스로를 규제하거나 브레이크를 걸기 쉽지 않습니다. 특히 천문학적인 돈이 투자되고, 기술 개발로 인해 막대한 수익을 거둘 수 있을 것으로 예상되는 이런 상황에서 자발적 규제를 한다는 것은 비현실적입니다. 실제로 지난 3월 22일 미국의 비영리단체 “생명의 미래 연구소(Future of Life Institute)”에서는 “거대 인공지능 실험을 일시중지하라(Pause Giant AI Experiment: An Open Letter)”라는 제목으로 공개 서한을 발표했지요, 이 논의에 테슬라 창업자 일론 머스크와 애플 공동창업자 스티브 워즈니악 그리고 유발 하라리 같은 유명인사들이 참여했다는 사실이 알려지면서 더욱 유명세를 타게 되었습니다. 그런데 아이러니하게도 이러한 논의가 있은 후 약 3주 정도 지난 후 일론 머스크는 인공지능회사 “X.AI”를 설립합니다. 이런 이중적인 모습이 나타날 수 있기 때문에 민간의 자율 규제에 맡기는 것은 답이 아니라고 생각합니다. 오히려 우리 모든 그리스도인들이 관심을 가지고 참여해야 한다고 생각합니다. 

중요한 것은 인공지능의 개발과 활용이 단기적 이해관계에 의해서만 결정되지 않도록 하는 것인데, 이 일을 누가 하겠습니까? 맘몬이 아닌 하나님을 섬기는 우리 교회가 끊임없이 감시하고 요구해야 할 것입니다. 기술 전문가들에게 모든 것을 맡겨 놓고 세상이 어떻게 돌아가는지, 그들이 세상을 어떻게 바꿔 놓고 있는지 아무것도 모른 채 지내는 것이 아니라 이 땅을 관리하고 다스리는 사명을 받은 청지기들인 우리들이 적극적으로 이 일에 참여하고, 끊임없이 저 멀리 있는 지평선 너머에서 다가오고 있는 변화의 바람을 살펴야 할 것입니다. 

그런데 조금 안타까운 것은 이러한 인공지능의 윤리적 기준을 마련하는 데 있어서 기독교계가 조금 뒤쳐지기도 했고, 또 여전히 그에 상응하는 노력들을 하지 않고 있는 것입니다. 제가 제직하고 있는 아신대학교에서 교육혁신센터장을 맡고 있기 때문에 우리나라 신학대학에서는 최초로 “생성형 AI 활용 가이드라인”을 만들었습니다. 그런데 그 때 여러 언론사에서 관심을 가지면서 교회와 성도들을 위한 가이드라인은 만들 계획이 없느냐고 질의했습니다. 그런데 저는 아직은 만들 계획이 없고, 무엇보다 그런 가이드라인은 교단을 중심으로 총회를 거쳐 만드는 것이 좋겠다고 답했습니다. 그런데 올해 열린 각 교단 별 총회들을 보니 ‘챗GPT에 대해 주의하자’, ‘기준이 필요하다’라고 말은 하면서도 실제적인 가이드라인을 내놓은 교단은 없었습니다. 그래서 <챗GPT 목사님 안녕하세요(뜰힘, 2023)>를 저와 함께 쓴 교수들과 목회자와 일반 성도들을 위한 생성형 AI 활용 가이드라인을 정리했습니다. 한편 우리는 신학교 교수들이라 목회적 관점을 놓칠 수도 있으니 미래목회와말씀연구원과 함께 검토 및 수정 과정을 거쳐 곧 발표할 예정입니다. 

김승욱 : 방금 말씀하신 <챗GPT 목사님 안녕하세요>라는 책에 챗GPT와 관련된 상당한 답변이 있을 것으로 생각되는데, 이 책 소개를 좀 부탁드립니다. 

이수인 : 이 책은 아신대학교(ACTS) 교육 연구소의 지원을 받아 기획한 프로젝트의 결과물입니다. 챗GPT를 직접 사용하고 평가함으로써 훌쩍 다가온 인공지능 시대를 그리스도인들이 어떻게 대처할 수 있는지 살펴보기 위해 아신대학교에 재직하고 있는 네 명의 젊은 교수들이 함께 지혜를 모았습니다. 이 책은 크게 두 부분으로 이루어져 있습니다. 첫 번째 파트에서 챗GPT가 어떤 인공지능이고, 또 어느 정도의 실력을 가지고 있는지 알아보기 위해 여러 질문을 던졌습니다. 특히 챗GPT를 한 번도 사용해 본 적 없지만, 이 새로운 인공지능이 궁금한 분들을 위해 모두가 가질 만한 다양한 질문들을 던져 보았습니다. 또한 독서의 즐거움을 위해 멀지 않은 미래, 한국의 어느 지역교회에 챗GPT 사역자, 곧 G목사가 부임한 흥미로운 상황을 연출해 보았습니다. 다섯 명의 필진들이 각자의 역할을 정하여 ‘G목사’와 긴밀한 대화를 나눕니다. 먼저 기독교교육과 미디어를 가르치는 제가 학부모 대표가 되어 과연 G목사가 아이들에게 신앙을 가르칠 수 있는지에 관한 문제로 대화를 나누었고, 신약학을 가르치는 김규섭 교수가 후배 사역자가 되어 G목사의 주해 및 설교 실력을 검증했습니다. 또한 조직신학을 가르치는 김학봉 교수는 새신자 역할을 맡아 G목사에게 신학과 교리에 관한 질문을 했고, 미디어를 가르치는 유지윤 교수가 여자 성도의 역할을 맡아 여성의 관점에서 G목사와 대화를 나누었습니다. 마지막으로 역사신학을 가르치는 전희준 교수가 가나안 성도가 되어 한국 교회에 대한 여러 질문을 던졌습니다. 첫 번째 파트에서 등장하는 G목사의 응답은 어법 상 약간의 교정이 있기는 했지만 오롯이 챗GPT의 응답을 그대로 담은 내용입니다. 

그리고 이어지는 두 번째 파트에서는 필진 모두가 챗GPT와 대화를 나눴던 경험을 반추하며 각 전공의 관점에서 챗GPT를 분석하고, 인공지능 시대를 그리스도인들이 어떻게 준비하고 대응해야 하는지 의견을 정리했습니다.

이 책이 처음 나왔을 때는 ‘챗GPT 목사’라니 너무 나간 것이 아니냐고 이야기하시는 분들도 계셨습니다. 그런데 놀랍게도 이 일이 실제로 이루어졌습니다. 올해 6월 독일 바이에른 주의 한 교회에서 챗GPT를 통해 구현된 아바타가 목사로 나타나 다른 아바타들과 함께 40분 동안 기도하고 찬송하며 예배를 집례한 것이죠 우리의 예상이 전혀 터무니없는 것은 아니었구나 하는 생각과 동시에 씁쓸한 마음이 들었습니다. 

김승욱 : 신앙교육도 일종의 교육인데 생성형 인공지능에 의한 신앙교육과 사람이 하는 신앙교육의 차이는 어떻게 다를까요? 사실 코로나 기간 중 화상예배를 많이 드렸는데, 화상예배와 AI목사의 설교가 다르기는 하겠지만, 큰 차이가 안 느껴집니다. 원고를 주고 아바타가 설교할 수도 있고요. 이런 문제를 어떻게 봐야 할까요? 

이수인 신앙교육자로서의 챗GPT와 인공지능이 가지는 가장 큰 한계 중 하나는 바로 가르치는 사람이 자신의 삶으로 모범을 보여줄 수 없다는 것입니다. 현재 챗GPT는 우리가 질문하는 신앙적 질문들에 대해 수학적 계산을 통해 적절한 답을 찾고 이야기할 수 있을지는 모르나 결코 그 답의 내용들을 자신의 삶으로 살아내지는 않습니다. 이것은 영적 교사로서 치명적인 약점입니다. 왜냐하면 신앙은 머리에 지식을 쌓는 행위가 아니라 평생에 걸쳐 자신의 삶으로 살아내는 것이기 때문입니다. 

그렇다면 우리는 ‘역시 챗GPT가 영적 스승의 자리를 차지할 수 없으니 안심하자’ 이렇게 결론을 내려야 할까요? 아니 오히려 우리가 더욱 고민하고 반성해야 할 지점이 여기에 있는 것 같습니다. 즉, 이제는 신앙을 교육하는 교사가 자신의 삶으로 모범을 보여줄 수 없다면 차라리 인공지능과 대화하는 것이 영적으로 유익한 그러한 시대가 된 것입니다. 

또한 신앙교육의 본질을 생각할 때, 교사가 말씀대로 살아가는 삶의 모습들을 통해 가르치는 것도 중요하지만, 학생들이 직접 다양한 신앙 경험을 통해 배울 수 있도록 하는 것도 필요합니다. 그동안 한국 교회 교회학교 교육을 살펴보면 인지적으로 이해하고 배우는 교육에 조금 더 포커스가 맞춰져 있고, 다양한 경험이나 교육 활동을 통해 배우도록 하는 것을 경시하는 풍조가 약간 있지 않나 싶습니다. 그러나 실제로 우리가 신앙의 사람으로 자라고 성장하는 데 있어 풍성한 신앙 경험을 하는 것은 너무나도 중요합니다. 우리 모두가 각자 신앙의 여정을 돌아보면 그 동안 수많은 예배를 드리고, 셀 수 없이 많은 집회와 수련회를 참여했을 것입니다. 그런데 돌이켜 볼 때, 그 때 들었던 말씀 기억하는 사람들은 많지 않습니다. 대부분 예수님을 처음으로 인격적으로 만났던 경험, 기도 중에 하나님의 큰 은혜를 경험했던 일 그리고 수련회 때 있었던 여러 가지 인상적인 추억들과 같은 경험들을 떠올립니다. 

이와 같이 신앙의 길을 걸어올 때, 우리를 붙들어 주었던 것은 다양한 신앙 경험들입니다. 그러므로 다음세대들을 신앙인으로 자랄 수 있도록 교육할 때, 저명한 기독교교육 학자인 마리아 해리스(Maria Harris)가 이야기했듯이, 강의나 수업과 같은 인지적 활동뿐 아니라 예배와 기도 그리고 공동체 속에서의 섬김 등 다양한 신앙 경험들을 제공해 그러한 풍성한 삶의 경험이 마음에 쌓일 수 있도록 해야 합니다. 이처럼 다양한 신앙 경험을 통해 배우는 교육은 본질을 회복케 하는 교육이며, 앞으로 아무리 인공지능이 발달해도 AI는 절대로 제공할 수 없는 것입니다.

그리고 저는 AI 목사나 아바타가 설교하는 것을 크게 걱정할 필요는 없다고 생각합니다. 첫 번째 이유는 챗GPT와 같은 인공지능이 하는 설교는 기도와 영성이 뒷받침되지 않기 때문입니다. 언어모델에 기반한 챗봇인 챗GPT는 의식이 있거나 신앙이 있는 것이 아니기 때문에 신학적 질문에 대한 답을 제공하고, 주옥같은 내용으로 설교문과 기도문을 작성한다고 해도 절대로 그 과정에서 기도하지 않습니다. 그렇기 때문에 의식도 없고, 기도도 하지 않는 존재인 인공지능을 설교자가 두려워할 필요가 없다고 생각합니다. 오히려 만약 두려워하는 설교자가 있다면 그 설교자 자신이 뜨겁게 기도하고 치열하게 말씀을 묵상하며 준비한 설교를 하고 있지 않다는 반증이 아닐까 (다소 도발적인 생각이 될 수 있겠지만) 생각해 봅니다. 두 번째로 AI 목사나 아바타의 설교를 경계할 필요가 없는 이유는, 설교는 한 지역 교회를 이루고 있는 성도들의 삶의 정황에서 진정한 힘을 발휘하기 때문입니다. 사실 지금도 서점이나 도서관 그리고 인터넷을 통해 교회 역사 가운데 있었던 수많은 위대한 설교자들의 설교를 전문 그대로 입수할 수 있습니다. 그렇지만 그렇게 좋은 설교문을 그대로 읽는다고 똑같은 역사가 일어날까요? 아니 그렇지 않을 겁니다. 아무리 좋은 내용이라고 해도 우리 교회 성도들의 삶의 상황과 형편과 동떨어진 내용이라면 그렇게 큰 영적 영향력을 미치기 어렵습니다. 그렇기 때문에 성도들의 상황을 전혀 알지 못한 채 단순한 수학적 계산으로 작성된 설교를 하는 인공지능의 설교를 그렇게 경계할 필요는 없다고 생각합니다. 

김승욱 : 처음 GPT가 나올 때 열기가 대단했는데, 이제는 한물 간 느낌도 듭니다. 사실 스마트폰이 처음 나올 때는 좀 좋은 전화기가 나왔나보다 했는데, 거기에 카메라를 장착하길래 ‘전화기에 뭐 하러 카메라를 넣었지’ 이런 의문이 들었습니다. 그런데 그 기능으로 인해서 이제 전 세계 사람들이 스마트폰을 쥐고 살게 될 정도가 되었습니다. 반면에 메타버스의 경우 페이스북이 메타(Meta)라고 이름도 바꾸고 앞으로 엄청난 변화를 가져올 것이라고 예상했지만, 아직은 피부에 와닿을 정도의 변화는 별로 느껴지지 않고 있습니다. 앞으로 인공지능의 열기는 어떠할 것으로 예상하십니까? 

이수인 : 정말 말씀하신 것처럼 이제는 인공지능의 열기가 한물 간 것이 아닌가 싶을 정도로 느껴지기도 합니다. 한 때는 사람들이 모이면 자연스럽게 챗GPT 이야기가 나오고, 거의 모든 화제의 중심에 인공지능이 있었는데, 지금은 그 정도는 아닙니다. 그러나 새로운 과학 기술이 나올 때 사람들의 반응은 대체로 지금과 비슷했습니다. 처음에 스마트폰이 나올 때도 비슷한 모습이 있었습니다. 재미있게도 처음에 아이폰이 나왔을 당시 사람들이 가장 많이 다운 받은 앱 중에 하나가 촛불을 후 불면 화면 속의 촛불이 흔들리는 앱이었습니다. 이전의 피처폰에는 없던 감지 센서로 사람의 숨을 감지해 촛불이 흔들리고, 또 그것을 큰 화면으로 볼 수 있으니 많은 사람들이 너무 신기해하고 재미있어 하면서 다운받고는 했습니다. 그러다가 카카오톡이 나오는데요, 이게 바로 게임 체인저(game changer)였습니다. 당시는 30원 정도의 비용을 내야 한 건의 문자를 보낼 수 있었는데, 이 카카오톡이라는 앱을 통해 누구나 무료로 마음껏 문자를 주고받을 수 있게 된 것입니다. 이렇게 처음에 아이폰과 같은 스마트폰이 출시했을 때도, 얼리어답터들이나 열심히 썼지 대부분의 사람들에게는 ‘어? 좀 신기하네’하고 느끼는 정도였습니다. 그러다가 카카오톡 같은 ‘킬러’ 서비스가 등장하자 대중적으로 보급이 되고 널리 사용되기 시작했습니다. 아마 인공지능도 비슷한 길을 걷지 않을까 생각해 봅니다. 처음에는 챗GPT 같은 생성형 인공지능이 답을 하는 것이 신기하기도 하고 놀랍기도 하여 관심이 높아졌지만, 아직은 실제로 우리의 업무나 삶의 문화를 바꿀 정도의 킬러 서비스가 등장하지는 않았기에 다시 사람들의 관심 정도가 약간 줄어든 것 같습니다. 그러나 (어떤 서비스가 될지는 모르지만) 킬러 서비스가 등장하게 되면 다시 또 인공지능을 향한 열기는 뜨거워질 것이라고 생각하고요, 그 때는 지금과는 전혀 다른 차원의 관심이 몰리게 될 것입니다.

아무튼 중요한 것은 돈의 흐름을 보는 것이라고 생각합니다. 한 때 뜨거웠으나 지금은 약간 관심이 시들한 것이 인공지능 외에 또 하나가 바로 말씀하신 메타버스(Metaverse) 서비스입니다. 특히 지난 2021년 대면으로 사람들을 만날 수 없었던 코로나19 팬데믹 상황과 맞물려 차세대 가상세계 플랫폼으로 엄청난 주목을 받았었는데, 어느새 그 열기가 급속하게 식어버렸고, 그동안 많은 투자를 했던 빅테크 기업들까지도 최근 관련 부서와 사업 부문을 정리하며 빠르게 철수하고 있습니다. 그런데 인공지능 쪽은 이와는 전혀 반대의 상황입니다. 돈줄이 말라가는 것이 아니라 ‘눈먼 돈을 던진다’는 표현이 나올 정도로 인공지능 관련 산업과 기업에 돈이 몰리고 있습니다. 그래서 타임지에서는 ‘AI 군비 경쟁(AI Arms Race)’이라는 표현을 쓰기도 했는데요, 현재 전 세계의 테크 기업들이 주도권을 잡기 위해 벌이고 있는 치열한 경쟁을 잘 묘사하고 있습니다. 이와 같이 일반인들의 관심과는 별개로 AI 관련 산업은 엄청난 돈 싸움 속에서 발전하고 있습니다. 그러므로 폭풍 전야의 고요함을 보며, 별것 아니네 생각하기 보다는 다가올 더 큰 폭풍을 지혜롭게 준비해야 하지 않을까 생각합니다. 

김승욱 : 장시간 정말 유익한 말씀에 감사드립니다.