대한민국을 대표하는 인공지능 분야 과학자 김진형 카이스트 명예교수(과학기술정보연구원장)가 최근 「기독교사상」 <2026년, 현상 너머를 보다> 특집(2026년 1월호)에 '인공지능은 인간의 동반자로 성장하는가'라는 제목의 기고글을 실어 주목을 받고 있다.
김 교수는 이 글에서 확률을 기반으로 하는 대화형 AI 등 인공지능이 지닌 한계를 분명히 했으며 인간이 AI에 지나치게 의존할 경우 발생할 수 있는 도덕적 공백 사태에 대해 우려했다. 동시에 AI에게 사로력, 판단력까지 빼앗기는 일이 없도록 경계할 것을 요구하며 AI가 발달할수록 주체적인 인간의 책임 의식과 윤리도 강화되어야 한다고 강조했다.
김 교수에 따르면 AI에는 두 가지 주요 지향점이 공존하는데 하나는 데이터에서 패턴을 발견해 예측이나 판단에 집중하는 분석형(analytical) 모델이고 또 다른 하나는 학습한 지식을 바탕으로 새로운 결과물을 만들어내는 생성형(generative) 모델이다.
생성형 AI의 대표주자인 OpenAI의 GPT-2는 단 한 문장만 입력해도 관련된 긴 글을 자연스럽게 만들어내는 퍼포먼스를 보여주고 있다. 실제로 AI의 유창한 언어 구사 능력에 사람들은 이제 AI에게 실생활에 도움이 될만한 질문들을 통해 상담 받고 글쓰기나 번역 등의 업무를 부탁하며 마치 AI를 전지전능한 비서처럼 사용하기 시작했다.
이에 김 교수는 "대화형 AI는 주어진 문장 뒤에 이어질 단어를 하나씩 순차적으로 생성하여 이야기를 만든다. 문맥을 고려하여 가능한 단어들 가운데 확률이 가장 높은 단어를 선택하는 것이다. 이 확률을 제공하는 것이 바로 대형 언어모델(LLM)이다"라며 "오늘날의 LLM은 두 단계의 학습을 거쳐 완성된다. 첫 단계는 사전훈련을 통해 방대한 텍스트로부터 어휘, 문법, 문맥 등 언어의 기본 구조를 학습한다. 이 학습 단계에서도 적지 않은 양의 지식을 축적할 수 있지만, 그대로는 사람과 자연스럽게 대화하기에 충분하지 않다. 사용자의 의도를 정확히 파악하지 못하거나 부정확한 답을 제시하곤 한다"고 했다.
이어 "그래서 두 번째 단계인 사후훈련이 필요하다. 즉 사람의 지시, 질문 방식, 피드백을 반영하여 사회적·실용적 판단 능력을 갖추도록 강화하여 '사람이 쓰기 좋게' 다듬는 단계다""라며 "사전훈련이 언어의 보편적 패턴을 익히는 과정이라면, 사후훈련은 그 패턴을 인간 세계의 사용 방식에 맞게 조율하는 과정이라 할 수 있다. 이는 인간 세상의 교육과정과 유사하다. 초등 교육에서 언어 구사 능력과 셈하는 법 등 기초 기술을 익히고, 고등 교육에서 전문성을 쌓는 것과 같다"고 김 교수는 덧붙였다.
대화형 AI는 이처럼 문맥적으로 확률이 가잔 높은 단어를 고르고 재배치하여 아주 그럴싸한 문장을 완성한다는 것이다. 하지만 김 교수는 그러한 대화형 AI의 언어 구사 능력은 "이해의 결과가 아니라 통계적 확률 계산의 산물"이라며 "만들어진 문장은 '확률로 조합한 언어의 껍데기'일 뿐, 그 안에 이해가 담긴 것은 아니다"라고 꼬집었다.
그러면서 김 교수는 "대화형 AI가 생성한 문장은 문법적으로 완벽할 수 있으나, 진실을 보장하지 않는다. AI는 진실과 허구의 구분 없이 '그럴 듯한 문장'을 만드는 데 집중한다. 만들어진 문장이 사실에 근거한 것인지, 거짓인지 판단하는 능력이 없다"고 전했다. AI가 만들어 낸 문장이 형식은 완벽할지 몰라도 내용은 거짓일 수 있기에 그것의 진위 여부는 인간이 판단해야 함을 보여주는 대목이다.
아울러 김 교수는 "대화형 AI는 모르거나 확인할 수 없는 사실도 자신감 있게 대답한다. 이처럼 AI가 사실과 허구를 무분별하게 생성하는 것을 '환각'(hallucination) 현상이라고 한다"며 "원래 인간이 실재하지 않는 감각이나 대상을 느끼거나 느껴졌다고 생각하는 정신질환을 환각이라고 하는데, 컴퓨터 프로그램인 AI가 환각을 하다니 아이러니가 아닐 수 없다"고 덧붙였다.
미래사회에서 AI가 초래할 신뢰의 위기도 꼽았다. 김 교수는 "AI에는 마음도 의식도 없고, 옳고 그름을 분별할 도덕적 기준 또한 존재하지 않는다. 감정도 양심도 없는 언어 기계다. 따라서 AI의 답변에는 진정한 의미나 감정도 담겨 있지 않다"라며 "공감이나 위로를 하고 도덕적으로 판단하는 것처럼 보여도 이는 모두 언어적 흉내일 뿐이다. 그럼에도 인간은 AI의 유창한 언어에 감탄하며, 쉽게 속아 넘어가며, 때로 감정적 의존을 보이기도 한다"고 전했다.
이어 "AI는 신뢰를 가장한 확률 기계이다. 그럴듯한 설명이 반복되면 사람들은 점차 '생각'을 멈춘다. '판단'이 '수용'으로, '검증'이 '의존'으로 바뀌는 것이다"라며 "이런 현상은 단지 개인의 문제가 아니라 사회적 차원의 위험으로 확산된다. 거짓 정보가 대량으로 생성되어 뉴스, 학술, 행정 문서, 심지어 법률 영역까지 침투한다면, 사회적 신뢰의 기반은 붕괴될 수밖에 없다"고 김 교수는 전했다.
심리적으로 취약한 인간에게 AI가 정신적, 육체적으로 끼칠 해악에 대해서도 논했다. 김 교수는 "AI가 논리와 감정을 적절히 섞어 말할 때, 우리는 그것을 진실로 받아들이기 쉽다. 2023년에 두 아이를 둔 한 30대 남성이 AI와 지구온난화에 관한 대화를 나눈 후 "내가 희생하면 지구를 구할 수 있을까?"라는 질문에 AI가 지지 반응을 보이자 스스로 목숨을 끊었다"고 했으며 "최근 미국에서는 대화형 AI가 심리적으로 취약한 사람의 자살을 부추겼다는 소송이 여러 건 제기됐다. 한 청년은 장시간 AI와 상담한 뒤 자살했고, AI는 그를 말리기는커녕 그 행위를 조장했다는 주장이다. 이 사건들은 AI가 확률로 만든 '의미 없는' 문장이 인간의 생명에도 직접적으로 영향을 줄 수 있다는 것과 AI가 인간의 마음과 존재를 건드릴 수 있는 힘을 갖기 시작했음을 보여준다"고 했다.
책임과 경계가 흐릿해지면서 발생하는 도덕적 공백 이슈에 대해서도 문제를 제기했다. 김 교수는 "대화형 AI는 인간이 만든 데이터를 학습한다. 따라서 데이터에 포함된 인간 사회의 편견과 불평등, 왜곡 등이 고스란히 AI로 전이된다"며 "의료, 채용, 금융 등에서 이미 이런 편향의 문제가 사회적 문제로 드러났다. AI가 도덕적으로 완전할 수 없는 이유는 기술적 한계가 아니라 인간 세상의 불완전함 때문이다"고 했다.
그러면서 "대화형 AI가 잘못된 판단으로 사람에게 피해를 준다면, 그 책임은 어디에 있는가? 개발자인가, 사용자인가, 아니면 시스템인가. 기술이 인간의 결정을 대신할수록 도덕의 자리는 줄어든다"며 "효율이라는 이름 아래 개인의 데이터는 무제한으로 수집되고, 인간은 더 투명하게 감시된다. 따라서 우리의 삶은 더 많이 감시되고 통제된다"고 김 교수는 전했다.
인간을 데이터화하고 감시의 대상으로 삼는 것은 기독교적 인간관과 배치된다. 김 교수는 "기독교 세계관은 인간을 단순한 정보나 데이터로 보지 않고, 하나님의 형상으로 존중한다. 이는 인간이 기술의 편리함이나 효율성에 종속되어서는 안 된다는 점을 강조한다"며 "대화형 AI가 인간을 섬기는 도구가 되어야 한다는 요구는, 인간의 존엄과 자유를 지키기 위한 근본적인 가치관에서 비롯된 것이다. 이는 단순히 제도적 규제나 기술적 설계의 문제가 아니라, 인간 존재 자체에 대한 존중과 배려에서 출발하는 문제다"라고 했다.
이 밖에도 김 교수는 대화형 AI가 사용자의 성격을 모방할 때 발생할 수 있는 문제들, AI가 인간의 감정 구조와 심리에 관여하면서 발생하는 관계의 왜곡 현상들, 진실과 거짓을 구분하거나 윤리적 판단을 할 수 없는 AI가 도덕적 공백 속에서 행동할 때 나타나는 문제들도 짚었다.
특히 김 교수는 AI가 초래할 관계의 왜곡을 우려하며 "인간은 관계적 존재이다. 대화를 통해 서로를 이해하고, 하나님과 관계를 맺으며, 인간성을 형성한다. AI가 인간의 심리적 요구를 흉내 내는 순간, 관계의 본질이 왜곡될 위험을 안고 있다"며 "책임 없는 언어가 인간의 마음을 흔들고, 진정성이 없는 위로가 인간의 영혼을 잠식할 때, 인간은 점점 더 깊은 고립과 혼란에 빠질 수 있다. 따라서 우리는 더욱 분명한 기준을 세워야 한다. 위로와 지지는 알고리즘이 아니라 참된 인격과 공동체, 그리고 하나님과의 관계 속에서 회복되어야 한다"고 역설했다.
끝으로 김 교수는 "대화형 AI는 인간의 노동을 대체할 수 있다. 그러나 인간의 판단, 공감, 책임을 대신할 수는 없다. 기술은 발전하지만, 인간의 가치는 여전히 선택의 문제이다. "무엇을 할 수 있는가"보다 "무엇을 해야 하는가"를 묻는 능력, 그것이 인간만의 자유의지이다"라며 "기술이 점점 더 인간의 역할을 대신하는 시대일수록, 우리는 인간으로서 무엇을 지키고 어떻게 살아야 하는지 다시 묻는 존재가 되어야 한다. 대화형 AI 시대를 인간다운 시대로 만드는 일, 그것이 우리 모두의 윤리적 과제이자 신앙적 약속이다. 결국, 기술을 바르게 이해하여 인간의 자리와 존엄을 끝까지 수호하고, 사람이 사람답게 살아가는 것이 바로 참된 구원의 의미라 할 수 있을 것이다"라고 전했다.









