[이내찬교수의 광고로보는 통신역사]〈49〉챗GPT와 인간의 환각 작성일 01-11 16 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="UladXdB3sQ"> <figure class="figure_frm origin_fig" contents-hash="6e6ac937ff8f2675df342f8dcefe3cd840af91c4adfc2c58fa134168909aea34" dmcf-pid="u5sc7cQ9DP" dmcf-ptype="figure"> <p class="link_figure"><img alt="영립원소프트랩의 '질문 능력이 핵심(2025.12·왼쪽)'과 'AI와 인간(2025.09)' 광고." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/11/etimesi/20260111160258404uizc.jpg" data-org-width="688" dmcf-mid="Qkta0a4qwy" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/11/etimesi/20260111160258404uizc.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 영립원소프트랩의 '질문 능력이 핵심(2025.12·왼쪽)'과 'AI와 인간(2025.09)' 광고. </figcaption> </figure> <figure class="figure_frm origin_fig" contents-hash="2f7c2a2f83599c20e51422129f5f3d39f0e6487a59bc4d24e8a76692881a7bbd" dmcf-pid="71Okzkx2D6" dmcf-ptype="figure"> <p class="link_figure"><img alt="이내찬 한성대 경제학과 교수" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/11/etimesi/20260111160259633fhkm.jpg" data-org-width="233" dmcf-mid="xgFNpN8BrT" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/11/etimesi/20260111160259633fhkm.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 이내찬 한성대 경제학과 교수 </figcaption> </figure> <p contents-hash="1d3a847b6efa4e33ec159e94cbd51a510fc1e7d3252fb3252ecda734854bec48" dmcf-pid="ztIEqEMVs8" dmcf-ptype="general">천하 만능인 챗GPT도 환각(hallucination)이라는 약점을 가지고 있다. 이는 거대언어모델(LLM)이 '사실이 아닌 내용을 마치 사실인 마냥 조리 있게 엮어서 둘러대는 현상'이다. 특히 제대로 학습 받지 못한 내용에 관한 질문에 취약하다. 한국 관련 학습이 부족했던 초창기에는 세종대왕 시대를 노트북과 연관 짓기도 하고 독립운동 105인 사건에 대한 설명은 황당무계할 정도로 소설 그 자체였다. 관련 문헌을 물어보면 세상에 존재하지도 않는 책·논문 제목이나 URL을 만들어내는 창의성(?)마저 보여 당황스럽다. 자신이 넘치게 답변하고 그럴싸하게도 들리니 넋 놓고 있으면 결과를 여과 없이 받아들이기 쉽다. 맹신하면 개인·조직의 의사결정에 치명타가 될 지도 모른다. 학습 정보 자체가 편향된 경우에도 왜곡이 발생한다.</p> <p contents-hash="143d6ddc5ace2f1bd7292b1cebacb9c7c3c5da3e4ccc0d202270fd10753f0057" dmcf-pid="qFCDBDRfw4" dmcf-ptype="general">LLM의 훈련 방식이 주요인이라는 지적도 있다(오픈AI, 2025). 정답만 맞히면 점수를 부여하기에, 마치 시험에서 틀려도 감점이 없으니 일단 찍고 보자는 것과 마찬가지로 오답을 내놓는다는 것이다. 해결책은 풍부한 지식을 학습시키고 편향되지 않은 데이터를 사용하는 것이다. 오답에 벌점을 부과하고, 기권에는 부분 점수를 주는 훈련 방식도 대안이다.</p> <p contents-hash="d9e9bfb33f9b78400ddb6511d27020bb11ee2ba61089bb54e562c766e71e80b1" dmcf-pid="B3hwbwe4mf" dmcf-ptype="general">챗GPT의 환각 현상은 반드시 부정적이지만은 않다. 인간이 챗GPT에 과도하게 의존하지 않고 자신의 지식이나 외부 정보로 답변을 더블체크 하는 주체적인 인지를 발동해야 하기 때문이다. 사람도 잘 모르면 답변이 엉망일 수 있지만, 열린 사고로 배우면 충분히 개선될 수 있다. 예컨대 취업 면접에서 예상치 못한 질문에 대해 모른다고 답하는 것보다는 아는 한도 내에서 일관성 있게 설명을 제시하는 것이 바람직할 수 있다. 입사 후 업무에 익숙해지고 제대로 된 현업정보에 접하면 편향은 쉽게 보정될 수 있기 때문이다. 양궁에서 화살들이 과녁에서 벗어나더라도 한 군데 몰려 있으면 영점 조준으로 높은 점수를 얻을 수 있는 것과 같은 이치다. 업무는 단숨에 오리엔테이션·매뉴얼을 통해서가 아니라 사수에게 묻거나 동료와의 대화 속에서 시행착오를 겪으며 습득되는 것이다. 이 같은 지식 진화는 불완전한 사전 정보를 외부 정보에 의해 사후적으로 갱신하며 진실에 가까워지는 베이지안 추론과 유사하다.</p> <p contents-hash="50835b289f85759d4e67d740241016dc7665ca1c07e278c71229b10dc8ad6642" dmcf-pid="b0lrKrd8IV" dmcf-ptype="general">문제는 확증 편향과 같은 닫힌 사고다. 새로운 정보에서 자신의 신념에 부합하는 정보만을 취사 선택해 일관되게 편향된 사고를 견고하게 하기에 학습·훈련으로 고쳐 쓰지 못하고 베이지안 추론이 작동하지 못하는 크롬웰 규칙이 발생한다.</p> <p contents-hash="b5eea5f5edfe7357eef8d886a7415e2d6c1f545ad7e03ed97e63d2181d4d8043" dmcf-pid="KpSm9mJ6I2" dmcf-ptype="general">환각 문제의 위험은 항상 도사리고 있고 개선책을 마련하는 것은 이용자가 아니기에 그저 개개인은 챗GPT에 과도하게 의존해서는 아니 되며 열린 소스로 끊임없이 검증·보정해야 한다. 마찬가지로 사회가 건전해지기 위해서는 닫힌 사고에서 벗어나 새로운 정보를 중립적으로 받아들이며 수정·갱신하는 열린 사고가 작동돼야 한다.</p> <p contents-hash="6ba98f5d1dbb66c435e6c867963413b26784b94a8c4fb0615f06dac7e6c13e22" dmcf-pid="9Uvs2siPD9" dmcf-ptype="general">이내찬 한성대 경제학과 교수 nclee@hansung.ac.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 전자신문. 무단전재 및 재배포 금지.</p> 관련자료 이전 송혜교·공유, 드디어 본다…노희경 ‘천천히 강렬하게’ 크랭크업 01-11 다음 [CES 2026] “AI, 성과를 내는 실행 단계 진입”…전자신문 라스베이거스 좌담회 01-11 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.