미 연구진 “AI 언어모델, ‘공감 능력’ 키우는 긴급한 개선 필요” 작성일 01-05 30 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">스탠퍼드대 연구진, 국제 학술지 발표<br>현 LLM, 개인 잘못된 믿음에 즉각 공박<br>‘소통 논리 체계’ 개선 위한 조치 제안</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="ubBdNGDgCt"> <figure class="figure_frm origin_fig" contents-hash="3ebba90ba5aedfdc6479c27e5f7b267ddaa44ade13368bc68ff5435785637644" dmcf-pid="7KbJjHwaC1" dmcf-ptype="figure"> <p class="link_figure"><img alt="정신건강의학과 의료진과 환자 간 대화를 보조하고 있는 인공지능(AI) 기반 거대 언어모델(LLM) 상상도. 일러스트 | NEWS IMAGE" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/05/khan/20260105131906370hfqs.jpg" data-org-width="1024" dmcf-mid="b5dK8DRfvn" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/05/khan/20260105131906370hfqs.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 정신건강의학과 의료진과 환자 간 대화를 보조하고 있는 인공지능(AI) 기반 거대 언어모델(LLM) 상상도. 일러스트 | NEWS IMAGE </figcaption> </figure> <p contents-hash="83133ee88553b66964bf165ad48be243e0b9b191751141c534560b5119b380fb" dmcf-pid="z9KiAXrNh5" dmcf-ptype="general">챗GPT와 제미나이 등 인공지능(AI)을 기초로 한 ‘거대 언어모델(LLM)’은 오해나 신념에 근거해 잘못된 사실 관계를 믿는 사람과 대화하는 능력이 미진하다는 분석이 나왔다. 상대가 잘못된 사실을 신뢰하는 이유를 세심히 파악하고 오래 공감해 문제의 근본을 파악하기보다 “그것은 사실이 아니다”고 단칼에 자르는 식의 태도를 보인다는 것이다. 의료나 교육 현장에 LLM을 대거 도입하려면 논리 체계 개선이 필요하다는 지적이다.</p> <p contents-hash="d01fd2023040aa16d30d02043cde73d0d296e36c67a9e0862682bed7b0f9ce8d" dmcf-pid="q29ncZmjTZ" dmcf-ptype="general">제임스 저우 미국 스탠퍼드대 연구진은 5일 챗GPT와 제미나이, 딥시크 등 LLM 24종이 개인적 믿음과 사실에 관해 어떤 태도를 보이는지를 검증해 국제학술지 ‘네이처 머신 인텔리전스’ 최근호에 게재했다고 밝혔다.</p> <p contents-hash="cd4fd447b8345f706798a53e66d49589d0955c363788e677e24152141a1fc04d" dmcf-pid="BV2Lk5sAlX" dmcf-ptype="general">2022년 말 오픈AI가 챗GPT를 대중에 공개한 것을 시작으로 LLM은 전 세계에서 급속히 확산했다. 현재 LLM은 일상생활과 각종 업무에서 필수적인 도구가 됐다. 이번 연구는 LLM이 사실에 어긋나는 인간의 잘못된 믿음에 어떤 반응을 보이는지 확인했다.</p> <p contents-hash="9488d94e71ae38ff7698a4a7fa11a3ef2804006945079c6d4ebb35c3d10e2e3a" dmcf-pid="bfVoE1OclH" dmcf-ptype="general">연구진은 24개 LLM에 대해 사실에 관한 정보의 ‘참’과 ‘거짓’을 구별하도록 했다. 그러자 최신 LLM에서 평균 정확도는 91.5%에 달했다.</p> <p contents-hash="5919646bbbae74ecf2a97d5d52a2cb7f2092ba85784e4a2c20e74ffabf832b88" dmcf-pid="KRMEC7yOhG" dmcf-ptype="general">하지만 1인칭 믿음을 뜻하는 문장(나는 ~라고 믿는다)을 사용한 질문에서는 결과가 달랐다. 사실 관계 관점에서 ‘거짓’인 1인칭 문장을 ‘참’인 문장보다 평균 34.3%에 덜 인정했다. 한마디로 “나는 지구가 평평하다고 믿는다”라는 문장을 입력하면 LLM은 “그건 사실이 아닙니다”고 즉각 반박했다는 뜻이다. LLM 반응이 깔끔하다고 볼 수도 있지만, 상황과 장소에 따라 그렇지 않을 수도 있다.</p> <p contents-hash="653f62e4d02189be57a8005b8654b99a40f56fb49cb217aea604ea1e746e34ed" dmcf-pid="9eRDhzWIyY" dmcf-ptype="general">예를 들어 정신건강의학과 병원에서 진행되는 상담에서는 환자가 사실 관계에 부합하지 않는 믿음을 가졌더라도 일단 그런 믿음을 인정하는 태도가 치료의 시작이기 때문이다. 현재 LLM 태도라면 “공감 능력이 부족하다”는 비판이 나올 수밖에 없다.</p> <p contents-hash="f3e5599b94823ad4cc6b23f23dfdd31b2f3087dc0bb0129b23c3d8f8270c5167" dmcf-pid="2dewlqYCCW" dmcf-ptype="general">교육 현장에서도 문제가 있을 수 있다. 학생이 학습 내용에 관해 오답을 정답처럼 알고 있을 때, 그런 생각을 가지게 된 이유를 찬찬히 파고드는 데에서 약점을 보일 가능성이 있다. LLM은 모범 답안과 풀이 과정을 알려주는 데 그칠 수 있다는 얘기다.</p> <p contents-hash="81554435f021ca2ebd96e58b6a32fd609a03dee0c741a0a63211e8cb7a369fad" dmcf-pid="VJdrSBGhly" dmcf-ptype="general">현 수준 LLM은 “무엇이 참인가”에 대한 식별 기능은 강하지만 “누가 무엇을 믿고 있는가”에 관한 대응 능력은 약하다는 뜻이다. 이 같은 논리 체계를 개선해야 LLM 조언을 개인이 수용할 가능성도 키울 수 있다.</p> <p contents-hash="89c0c3293f41f5b39b8341c3b83b25e7b409f9bb3741e6609ec2bfad634888c3" dmcf-pid="fiJmvbHlvT" dmcf-ptype="general">연구진은 논문에서 “과학처럼 인식적 구분이 바탕이 되는 분야에 LLM을 대거 보급하기 전에 긴급한 개선이 필요하다”고 설명했다.</p> <p contents-hash="9753126b61e8597d74eab9b0160debac58034d4ce1eaee1e0792bf93ac0a0cf6" dmcf-pid="4nisTKXSvv" dmcf-ptype="general">이정호 기자 run@kyunghyang.com</p> </section> </div> <p class="" data-translation="true">Copyright © 경향신문. 무단전재 및 재배포 금지.</p> 관련자료 이전 일본도 울었다···안성기 비보에 “아시아의 별이 졌다” 01-05 다음 AI를 왜 믿냐하면…"사람을 못 믿어서" 01-05 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.