챗지피티에 고민 털어놓기 전 주의사항 4가지…전문가 “완벽한 대상은 허상” 작성일 08-19 28 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="7a5dHibYEN"> <figure class="figure_frm origin_fig" contents-hash="6393cd03a08d6471111c4a8f2260f075a9ed269b111be0dea282b565eebdf46e" dmcf-pid="ziYQTMuSma" dmcf-ptype="figure"> <p class="link_figure"><img alt="게티이미지뱅크" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202508/19/hani/20250819070614675iife.jpg" data-org-width="970" dmcf-mid="uIC9sV5rOj" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202508/19/hani/20250819070614675iife.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 게티이미지뱅크 </figcaption> </figure> <p contents-hash="5e1688a7c3c40a471966dbf9612c8ba1e3009d604b1156374de6f7f445e1e388" dmcf-pid="qnGxyR7vDg" dmcf-ptype="general"> 인공지능(AI)은 예약 없이 상담도 해주고, 특별한 프롬프트를 넣지 않는 이상 나를 힐난하지도 않는 관대한 상담사다. 그러나 이런 인공지능은 상담을 위해 개발된 서비스가 아닌 만큼, 실제 사용에선 각별한 주의가 필요하다. 생성형 인공지능의 특징을 고려했을 때 유용할 만한 팁을 몇 가지 소개한다.<br><br> 조철현 정신건강의학과 교수는 기본적으로 챗지피티를 상담용으로 쓸 순 없다는 전제하에 “상담기법이라고 할 수 있는 것 중엔 ‘벤틸레이션(환기)’이라는 게 있다”며 “자기가 생각이나 감정을 풀어놓는 것만으로도 의미가 있다”고 말했다. 가벼운 수준의 고민, 특히 어떤 정보를 함께 찾아볼 때 사용하는 정도로는 사용해도 괜찮다. 챗지피티 등 대화형 인공지능도 인지행동치료(CBT) 등 다양한 이론을 간단한 수준에선 사용할 수 있기 때문이다.<br><br> 그러나 상태가 심각한 경우엔 사용해선 안 된다. 특히 약물과 임상적 진단은 절대적으로 인간 전문가에게 맡겨야 하며, 일상생활이 어려울 정도의 고통과 괴로움 역시 인공지능과의 상담으로 충분할 수 없다는 점을 명시해야 한다.<br><br> 대화형 인공지능을 사용할 때는 적절하게 지시를 내리는 ‘프롬프트’가 중요하다. 정보를 물어볼 때도 마찬가지이지만, 상담에 준하는 대화를 나눌 때는 대화형 인공지능이 확인되지 않는 정보는 생성하지 못하게 해야 한다. 노은정 두번째마음연구소장은 “특정 정보의 출처를 명시하거나 모르는 정보는 추측이나 확신 대신 ‘모르겠다’고 말하는 프롬프트를 사용하라”고 조언했다.<br><br> 대화형 인공지능은 길게 대화(멀티 턴)할수록 핵심 정보를 놓치거나 일관성이 떨어지는 현상을 보인다. 대화의 모든 정보를 참조하는 인공지능의 기술적 한계다. 아직 인간처럼 길게 이어지는 대화 속에서 효율적으로 정보를 저장하고 활용하진 못한다는 문제가 있다. 마이크로소프트와 세일즈포스는 지난 5월 발표한 ‘멀티 턴 대화에서 길을 잃는 대형 언어 모델’이라는 연구에서 인공지능 모델과의 대화가 길어질수록 신뢰도가 급격하게 낮아진다는 결과를 발표한 바 있다. 멀티 턴 대화는 사용자와 대화형 인공지능의 대화 차례가 여러 번 반복되는 긴 대화를 말한다. 연구에 따르면 소규모 오픈소스는 물론, 대형 언어모델의 최신 버전에서도 긴 대화에서의 정확도 하락이 관측된 바 있다.<br><br> 이 같은 문제를 해결하기 위해서는 주기적으로 그간의 대화를 요약하고 갈무리해 새로운 대화창을 열어 시작하는 방법이 있다. 대화가 너무 길어지지 않는 선에서 인공지능과의 대화를 요약하고, 그걸 기반으로 새로운 대화를 시작하면 더 좋은 품질의 이야기를 나눌 수 있다.<br><br> 전문가들은 사람이 아닌 인공지능 때문에 사람이 사람과의 관계에서 멀어지는 상황을 가장 경계했다. 노은정 소장은 “나에게 최적화된 완벽한 대상은 실제로 존재하지 않는 허상에 불과할 수 있다”며 무조건적 지지나 응원의 공급처로 인공지능 상담에 의존하는 것을 경계해야 한다고 지적했다.<br><br> 채반석 기자 chaibs@hani.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지</p> 관련자료 이전 오픈AI, 직원지분 8.3조원 현금화 숨통…핵심인재 방어 고육지책 08-19 다음 “챗GPT 지금 나 우울한데…” AI에 심리 상담 괜찮을까요? 08-19 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.