AI로 정신건강 예측 시도 많지만... 임상 적용은 시기상조 작성일 09-19 67 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">임상 데이터 쌓여 연구 늘었지만<br>숨은 징후 못 찾고 블랙박스 여전<br>높은 위험도 선별엔 도움 되지만<br>최종 진단에 AI는 보조 수단일 뿐</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="YmqwWwDxLL"> <blockquote class="pretip_frm" contents-hash="a4031c97ff85083fe52ec8e98f210dc71da05a98fe18b8e1d21cc81af4ea9032" dmcf-pid="GzAu6uUlen" dmcf-ptype="pre"> 편집자주 <br>우주, 인공지능, 반도체, 바이오, 에너지 등 첨단 기술이 정치와 외교를 움직이고 평범한 일상을 바꿔 놓는다. 기술이 패권이 되고 상식이 되는 시대다. 한국일보는 최신 이슈와 관련된 다양한 기술의 숨은 의미를 찾고 사회에 미치는 영향을 심층 분석하는 '테크 인사이트(Tech Insight)'를 격주 금요일 연재한다. </blockquote> <figure class="figure_frm origin_fig" contents-hash="c2bf390b9326fb9e9bb1fdfb191b92a1b719c1673cceda61d8142b26e4eeac87" dmcf-pid="Hqc7P7uSni" dmcf-ptype="figure"> <p class="link_figure"><img alt="생성형 인공지능(AI) 애플리케이션(앱) 로고들. 게티이미지뱅크" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/19/hankooki/20250919043241681jjgp.jpg" data-org-width="640" dmcf-mid="WWc7P7uSeo" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/19/hankooki/20250919043241681jjgp.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 생성형 인공지능(AI) 애플리케이션(앱) 로고들. 게티이미지뱅크 </figcaption> </figure> <p contents-hash="888c97ec524ea29b9014417da2b1dd0823dfbc0c3a53cf8f67fdb57c8c9a7c9f" dmcf-pid="XBkzQz7vnJ" dmcf-ptype="general">인공지능(AI)이 발전하면서 정신질환 진단에 활용 가능성을 모색하는 다양한 연구가 진행되고 있다. 임상 데이터가 상당히 축적된 덕분이다. 그러나 AI는 어디까지나 보조 수단일 뿐이라는 게 전문가들의 공통된 견해다.</p> <p contents-hash="147f2bbed3b1c977c024cd00f0201afca2987d8537bbbfcd3cbd44cc0785f6ac" dmcf-pid="ZbEqxqzTed" dmcf-ptype="general">지난 3월 미국 듀크대 의대는 청소년들의 정신건강 악화 시기를 AI로 예측하는 <span>연구</span>를 했다. 연구진은 5년간 아이들 1만1,000여 명을 대상으로 심리사회적 평가와 뇌 발달 평가를 한 자료를 활용해 인공신경망을 구축했고, 이를 바탕으로 소아 환자의 감정과 증상에 대한 응답을 분석했다. 연구진이 만든 모델은 1년 안에 질병이 악화하는 환자를 정확도 84%로 식별해냈다. </p> <p contents-hash="1c6afe77168c82765a2ee0635d9888b2b8180f9568223dac4c2969db2b296da9" dmcf-pid="5KDBMBqyie" dmcf-ptype="general">서울 보라매병원 정신건강의학과에서도 지난 6월 거대언어모델(LLM)을 이용해 환자의 우울과 자살 위험을 예측하는 <span>연구</span>를 했다. 연구진은 2016~2021년 병원을 방문한 18~39세 환자 1,064명의 문장완성검사(SCT)를 바탕으로 챗GPT와 제미나이 등 최신 모델들을 훈련시켰다. SCT는 임상심리치료 현장에서 환자를 진단하기 위해 쓰는 심리 검사다. 예를 들어 ‘나의 좋은 점은 OO다’ ‘나에게 가장 문제가 되는 것은 OO다’ 등 문장의 빈칸에 어떤 답을 하느냐에 따라 우울 정도를 판단하는 것이다. 연구결과 LLM은 우울·자살 위험을 높은 정확도로 예측했고, 학습을 거듭할수록 정확도도 개선됐다.</p> <p contents-hash="3ecd667b3303ee21dfdc3feff3deaaccf66647eb049e408f69d5fea4f25c90d4" dmcf-pid="19wbRbBWLR" dmcf-ptype="general">단 이를 의료 현장에 적용하기엔 한계가 많다. AI는 환자의 답변만 봐서는 알 수 없는 징후들을 포착하지 못하기 때문이다. 보라매병원 연구에서 AI의 자살 위험 예측 정확도가 우울보다 떨어진 것도 이 때문이다. 또 AI가 어떤 과정을 거쳐 진단을 했는지도 ‘블랙박스’에 갇혀 있다. 노경진 보라매병원 교수는 “위험도가 매우 높은 환자를 선별하는 도구 정도는 되겠지만, AI는 여전히 불완전하다”라며 “최종 진단은 사람의 몫”이라고 강조했다.</p> <p contents-hash="2f3f6572ba4562e7c41be44e3b54a6647506bff0abff6d808c7dc1abc550ce79" dmcf-pid="t2rKeKbYMM" dmcf-ptype="general">각국 정부도 정신건강 의료 행위에 AI 적용을 규제하는 조치를 마련하고 있다. 독일 정부는 올해 개정한 의료기기법에 AI 의료기기와 정신건강 챗봇을 고위험 의료기기로 규정하고 엄격한 임상시험과 인증을 거쳐야 한다는 내용을 담았다. 프랑스와 네덜란드도 정신건강 관련 AI의 안전성과 보안성을 강화하기 위해 법을 개정하고 있다.</p> <p contents-hash="afc83e1fdb260e2a83731252d09a5d08fdb4d345665684bd73e612d5f9bca0c4" dmcf-pid="FVm9d9KGMx" dmcf-ptype="general">신혜정 기자 arete@hankookilbo.com</p> </section> </div> <p class="" data-translation="true">Copyright © 한국일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 “저녁에 뭐 먹을까?” 질문하다 중독된다… ‘AI 정신병’ 어떻게 커지나 09-19 다음 [제48기 SG배 한국일보 명인전]신진서 9단, 행운의 승리와 함께 명인전 승자 결승 진출! 09-19 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.