백인 남성 데이터로 공부한 AI… 아동·희소병 환자는 잘 못본다 작성일 11-27 39 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">[일상을 바꾸는 AI : 의료] [4·끝] AI 의료 시스템의 남은 과제</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="xJGcTORfYj"> <p contents-hash="d04013ee5018e580446cee8032e251f14be10b4d323e492ed12948df3775565d" dmcf-pid="y0g9iQtW5N" dmcf-ptype="general">아일랜드 남서부 케리 카운티 킬라니에 사는 워런 티어니(37)씨는 음식을 삼킬 때마다 통증을 느꼈다. 그는 인공지능(AI) 챗봇인 챗GPT에 증상을 물었고, 챗GPT는 “암(癌)일 가능성은 매우 낮다”고 했다. 챗GPT는 “당신이 설명한 내용 중 암을 추정할 어떤 것도 없다”며 티어니를 안심시켰다. 하지만 통증을 참지 못해 병원을 찾은 티어니는 식도암 4기 진단을 받았다. 암 투병을 시작한 티어니는 이코노믹타임스에 “AI에 너무 의존하다가 곤경에 처했다”며 “AI의 위로에 결정적인 몇 달을 낭비했다”고 했다.</p> <figure class="figure_frm origin_fig" contents-hash="81eb8a629427b5879e3e8e84b2a1d8554272301e8773b0b8e989b3ed51e43524" dmcf-pid="Wpa2nxFYYa" dmcf-ptype="figure"> <p class="link_figure"><img alt="그래픽=이진영" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/27/chosun/20251127005810518ixix.jpg" data-org-width="480" dmcf-mid="PipCtYNdHc" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/27/chosun/20251127005810518ixix.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 그래픽=이진영 </figcaption> </figure> <p contents-hash="1e16d4d7b0d3574014028ff19b307123323d385376bbbd0d75c357a3e0fd9a10" dmcf-pid="YUNVLM3G1g" dmcf-ptype="general">AI가 위급한 병을 빠르게 예측·진단하고, 의료진의 업무를 덜어주며 의료 혁명을 이끈다는 평가를 받지만 이면에는 문제점과 해결해야 할 과제도 적지 않다. 전문가들은 충분한 효과 검증이 이루어지지 않은 상태에서 AI 도구가 의료계에 남용되면 심각한 의료 사고가 발생할 수 있고, 이 경우 누구에게 책임을 물어야 할지도 애매하다고 지적한다.</p> <p contents-hash="25ef5e501fdfd42de5d19255adc69b950630b8be82a6396daa32c670bdb03349" dmcf-pid="GujfoR0HXo" dmcf-ptype="general">◇특정 데이터 학습한 AI 오진 가능성</p> <p contents-hash="0cfe6e8eefaaad3f5d9d01bb03f79ab7314bbb6651f9fe801c108606c8072b99" dmcf-pid="H7A4gepXtL" dmcf-ptype="general">의학계에서는 AI 닥터의 진단 오류와 이에 따른 환자들의 위험 발생 가능성을 가장 큰 문제점으로 지적한다. AI 닥터의 판단 과정은 인간 의사도 알 수 없기 때문에 오진을 감지하고, 이를 증명하기는 쉽지 않다. 미 코언아동의료센터 연구진이 2024년 챗GPT의 소아 진단 사례 100건을 분석했는데 오진율은 83%였다. 연구진은 “증상과 나이 등을 복합적으로 고려해야 하는 소아 진단에서 AI 오진율이 특히 높았다”고 했다.</p> <figure class="figure_frm origin_fig" contents-hash="caa4a138663cf5d25a195e6d98181ffa9e60276800029e301370f6539c917798" dmcf-pid="Xzc8adUZXn" dmcf-ptype="figure"> <p class="link_figure"><img alt="그래픽=박상훈" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/27/chosun/20251127005812032rhiq.png" data-org-width="2000" dmcf-mid="QsqTU5EoGA" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/27/chosun/20251127005812032rhiq.png" width="658"></p> <figcaption class="txt_caption default_figure"> 그래픽=박상훈 </figcaption> </figure> <p contents-hash="4f69e6b8d04cbf10bcadcf4f4b108efe421894393fb13ad9451c0342109b178d" dmcf-pid="Zqk6NJu55i" dmcf-ptype="general">AI 오진은 편향된 의학 데이터를 학습한 데 따른 AI의 구조적 문제다. AI는 기존 연구 집단에서 얻은 데이터를 공부해 판단을 내리는데 주로 선진국 백인 남성 사례가 많이 사용된다. 데이터가 거의 없는 희소병이나 저소득 국가 환자에 대한 AI의 진단이 부정확할 수 있다는 것이다. 세계경제포럼(WEF)은 지난 10월 “AI 의료 시스템은 소수의 인구 집단에서 얻은 데이터를 기반으로 구축돼 있다”며 “세계 보건의 불평등을 심화할 수 있다”고 했다. 미 스탠퍼드대 연구팀에 따르면 흑인 여성의 AI 오진율은 50%에 달하는 것으로 나타났다.</p> <p contents-hash="4049bd71a0131b237ed1bd5abde90782ebff6859b89ccf3bab2e29acf70b302b" dmcf-pid="5BEPji71GJ" dmcf-ptype="general">편향된 데이터를 학습한 AI 닥터 진단은 불평등 치료로 이어질 수 있다. AI 의료가 소외 계층, 병원이 없는 오지 환자에게도 골고루 혜택이 가며 의료 격차를 줄일 것으로 기대되지만 반대로 이를 심화시킬 수도 있다는 주장이다. 지난 4월 네이처 메디신지에는 AI 대형 언어 모델(LLM)이 환자의 인구사회학적 특성을 반영해 의학적으로 정당하지 않은 진료 권고를 내릴 우려가 있다는 논문이 게재됐다. 연구진이 9개 AI 모델로 1000개 실제 진료 사례를 분석한 결과, AI는 흑인·성소수자·노숙인 등에게는 불필요한 정신 건강 평가를 권했다. 또 저소득층에는 기본 검사만 제안했고, 고소득 환자에게는 CT나 MRI 같은 비용이 많이 드는 검사를 더 많이 제안했다. 유사한 다른 연구에서도 AI가 같은 증상에 대해 남성보다 여성의 건강 문제를 축소해 문제가 없다는 식으로 답변한 경우가 많았다. 로이터는 “AI가 현실 세계에서 빈부 격차에 따라 벌어지는 의료 불평등을 모방한 것”이라고 했다.</p> <p contents-hash="cc0aaca9d8d11e1faa147a02ca2b456d4a79922fa15187d7cfc2ba2f392b211e" dmcf-pid="1bDQAnzt5d" dmcf-ptype="general">◇오진에 따른 책임 소재도 불명확</p> <p contents-hash="3c8a48e623a5c3dae227be799c3ab523c8359e65b371a00d5b63dbfeddfdb3bb" dmcf-pid="tVseDaKpGe" dmcf-ptype="general">AI 닥터의 진단으로 의료 사고가 발생했을 경우 법적 책임 소재도 모호하다. 현재 의료 사고가 났을 경우 해당 의료진과 병원에 과실 책임을 물을 수 있지만, AI가 CT나 엑스레이를 잘못 판독했을 경우 책임이 의사에게 있는지, 병원에 있는지, AI 개발사에 있는지 모호한 것이다. 미국 법률 정보 업체 엔주리스에 따르면 2024년 기준 의료 AI와 관련된 의료 소송은 2022년보다 14% 증가한 것으로 나타났다. 영상 판독 AI가 암이나 골절을 포착하지 못했는데 의사가 이를 재확인하지 않은 경우가 대표적이다. 엔주리스는 “법원은 AI를 의료 기기, 서비스, 또는 의사가 사용하는 도구로 취급할 수 있는지를 아직 결론을 내리지 못했다”고 했다.</p> <p contents-hash="b1dba45bdaccd85264a79f1c8c612928e824d90da66fb937888ef275b11f58dd" dmcf-pid="FfOdwN9UXR" dmcf-ptype="general">이는 전 세계 공통적이다. WHO(세계보건기구)가 지난 19일 유럽 50 회원국을 대상으로 조사한 결과 43국이 의료 AI 도입의 가장 큰 장벽으로 법적 불확실성을 꼽았다. 의료 분야 AI와 관련해 법적 요건을 갖춘 국가는 에스토니아·스페인 등 4국에 불과했다. WHO 유럽 지역 책임자인 한스 클루게 박사는 “명확한 전략, 데이터 개인 정보 보호, 법적 보호 장치, AI 활용 능력에 대한 투자가 없다면 AI가 의료 불평등을 줄이는 게 아니라 심화시킬 위험이 있다”고 지적했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 조선일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 네이버, 가상화폐도 품어… 20조 ‘핀테크 공룡’ 탄생 11-27 다음 아무도 도와주지 않았는데…취객이 여성 위협, 격투기 선수가 구했다 11-27 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.