“잘 만드는 AI만으론 부족…‘설명 가능한’ AI 함께 가야” 작성일 07-09 13 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">이수인 미국 워싱턴대 컴퓨터공학과 교수<br>“의료·법률에서 설명 불가능 AI는 위험 요인<br>AI의 추론 과정 알아낼 ‘설명 가능’ XAI 필요<br>독자 개발, 기술 도입 병행해 한국 강점 살려야”</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="yDhjSBXDLA"> <figure class="figure_frm origin_fig" contents-hash="0698c9f27406ad8ff854b0739d30050c1455e9a0daf5d69362a566a4c7b52e1d" dmcf-pid="WwlAvbZwnj" dmcf-ptype="figure"> <p class="link_figure"><img alt="8일 한국과학기술회관에서 열린 간담회에서 이수인 미국 워싱턴대 교수는 설명 가능한 인공지능(AI)의 필요성을 강조했다./홍아름 기자" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/09/chosunbiz/20250709065334970jhfn.jpg" data-org-width="4000" dmcf-mid="xfrnspTNic" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/09/chosunbiz/20250709065334970jhfn.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 8일 한국과학기술회관에서 열린 간담회에서 이수인 미국 워싱턴대 교수는 설명 가능한 인공지능(AI)의 필요성을 강조했다./홍아름 기자 </figcaption> </figure> <figure class="figure_frm origin_fig" contents-hash="d9df9e41242c53a2cafe25b09499e4da83debfebf1e0d6226fbaf801f12655f2" dmcf-pid="Y4eKJlj4JN" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/09/chosunbiz/20250709064905224tvpo.png" data-org-width="1232" dmcf-mid="W3k4nvc6nE" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/09/chosunbiz/20250709064905224tvpo.png" width="658"></p> </figure> <p contents-hash="28a50b09dd3f0f457fa492906d8b5e3b80daa55b27263652947498e9122f54c4" dmcf-pid="G8d9iSA8Ja" dmcf-ptype="general">몇 년 사이 생성형 인공지능(AI)의 급속한 발전은 인간의 언어를 이해하고 창작하는 기계를 현실로 만들었다. 하지만 AI가 왜 그런 결과를 내렸는지 알 수 없는 ‘블랙박스’ 문제는 더욱 뚜렷해졌다. 의료·자율주행·법률·정책 결정 등 사회적 영향이 큰 분야에 AI가 도입되면서 ‘설명 불가능한 AI’는 위험 요소가 될 수 있다. 이 문제를 해결할 대안으로 주목받는 개념이 바로 XAI(eXplainable AI), 설명 가능한 AI다.</p> <p contents-hash="dd5086ae7b4706fea324c1b79a17f357ef989cb1ea0673b8c29e3e11083e0881" dmcf-pid="H6J2nvc6ng" dmcf-ptype="general">8일 서울 강남구 한국과학기술회관에서 열린 간담회에서 이수인 미국 워싱턴대 컴퓨터공학과 교수는 “AI가 실수할 때 사람이 그 실수를 이해하고 교정할 수 있어야 한다”며 “복잡한 AI의 추론 과정이나 내놓은 결과를 사람이 이해하기 쉽게 설명하는 것이 XAI의 핵심”이라고 강조했다.</p> <p contents-hash="cc1a4f27f3ba17a449f67dc8018da149f1a0370cd3ab87a153bdde2c75c5ac67" dmcf-pid="XPiVLTkPJo" dmcf-ptype="general">이수인 교수는 XAI 분야를 선도적 연구자로, 가장 널리 쓰이는 XAI 기술 중 하나인 SHAP 프레임워크를 개발했다. 이 기술은 AI 모델이 내린 판단에서 어떤 정보가 얼마나 영향을 미쳤는지 정량적으로 알려준다.</p> <p contents-hash="4955f2b399ed32952b68aa63bd0cd96849492c209888ea9ce5c0739d018207aa" dmcf-pid="ZQnfoyEQeL" dmcf-ptype="general">예를 들어 생물학적 나이를 예측하는 AI가 한 사람의 체질량지수(BMI·체중을 키 제곱으로 나눈 값), 혈압, 운동 습관 등 건강 관련 데이터를 받았을 때, SHAP은 어떤 요소가 결과에 가장 큰 영향을 미쳤는지 구체적으로 보여준다. 이 교수는 이러한 공로를 인정받아 지난해 여성 최초로 삼성 호암상 공학상을 수상했다.</p> <p contents-hash="baf7e9bc7ad3da33ae7c91e76d19a81bc3f90fcdb77b9888dcbbf49fd567b3f2" dmcf-pid="5xL4gWDxRn" dmcf-ptype="general">이 교수는 이날 피부암 진단 앱(app·응용프로그램)을 예로 들며 XAI의 필요성을 강조했다. 연구진이 피부암 진단 앱의 여러 모델을 분석해 본 결과, AI가 피부암을 놓치거나 정상 피부를 암으로 잘못 진단하는 등 오진 사례가 적지 않았다고 했다.</p> <p contents-hash="7a4e19d68d0b39ad9f6ee6eb3f6735508bd4fee49c0530ea6681cef57e4e0835" dmcf-pid="1Mo8aYwMdi" dmcf-ptype="general">이 교수는 “이런 경우 XAI를 적용하면 이미지 중 어떤 부분이 판단에 영향을 미쳤는지 시각적으로 보여주고, 그 판단의 과정을 역추적할 수 있다”며 “생성형 AI가 답을 내는 역할이라면, XAI는 그 답의 이유를 보여주는 조력자다. 둘은 경쟁이 아니라 보완적인 관계”라고 설명했다.</p> <p contents-hash="5627d60a1f5cad75339f28a48f891156683db451811a31e84813fdd33483ebaf" dmcf-pid="tRg6NGrRJJ" dmcf-ptype="general">그러면서 “XAI를 생성형 AI에 내장하는 연구도 활발히 진행하고 있다”며 “의료나 법률, 정책 결정처럼 책임 소재가 중요한 분야에서는 AI가 판단을 내리는 것만큼 그 판단의 논리를 인간이 납득할 수 있는지가 중요하다”고 덧붙였다.</p> <p contents-hash="70e329bf288baa0adcd5689c93b8d7abba3676f3d84a2a76b85506944e617e0c" dmcf-pid="FeaPjHmeJd" dmcf-ptype="general">이 교수는 대표적인 예로 알츠하이머병 연구에 XAI를 접목하고 있다고 밝혔다. 그는 “지금까지 AI를 이용해 알츠하이머병과 관련된 유전자를 찾았다면, XAI는 그 유전자들이 어떤 생물학적 경로를 통해 병을 유발하는지 설명할 수 있다”며 “이를 통해 질병의 메커니즘을 이해하고, 환자별로 맞춤형 치료 전략을 설계하는 데 도움을 줄 수 있다”고 했다.</p> <p contents-hash="d20bc8493bc63a22625f3313d2da3287186b6e7b8ccb059cc8860b01ebb338cc" dmcf-pid="3dNQAXsdde" dmcf-ptype="general">다만 설명 가능한 AI 역시 완벽하진 않다. 이 교수는 “XAI의 방법론도 다양한 만큼, 설명이 일관되지 않거나 잘못될 가능성도 있어 이론적 검증이 충분히 이뤄져야 한다”며 “현재 나온 XAI로도 AI의 실수를 상당 부분 잡아낼 수 있기에, 완전하지 않더라고 사용하는 편이 훨씬 낫다”고 덧붙였다.</p> <p contents-hash="349d2e58fffc441c6ecf37ca689f0af904cf0b6285bee8eb8e8d4f001f0bc3bc" dmcf-pid="0JjxcZOJeR" dmcf-ptype="general">이 교수는 한국의 AI 정책 방향에 대해서도 의견을 밝혔다. 그는 “AI 연구 역량은 국가 경쟁력이다. AI를 국가 전략 과제로 삼고 투자하는 움직임은 매우 바람직하다”며 “특히 의료·바이오 분야처럼 신뢰가 중요한 분야일수록 XAI 기술이 반드시 함께 가야 한다”고 말했다. 이 교수는 “XAI는 AI가 발전하기 위한 부가 기능이 아니라 필수 요소”라고 강조했다.</p> <p contents-hash="32d43d7ba5fb7f58cb0f8962c8f42701eb2d5a044b23a31d831e2c6536560800" dmcf-pid="piAMk5IidM" dmcf-ptype="general">다만 “(다양한 분야의 서비스에 적용할 수 있는) 파운데이션 모델을 자체 개발하는 것도 의미 있지만, 해외의 우수한 기술을 유연하게 도입하고 이를 바탕으로 한국이 강점을 가진 분야를 발전시키는 방향이 현실적”이라며 “AI는 여전히 발전 중인 학문이며, 지속적이고 안정적인 연구 환경과 장기적 펀딩(자금 지원)도 반드시 뒷받침돼야 한다”고 말했다.</p> <p contents-hash="2bd40b294badf9e2da4e3b3c9784204797b3e535f7d2cb059edfea68c9105cd2" dmcf-pid="UncRE1Cndx" dmcf-ptype="general">- Copyright ⓒ 조선비즈 & Chosun.com -</p> </section> </div> <p class="" data-translation="true">Copyright © 조선비즈. 무단전재 및 재배포 금지.</p> 관련자료 이전 "장미희, 전두환과 내연 관계"…루머, 해명 안 한 이유는? (모-던인물史)[종합] 07-09 다음 알카라스, 노리 1시간 39분 만에 제압…윔블던 3연패에 '-2승' 07-09 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.