복잡한 AI 머릿속, 어떻게 생각하는지 들여다본다…카이스트, AI 내부구조 첫 시각화 작성일 11-26 28 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">AI가 ‘보고’ ‘생각하는’ 과정 시각화<br>‘설명가능한 AI’ 기술에 새 이정표</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="P5UhSygRWU"> <figure class="figure_frm origin_fig" contents-hash="cf3b1f3f2cb37ca2a374e4bac4e7c192cb2445ab10ffaa6ad22ce94c88201c02" dmcf-pid="Q1ulvWaeTp" dmcf-ptype="figure"> <p class="link_figure"><img alt="강아지를 떠올리는 AI : 카이스트 김재철AI대학원 최재식 교수 연구팀이 제안한 ‘설명가능한 AI’(XAI) 회로의 개념을 표현한 그림. 카이스트 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/26/munhwa/20251126162147658voeb.jpg" data-org-width="640" dmcf-mid="8fIWGZkLv7" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/26/munhwa/20251126162147658voeb.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 강아지를 떠올리는 AI : 카이스트 김재철AI대학원 최재식 교수 연구팀이 제안한 ‘설명가능한 AI’(XAI) 회로의 개념을 표현한 그림. 카이스트 제공 </figcaption> </figure> <p contents-hash="e626cd21db6e6d069ef470412bc48b58a17539b7f804101b43130d3f4c3c07f9" dmcf-pid="xYtmOhJ6l0" dmcf-ptype="general">“인공지능은 어떤 방식으로 생각하는가”</p> <p contents-hash="fe0faa6d0b3acb46200346d29b5a10c530269e3d1701e0bac1d36bc3c87f9e22" dmcf-pid="yRoK24XSC3" dmcf-ptype="general">국내 연구진이 인공지능(AI)이 이미지 인식 과정에서 어떤 개념을 조합해 결론에 이르는지를 ‘회로(circuit)’ 단위로 시각화하는 기술을 세계 최초로 구현했다. AI가 내부에서 스스로 형성한 판단 근거를 사람이 이해할 수 있는 방식으로 드러낸 것이다. AI의 생각 방식을 구조적으로 들여다볼 수 있다는 점에서 ‘설명가능한 AI’(XAI)분야의 의미 있는 진전이라는 평가가 나온다. AI 활용 확산 속에서 AI 판단의 투명성 확보와 사회적 신뢰 강화에 중요한 이정표가 될 것으로 보인다.</p> <p contents-hash="2a1997a274ef1238bd9dcbe38ab0e8e28df53ba1bc7a9b0aa23c55a9ddc44869" dmcf-pid="Weg9V8ZvWF" dmcf-ptype="general">카이스트는 최재식 김재철AI대학원 교수 연구팀이 딥러닝 모델 내부의 개념 형성 과정을 회로 구조로 분석하고 시각화하는 ‘세분화된 개념회로’(Granular Concept Circuits·GCC) 기술을 개발했다고 26일 밝혔다. 기존 기술이 ‘특정 뉴런이 특정 개념을 본다’는 수준에 머물렀다면, GCC는 여러 뉴런이 기능적으로 협력해 하나의 의미 단위를 형성하는 과정을 추적해 AI의 ‘생각 경로’를 단계적으로 파악할 수 있도록 한다는 점에서 다르다.</p> <p contents-hash="07e3b66ff83ad057a32c38478f9f6d6dd23610acc15e93aa2d0fd4e4b27acbae" dmcf-pid="Yda2f65Tvt" dmcf-ptype="general">딥러닝 모델 내부에는 인간의 뇌처럼 뉴런이라는 기본 계산 단위가 존재한다. 뉴런은 색이나 윤곽 등 이미지 속의 특징을 감지하고 값을 계산해 다음 단계로 전달한다. 이 같은 뉴런 여러 개가 서로 연결돼 하나의 의미·개념을 인식하는 구조를 회로라고 말한다. 예컨대 ‘고양이 귀’라는 개념을 인식하기 위해선 귀의 윤곽을 감지하는 뉴런, 털과 색의 패턴을 감지하는 뉴런 등이 순차적으로 작동해 하나의 회로를 이루는 것이다.</p> <p contents-hash="43af0631329d91fd7bba3b1ebf988e20c403ec158029ed91ddfc7f2802fb5cb6" dmcf-pid="GJNV4P1yS1" dmcf-ptype="general">연구팀은 뉴런 민감도(Neuron Sensitivity), 의미 흐름 점수(Semantic Flow) 등을 계산해 이미지 속 특징이 감지되고 개념으로 연결되는 흐름을 자동적으로 추적했다. 뉴런 민감도는 특정 뉴런이 어떤 특징에 얼마나 민감하게 반응하는지 보여주는 지표다. 의미 흐름 점수는 뉴런이 특징을 감지한 뒤 얼마나 강하게 전달하는지를 보여준다. 이를 통해 색·질감 등 기본 특징이 어떻게 상위 개념으로 조립되는지를 단계적으로 시각화하는 것이다.</p> <p contents-hash="4a55f437239f59ba53cb345f453691b72f4493a6e665cc89519dd97b47c6252e" dmcf-pid="Hijf8QtWS5" dmcf-ptype="general">실제로 연구팀이 특정 회로를 비활성화하자 해당 개념 인식이 사라지고 AI의 판단이 변하는 현상이 확인됐다. 즉 해당 회로가 실제로 사라진 개념을 인식하는 역할이라는 것을 확인한 것이다.</p> <p contents-hash="4197bf49e754aed4a6d37b00f170c3016fbd39a522dd4a7cea5a8ea24ae528e8" dmcf-pid="XnA46xFYvZ" dmcf-ptype="general">이번 연구는 복잡한 딥러닝 모델 내부에서 개념이 형성되는 실제 구조를 회로단위로 드러낸 최초의 연구로 평가된다. AI가 ‘보고’, ‘생각하는’ 과정을 구조화시킨 것이다. 그간 AI가 내부에서 어떤 기준으로 이미지를 보고 판단하는지는 설명하기 어려운 영역으로 남아있었던 만큼, 향후 AI 판단 근거의 투명성을 강화하거나 오분류 원인 분석 등에 실질적으로 응용될 수 있을 것으로 전망된다. 특히 자율주행·의료 AI·국방 AI 등 신뢰성과 책임성이 요구되는 분야에서 활용도가 높을 것으로 기대된다.</p> <figure class="figure_frm origin_fig" contents-hash="5e7504adecc85f5ceabf046aa4aefc8b3c290360907f6c7cbf1599b4e9787ddc" dmcf-pid="ZLc8PM3GyX" dmcf-ptype="figure"> <p class="link_figure"><img alt="(왼쪽부터)카이스트 권다희, 이세현 박사과정생과 최재식 교수(상단). 카이스트 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/26/munhwa/20251126162148945ydbe.jpg" data-org-width="640" dmcf-mid="6rIJngb0Tu" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/26/munhwa/20251126162148945ydbe.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> (왼쪽부터)카이스트 권다희, 이세현 박사과정생과 최재식 교수(상단). 카이스트 제공 </figcaption> </figure> <p contents-hash="7b714cb6a54cf51942b832e45f52a23571dc7fbb72e70b080d68b50377a02025" dmcf-pid="5gEPxepXvH" dmcf-ptype="general">연구팀은 “AI가 내부에서 만드는 개념 구조를 사람이 이해할 수 있는 방식으로 보여주는 기술”이라며 “AI가 ‘어떻게 생각하는지’를 과학적으로 연구할 수 있는 출발점”이라고 밝혔다. 최재식 교수는 “복잡한 모델을 단순화해 설명하던 기존 방식과 달리 세부 회로 단위로 정밀하게 해석한 최초의 접근”이라며 “AI가 학습한 개념을 자동으로 추적·시각화할 수 있음을 입증했다”고 설명했다.</p> <p contents-hash="2211e01ea64e4c79f8967bbbfcd4cd88455e8a6ca6b597f2b85629e2a758a856" dmcf-pid="1aDQMdUZvG" dmcf-ptype="general">카이스트 김재철AI대학원 권다희 박사과정생과 이세현 박사과정생이 공동 제1저자로 참여한 이번 연구는 ‘국제 컴퓨터 비전 학술대회(ICCV 2025)’에서 발표됐다.</p> <p contents-hash="a4d667313865b227b63da186e4b588c43e251841aa311fc640615f1ebd88ec36" dmcf-pid="tNwxRJu5hY" dmcf-ptype="general">구혁 기자</p> </section> </div> <p class="" data-translation="true">Copyright © 문화일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 [생활 속 IT] 한결 편해진 실시간 위치 공유, 카카오맵 '친구위치' 11-26 다음 'IP 표절' 꼬리표 못 떼고… 크래프톤, '어비스 오브 던전' 접었다 11-26 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.