“새 지식 배워도 잊지 않는다” ETRI, ‘건망증’없는 AI 개발 작성일 03-24 41 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">- 멀티모달 AI ‘치명적 망각’ 해결<br>- 지식 편집성능 두 배 이상 향상</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="qOmTnwHlZO"> <figure class="figure_frm origin_fig" contents-hash="a9d56489eb0d73630136ee15ab8c288e6475e57be5e3e323f2e364f6b90fee9d" dmcf-pid="BIsyLrXSGs" dmcf-ptype="figure"> <p class="link_figure"><img alt="ETRI 연구진이 연속·복합 지식 편집 기술(MemEIC)에 대해 설명하고 있다.[ETRI 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/24/ned/20260324091608770pziw.jpg" data-org-width="1280" dmcf-mid="zGytEvUZYI" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/24/ned/20260324091608770pziw.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> ETRI 연구진이 연속·복합 지식 편집 기술(MemEIC)에 대해 설명하고 있다.[ETRI 제공] </figcaption> </figure> <p contents-hash="965eef83dbb798200efcb19b7dc538ae76a6c4e3a99f525b421649f42b270079" dmcf-pid="bCOWomZvYm" dmcf-ptype="general">[헤럴드경제=구본혁 기자] 국내 연구진이 멀티모달 인공지능(AI)이 새로운 지식을 반복적으로 학습하더라도 기존 지식을 잃지 않고 안정적으로 유지할 수 있도록 하는 핵심 원천기술을 개발했다.</p> <p contents-hash="2afae87517da90aee17e0fc5cf6ea502dab10f4da2507be897036c390e53d8cc" dmcf-pid="KhIYgs5TGr" dmcf-ptype="general">한국전자통신연구원(ETRI)은 언어지능연구실 임수종 실장 연구팀이 포항공과대학교, 성균관대학교와 공동으로 개발한 ‘연속·복합 지식 편집 기술(MemEIC)’이 세계 최고 권위의 인공지능 학술대회인 NeurIPS 2025에 채택 발표됐다고 24일 밝혔다.</p> <p contents-hash="20c8b5a75088ac3e7f87d01ca54c8b206a353c1751c3d258b83e5d73427441e5" dmcf-pid="9lCGaO1ytw" dmcf-ptype="general">최근 챗GPT, 제미나이, 클로드처럼 이미지와 텍스트를 동시에 이해하는 멀티모달 AI가 빠르게 확산되고 있다.</p> <p contents-hash="8de8772f973dae9ef6f6f9229c38415dc8a49f5bba03601ceea9da365b6322c7" dmcf-pid="2ShHNItWHD" dmcf-ptype="general">하지만 이러한 AI에는 한 가지 큰 문제가 있었다. AI가 새로운 정보를 배우거나 기존 정보를 수정하면, 예전에 배운 지식까지 함께 잊어버리는 ‘치명적 망각(Catastrophic Forgetting)’ 현상이 발생하는 것이다.</p> <p contents-hash="a7176210bf26afcab293bc962ae95a4e0b09cdd31a17c2ba5bd8996c91cd7980" dmcf-pid="VvlXjCFYZE" dmcf-ptype="general">특히 시각 정보와 언어 정보를 동시에 수정해야 하는 경우 두 종류의 지식을 서로 섞이면서 AI가 제대로 이해하지 못해 복합적인 질문에 틀린 답을 하는 경우가 빈번하게 나타났다.</p> <p contents-hash="081fd094a85f668db2403d885433de6a78cbdb024a9b6ad21cd0eb8e911706d2" dmcf-pid="fTSZAh3G1k" dmcf-ptype="general">ETRI 연구진은 이러한 문제를 해결하기 위해 복합적인 질문에도 정확하게 답할 수 있는 지식 편집 AI 기술을 새롭게 개발했다. 새로운 정보를 AI 내부가 아닌 외부 메모리에 저장하는 방식을 제안했다.</p> <p contents-hash="f116e1fb020d1115ceae96070d380f0a4fadbd112ab075d9b475237b511b925d" dmcf-pid="4yv5cl0HXc" dmcf-ptype="general">이러한 보조기억장치를 추가하는 방식은 필요할 때만 정보를 불러와 사용하는 구조로, 기존 모델의 안정성을 유지하면서 새로운 정보를 유연하게 추가할 수 있어 확장성도 확보한 것이 특징이다.</p> <p contents-hash="20c1d2d37b08b16fbe30d9346981806f0f61bcd936b8477241eaae61fe47a742" dmcf-pid="8WT1kSpX5A" dmcf-ptype="general">지식을 나누어 저장하고 필요할 때만 연결하는 분리 저장·선별 결합 구조를 통해 서로 다른 정보가 뒤섞이는 내부 간섭 문제와 기존 지식이 훼손되는 문제를 최소화하여 복잡한 질문에도 답할 수 있는 복합적 추론이 가능한 AI 구조를 구현했다.</p> <p contents-hash="0ad58f969837467269dc730b6cbf608f6218a25349bdffcca03aaf541caf2c40" dmcf-pid="6nJA9ewatj" dmcf-ptype="general">연구진은 기술 성능을 확인하기 위해 1278개 항목으로 구성된 복합 지식 편집 벤치마크(CCKEB)를 구축하고, 수백 건의 지식을 순차적으로 편집하는 실험을 진행했다.</p> <p contents-hash="8207f2cef8307bbf6e25492bceb42589c5f49f6f71fe294786b8d0edeef3dde1" dmcf-pid="PLic2drNYN" dmcf-ptype="general">그 결과 MemEIC 기술은 복합 질문 정확도 약 70% 수준을 기록했다. 이는 기존 기술들이 36~52% 수준이었던 것과 비교하면 두 배 이상 향상된 성능이다.</p> <p contents-hash="c6d542a37ac3e2b42895065d98543187a48bab31f0d02bcc81b6c4ac05777d30" dmcf-pid="QonkVJmjYa" dmcf-ptype="general">이번 연구는 AI의 망각 현상을 완화하는 수준에서 한 걸음 더 나아가 연속적인 지식 편집과 복합 추론이라는 두 가지 난제를 동시에 해결했다는 점에서 큰 의미가 있다.</p> <p contents-hash="9827c183051553f94e84d80ce468fd443bf7101c855208e8778303828a269686" dmcf-pid="xgLEfisAtg" dmcf-ptype="general">임수종 ETRI 언어지능연구실장은 “이번 연구는 멀티모달 AI가 실제 서비스 환경에서 요구되는 최신 정보 반영과 신뢰성 확보를 동시에 달성할 수 있는 기술적 기반을 마련한 성과”라며 “향후 산업 현장의 다양한 정보를 안정적으로 반영할 수 있도록 기술을 더욱 고도화하겠다”고 밝혔다.</p> </section> </div> <p class="" data-translation="true">Copyright © 헤럴드경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 KAIST·화학연, 태양전지 25% 효율·안정성 모두 잡았다 03-24 다음 [써보고서] 코드 한 줄 몰라도 되네…문과 출신 기자의 바이브 코딩 도전기 03-24 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.