KISTI '고니'팀, ICLR에 논문 2편 채택...한국어 LLM 글로벌 경쟁력 입증 작성일 02-01 10 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="tUZC4fu5wO"> <figure class="figure_frm origin_fig" contents-hash="a8df8f247bbc02e4f4ae9721e1fadc020de9d71aafe771dc11330ad2ddd7b59d" dmcf-pid="F9UYeR2uDs" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202602/01/etimesi/20260201165549605ngbb.jpg" data-org-width="300" dmcf-mid="1vmoFtTswI" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202602/01/etimesi/20260201165549605ngbb.jpg" width="658"></p> </figure> <p contents-hash="fb61e4d8468127c3f895c795fecf68b75b17b0e8b4b54a4f1c993dbc4d6d06c8" dmcf-pid="32uGdeV7Em" dmcf-ptype="general">한국과학기술정보연구원(KISTI·원장 이식)이 한국어 생성형 거대 언어 모델(LLM)의 글로벌 경쟁력을 입증했다.</p> <p contents-hash="2d01b11a20a4f91ab0e2d73c98920a09a9e1b7ba5b98b890b335db1cb69cfbc8" dmcf-pid="0V7HJdfzOr" dmcf-ptype="general">KISTI는 과학기술 특화 LLM KONI(KISTI Open Neural Intelligence) 연구진의 논문 2편이 인공지능(AI) 분야 최고 권위 학술대회 국제표현학습학회(ICLR)에 동시 채택됐다고 밝혔다.</p> <p contents-hash="fc797d141280a4f489c9eac765fc8af34436fedf1127730fbf6d0d09c5bfa375" dmcf-pid="pfzXiJ4qOw" dmcf-ptype="general">ICLR은 신경정보처리시스템학회(NeurIPS), 국제머신러닝학회(ICML)와 함께 세계 3대 AI 학회로 꼽히며, 딥러닝과 표현 학습 분야에서 최정상급 학술대회로 인정받고 있다. 글로벌 빅테크 기업들이 가장 주목하는 학회다.</p> <p contents-hash="ac314a36280ab11f93f4511ebd5268ed6096943d4537251ed984b9d879a68754" dmcf-pid="U4qZni8BDD" dmcf-ptype="general">KONI팀은 비영리 오픈소스 연구단체 해례(HAERAE)팀(팀장 손규진)과 협력해 한국어 특화 추론 모델 개발 프로젝트를 수행했다. 579만 건의 한국어 네이티브 프롬프트와 370만 건의 장문 추론 경로를 포함한 '이상(Yi-SANG)' 학습 데이터세트를 구축했으며, 이는 공개된 한국어 사후 학습 데이터자원 중 최대 규모다.</p> <p contents-hash="d24cb21ae44d9e2d944879629f3f1d03b0af242f29c2b86278f3de56a52410fe" dmcf-pid="u8B5Ln6bDE" dmcf-ptype="general">또 KONI팀은 사고 과정에서는 영어를 활용하고 최종 답변은 한국어로 도출하는 '혼합 언어 단계적 사고(Language-Mixed CoT)' 기법을 적용했다. 이를 통해 한국어 전용 모델의 논리적 한계를 극복하고, 번역 어투를 최소화하면서도 추론 효율을 극대화했다. 이 기술을 이용해 학습된 모델은 딥시크-R1-32B 등 유사 규모의 글로벌 모델을 제치고 최고 수준의 한국어 추론 성능을 기록했다.</p> <p contents-hash="c091051c718aee14207eeb4e3eca33a9756e27a1577d9f586d8055e36dd2d617" dmcf-pid="76b1oLPKEk" dmcf-ptype="general">KONI팀은 특정 언어나 도메인에 모델을 적응시킬 때 기존 지식을 잊어버리는 '치명적 망각' 문제를 해결하는 '저계층 적응 기반 대조 보정(LGCD)' 기술도 개발했다. 이 기술은 추가 모델 훈련 없이 추론 시점에만 작동하며, 모델 내부 지식을 동적으로 추출해 사실 관계를 보정한다. 고도의 정확성이 요구되는 전문 분야에서 환각 현상을 억제하는 데 도움을 줄 수 있다.</p> <p contents-hash="ed4af80a0b2049d18d9dfb343719ab27a1c059d8a280846ae644b88cc33c544f" dmcf-pid="zPKtgoQ9Dc" dmcf-ptype="general">KISTI는 이번 성과로 최근 과학기술정보통신부 업무보고에서 배경훈 부총리 겸 장관이 요청한 '독자 파운데이션 모델(독파모) 기반 KONI 업데이트'에 부응하는 핵심 기술적 토대를 마련했다.</p> <p contents-hash="b754d726912f6473ed1d52741804d61922283bbac0756fb496919c2db2b87992" dmcf-pid="qQ9Fagx2mA" dmcf-ptype="general">KONI팀은 이번 연구를 바탕으로 연구자의 파트너로서 가설을 세우고 실험 데이터를 분석하는 'AI 연구동료' 기술 개발을 추진할 계획이다. 복잡한 과학적 난제를 함께 해결할 수 있는 지능형 연구 에이전트 시스템을 구축해 국가 AI 주권을 확보하고, 대한민국 연구 현장을 '과학을 위한 AI' 체제로 전환하는 데 기여할 방침이다.</p> <p contents-hash="5f515d040858ce754b3d57d2d980a2ec25589978bfe8ffbf74eeb4ddce28e2ec" dmcf-pid="Bx23NaMVDj" dmcf-ptype="general">이식 KISTI 원장은 “이번 성과는 한국어 AI 기술의 글로벌 경쟁력을 입증한 것”이라며, “KONI 고도화를 지속 추진해 AI 연구동료 개발과 과학을 위한 AI 혁신을 선도하겠다”고 밝혔다.</p> <p contents-hash="16a6f38fd7642dada0acd72292e114b601d1aa183e0b7e8e5d8360661ae29762" dmcf-pid="bMV0jNRfmN" dmcf-ptype="general">김영준 기자 kyj85@etnews.com</p> </section> </div> <p class="" data-translation="true">Copyright © 전자신문. 무단전재 및 재배포 금지.</p> 관련자료 이전 [팩플] 인간은 출입 금지, AI만 들어가는 소셜미디어 ‘몰트북’ 02-01 다음 가운 벗은 의대 교수 “K유산균 비즈니스로 세계 평정” 02-01 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.