기존 영어 언어모델 개량…‘한국판 소버린 AI’ 값싸게 만든다 작성일 07-03 21 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">- 서울대 이재진 교수팀, LLM 및 개발 방법 온라인 공개</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="94TnXse7zH"> <figure class="figure_frm origin_fig" contents-hash="9fe831968c7fae9145cab96d0e287cbb13af44baad4e8237ff441f0d49e8e802" dmcf-pid="28yLZOdzUG" dmcf-ptype="figure"> <p class="link_figure"><img alt="이번 연구를 수행한 이재진(왼쪽 네번째) 서울대 교수 연구팀.[서울대학교 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/03/ned/20250703101535945bnlf.jpg" data-org-width="1280" dmcf-mid="Xf4GMqTNuK" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/03/ned/20250703101535945bnlf.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 이번 연구를 수행한 이재진(왼쪽 네번째) 서울대 교수 연구팀.[서울대학교 제공] </figcaption> </figure> <p contents-hash="676ca625c773a855ba7a86b6cc41c9182ba2ca1e82a5cdd17773fd476abcc4da" dmcf-pid="VpEfOoKGpY" dmcf-ptype="general">[헤럴드경제=구본혁 기자] 국내 연구진이 기존 영어 거대 언어모델(LLM)을 개량, 천문학적 비용을 들이지 않아도 ‘고성능 한국어 거대 언어 모델’ 개발 가능성을 입증했다.</p> <p contents-hash="0092635579c5cc546d46aa20b84082d08ff32f0257efd43a4d53609063f2b34e" dmcf-pid="fUD4Ig9HUW" dmcf-ptype="general">한국연구재단은 서울대학교 이재진 교수 연구팀이 영어 기반 언어 모델 라마(Llama)를 개량해 한국어에 특화된 언어 모델 Llama-Thunder-LLM과 한국어 전용 토크나이저 Thunder-Tok, 한국어 LLM의 성능을 객관적으로 평가할 수 있는 Thunder-LLM 한국어 벤치마크를 개발해 온라인에 공개했다고 밝혔다.</p> <p contents-hash="7335d89049e133f9251be1900799e3cfa918e96755119341e0211187e4c232f1" dmcf-pid="4uw8Ca2XUy" dmcf-ptype="general">세계적으로 LLM을 이용한 인공지능 기술이 각광받으며, 국내에서도 한국어 특화 언어 모델 개발에 대한 관심이 증가하고 있다.</p> <p contents-hash="d42b3e11de99abdd55e6f6445c08de112e6391465aad8ef99c08033b13d427f0" dmcf-pid="87r6hNVZ0T" dmcf-ptype="general">하지만 거대 언어 모델 구축에 필요한 데이터가 한정적인데다, 개발에 막대한 비용이 소요돼 지금까지는 대기업과 해외 빅테크 기업을 중심으로 개발이 진행됐으며, 중소 연구기관 및 대학에서는 연구개발이 어려운 상황이었다.</p> <p contents-hash="24fc861f092b45fd1b12400eb958dbdef5718bff73bc93777f8701f3b66c94e0" dmcf-pid="6zmPljf53v" dmcf-ptype="general">연구팀은 데이터 수집부터 사후 학습까지 언어 모델 학습의 모든 단계를 자체 진행하며 중국의 거대 언어 모델 딥시크(DeepSeek)처럼 제한된 자원으로도 고성능 언어 모델 구축이 가능함을 입증했다.</p> <p contents-hash="28f858ca1a69c8c0ea340e70399712a4f9af57bda2100134d9f0e3d83c00b91a" dmcf-pid="PqsQSA41uS" dmcf-ptype="general">공개된 영어 모델을 활용했지만, 적용한 기술은 독자적인 모델 개발에 필요한 모든 기술을 포함했다. 이는 연구팀이 고성능의 독자 언어 모델을 개발할 수 있는 기술 역량을 갖추고 있음을 시사한다.</p> <figure class="figure_frm origin_fig" contents-hash="8a28c96d7b47aeda481167031d5d218790ca477befc0cb56a775aa1d49eb23f5" dmcf-pid="QBOxvc8t7l" dmcf-ptype="figure"> <p class="link_figure"><img alt="Llama-Thunder-LLM 모델 개발과정 개요도.[서울대학교 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/03/ned/20250703101536224rnoy.jpg" data-org-width="1280" dmcf-mid="KgRFLfZw3X" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/03/ned/20250703101536224rnoy.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> Llama-Thunder-LLM 모델 개발과정 개요도.[서울대학교 제공] </figcaption> </figure> <p contents-hash="2da95df4b053b9799ee1d316b81a61599d29a5a705e6ff4813c96bb7e623ffc5" dmcf-pid="xbIMTk6FFh" dmcf-ptype="general">연구팀이 개발한 Llama-Thunder-LLM은 3TB의 한국어 웹 데이터를 수집·전처리해 기존에 공개된 Llama 모델에 연속 학습과 사후 학습 등의 개량 기법을 적용한 한국어 특화 거대 언어 모델이다.</p> <p contents-hash="ec0e627d22e2c3c11af281bd8881b70b2a782d8de4c5dceb9d0729134108226c" dmcf-pid="yrVWQ7Sg3C" dmcf-ptype="general">한국어의 문법적 특성을 반영한 토크나이저 Thunder-Tok은 기존 Llama 토크나이저 대비 토큰 수를 약 44% 절약해 추론 속도 및 학습 효율성을 높였다.</p> <p contents-hash="5278a8efbd7d609bb45dc85b271cc7ea0fbe78010d5232a31e44c7c111af83ee" dmcf-pid="WmfYxzva7I" dmcf-ptype="general">연구팀이 자체 개발한 한국어 평가용 데이터셋을 포함한 Thunder-LLM 한국어 벤치마크는 한국어 LLM의 성능을 객관적이고 체계적으로 평가할 수 있는 기반을 제공한다.</p> <p contents-hash="9b483da6428409eba02eea2be7918bfdee6241511c2b2dbca7b785aeff458e18" dmcf-pid="Ys4GMqTNzO" dmcf-ptype="general">이재진 교수는 “이번 연구는 학계도 자주적인 LLM 개발이 가능함을 입증하고 우리나라의 소버린 AI에 기여한 의미 있는 결과”라며 “한국어 기반 LLM 및 토크나이저, 벤치마크 데이터셋을 온라인에 공개하고, 개발 과정 또한 상세히 기술해 누구나 후속 및 재현 연구에 활용할 수 있는 기반을 마련했다”고 밝혔다.</p> <p contents-hash="bcd2a5b3fde965afbe5d371679de790844c63cf3e15733f9ba2266e0df4ef247" dmcf-pid="GFA9riqy7s" dmcf-ptype="general">이번 연구는 과학기술정보통신부와 한국연구재단이 추진하는 선도연구센터(ERC)사업의 지원으로 수행됐다. 연구성과는 누구나 자유롭게 이용할 수 있도록 ‘초거대 AI모델 및 플랫폼 최적화 센터’ 웹페이지에 공개됐다.</p> </section> </div> <p class="" data-translation="true">Copyright © 헤럴드경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 서울대병원 연구팀, 난청 돌연변이 발견·한국인 난청 유전자 지도 구축 07-03 다음 '찰떡 복식 호흡' 권순우x이정헌, 대한테니스협회장배 남자 복식 정상 07-03 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.