트릴리온랩스, 국내 최초 ‘확산 기반 트랜스포머 아키텍처’ 모델 개발 작성일 01-29 11 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="Yrbj6Qb0si"> <p contents-hash="421a3f803961736be867d5d56b420adb725ae02fad5491d8cecb8064b52198d2" dmcf-pid="GmKAPxKpsJ" dmcf-ptype="general"> [이데일리 김아름 기자] AI 스타트업 트릴리온랩스(Trillion Labs)가 과학기술정보통신부 산하 정보통신산업진흥원(NIPA)의 고성능 컴퓨팅 지원사업을 통해 국내 최초로 ‘확산 기반 트랜스포머(Diffusion Transformer) 아키텍처’를 적용한 대규모 언어 모델 ‘Trida-7B’ 개발에 성공했다고 29일 밝혔다.</p> <figure class="figure_frm origin_fig" contents-hash="099cad5f212ed279b0a81f04bf9d6a945735a9f727f7d6965deb645e9d41aa21" dmcf-pid="Hs9cQM9UDd" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/29/Edaily/20260129090748298jbuf.jpg" data-org-width="670" dmcf-mid="W2uL2fu5Dn" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/29/Edaily/20260129090748298jbuf.jpg" width="658"></p> </figure> <div contents-hash="eae25ef868599a5d265064b179fa885abda3a23dd8c3ffdcabeeb0bdb0b13fc4" dmcf-pid="XO2kxR2ure" dmcf-ptype="general"> 이번 성과는 기존 자기회귀(Autoregressive) 모델의 구조적 한계를 넘어, 구글(Google)의 제미나이 등 글로벌 빅테크들이 이제 막 시도하기 시작한 차세대 디퓨전 모델 아키텍처를 국내 스타트업이 독자적으로 구현해냈다는 점에서 큰 의미를 갖는다. 트릴리온랩스는 단어를 순차적으로 생성하는 방식 대신, 문장 전체를 병렬로 생성하는 확산 기술을 트랜스포머 아키텍처에 성공적으로 이식하여 추론 속도와 효율성을 획기적으로 개선했다. </div> <p contents-hash="beaab386ed5d0f224770a3172e30b28ab25dc7418e6ae7ba36d0d5abada032e5" dmcf-pid="ZIVEMeV7rR" dmcf-ptype="general">특히 이번 개발 과정에서 NIPA가 지원한 H200 80장 규모의 고성능 연산 자원은 스타트업이 직면한 가장 큰 애로사항인 ‘컴퓨팅 파워 부족’을 해결하는 결정적 동력이 되었다. 막대한 자본이 소요되는 하드웨어 인프라를 정부로부터 적시에 지원받음으로써, 기술적 난제였던 블록 디퓨전(Block Diffusion) 효율 학습 전략과 독자적 전이 학습(Transfer Learning) 기법을 단기간에 완성할 수 있었다. </p> <p contents-hash="e9a9ce8c5493629c28c0248d7aa759336ae81d054e6b3e58aaaac3ea7fed0825" dmcf-pid="5CfDRdfzEM" dmcf-ptype="general">‘Trida-7B’는 주요 한국어 성능 평가 지표에서 디퓨전 LLM 글로벌 선행 모델들을 압도하며 기술적 완성도를 입증했다. 복잡한 수리적 사고를 요하는 ko_gsm8k(수학)에서 61.26점을 기록하며 NVIDIA의 ‘Fast dLLM’(56.94점) 등 기존 글로벌 모델들을 유의미한 차이로 앞서며 독보적인 1위를 차지했다.</p> <p contents-hash="a3f2914bfb666329c02b6be0770eb9149328332dac2b36526500a6a591167a76" dmcf-pid="1h4weJ4qOx" dmcf-ptype="general">또한 사용자의 복잡한 명령어를 얼마나 정확하게 수행하는지 측정하는 koifeval(한국어 지시 이행 능력)에서도 53.42점을 획득해 경쟁 모델 대비 압도적인 성능 우위를 증명했다. 한국어 지식 이해 능력을 측정하는 kmmlu(한국어 상식)에서는 46.35점으로 최고점을 획득했다. Trida-7B가 국내는 물론 글로벌 표준의 한국어 환경에서도 가장 최적화된 성능을 발휘하는 ‘한국어 특화 AI’임을 입증하는 결과다.</p> <p contents-hash="0856d3d8a3e31fe4ed89625a7d06beca53a98e78313dcc811827947b2f226154" dmcf-pid="tl8rdi8BIQ" dmcf-ptype="general">트릴리온랩스 신재민 대표는 “스타트업이 감당하기 힘든 막대한 연산 자원 확보 문제를 NIPA의 지원을 통해 해결하면서 연구 개발에만 매진할 수 있었다”며, “확산 기반 트랜스포머라는 차세대 아키텍처 선점을 통해 대한민국이 글로벌 AI 기술 경쟁에서 주도권을 확보하는 데 기여하겠다”고 밝혔다.</p> <p contents-hash="1e9e2eb32a0b1901082dc01a537fb1553fbcd7dcfed1c357f0f9052b9f3f24e9" dmcf-pid="FeG83pGhDP" dmcf-ptype="general">김아름 (autumn@edaily.co.kr) </p> </section> </div> <p class="" data-translation="true">Copyright © 이데일리. 무단전재 및 재배포 금지.</p> 관련자료 이전 윤유선, 부장 판사 출신 남편과 '옥문아' 전격 출연…첫 부부 동반 토크쇼 [공식] 01-29 다음 넥슨, '메이플 키우기' 논란에 사상 초유 전액 환불…"신뢰 회복 노력" 01-29 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.