SKT 정예팀, 초거대 AI ‘A.X K1’ 기술 보고서 공개 작성일 01-07 32 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">허깅페이스에 개발 개요·성능 지표 공개<br>수학·코딩 벤치마크서 딥시크-V3.1 앞서</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="PlDOtSNdCb"> <figure class="figure_frm origin_fig" contents-hash="9d0a836c4db9e62c6047d877d0099a3d74d795c6672900ffafade06d457b3507" dmcf-pid="Q0G1fpSrhB" dmcf-ptype="figure"> <p class="link_figure"><img alt="지난달 30일 서울 강남구 코엑스에서 열린 ‘독자 AI 파운데이션 모델 프로젝트 1차 발표회’에서 방문자가 SK텔레콤 A.X K1 모델을 사용하고 있다. 연합뉴스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/07/dt/20260107161704742jrhp.jpg" data-org-width="640" dmcf-mid="6tkm5hgRvK" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/07/dt/20260107161704742jrhp.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 지난달 30일 서울 강남구 코엑스에서 열린 ‘독자 AI 파운데이션 모델 프로젝트 1차 발표회’에서 방문자가 SK텔레콤 A.X K1 모델을 사용하고 있다. 연합뉴스 </figcaption> </figure> <p contents-hash="fe2411ac386d40d078f66d0655c7cf3b7ee01c7f8e263c0539c1c18c51bd607e" dmcf-pid="xpHt4Uvmyq" dmcf-ptype="general"><br> SK텔레콤 정예팀이 매개변수 5190억개(519B) 규모의 초거대 인공지능(AI) 모델 ‘A.X K1’(에이닷엑스 케이원)의 기술 보고서를 공개했다.</p> <p contents-hash="e5f5b92fc6f99aeb45009fc81fea33dcf5b7b81bf4f683dae705c077f356a87f" dmcf-pid="yjdohAPKWz" dmcf-ptype="general">SK텔레콤 정예팀은 오픈소스 플랫폼 허깅페이스에 A.X K1의 모델 개발 개요와 학습 방식, 성능 비교 지표 등을 공개했다고 7일 밝혔다. 이번에 공개된 보고서에는 수학·코딩 분야를 중심으로 한 벤치마크 결과와 모델 구조에 대한 설명이 담겼다.</p> <p contents-hash="84e91983c4e82cfbef6c38b08b76f216e81ad37245904d3a42ae55d4a09fe6b3" dmcf-pid="WAJglcQ9T7" dmcf-ptype="general">A.X K1은 매개변수 519B 규모의 초거대 AI 모델로, SKT 정예팀이 약 4개월의 짧은 개발 기간 1000여개의 GPU 자원을 활용해 구축했다. 학습 기간과 GPU 규모를 바탕으로 가능한 총 학습량을 추산하고, 이를 바탕으로 최대 모델 크기를 스케일링 이론(모델 성능은 투입 자원에 비례한다는 이론)에 근거해 설계했다. 투여된 GPU 자원 대비 효과를 극대화하기 위해 최적의 학습 연산량을 수학적으로 설계하고 관리했다.</p> <p contents-hash="1fc7c7cf8921cd428ae8ef3b4c539767df9436db00c5038368dafa80ec591cb4" dmcf-pid="YciaSkx2Cu" dmcf-ptype="general">보고서에 따르면 A.X K1은 수학·코딩 등 분야에서 글로벌 오픈소스 모델 대비 경쟁력 있는 성능을 갖췄다. 수학 능력을 평가하는 AIME25 벤치마크에서 89.8점을 기록해 딥시크-V3.1(88.4점) 대비 약 102% 수준의 성능을 보였다. AIME25는 미국 고등학생 수학 올림피아드 문제로 AI의 수학 능력을 측정하는 지표다.</p> <p contents-hash="1245f7c2fa8964ad77e4d3db907120525ce4fbdf918728566f202e089364c35e" dmcf-pid="GknNvEMVSU" dmcf-ptype="general">코딩 활용도를 측정하는 라이브코드벤치(LiveCodeBench)에서는 영어 기준 75.8점, 한국어 기준 73.1점을 기록했다. 이는 딥시크-V3.1의 영어 69.5점, 한국어 66.2점 대비 각각 109%, 110% 수준이다. 라이브코드벤치는 최신 코딩 문제를 기반으로 AI의 실시간 문제 해결 능력을 평가하는 벤치마크다.</p> <p contents-hash="4c6ac68a4d55b580ca49853b6d2665e707d0f03a7fb58ec011db7230c17fdcdd" dmcf-pid="HELjTDRfhp" dmcf-ptype="general">A.X K1은 모델 효율성을 높이기 위해 전문가 혼합(MoE, Mixture of Experts) 구조를 적용했다. 전체 519B 파라미터 가운데 33B만 선택적으로 활성화하는 방식으로 안정성과 효율을 동시에 확보했다. 또한 한 번에 128K 토큰의 긴 문맥을 처리할 수 있어 소설책 한 권이나 기업 연간 보고서 한 권도 동시에 검토할 수 있다.</p> <p contents-hash="7a2c5a8f05f31e4c0475cb5b0fc2427adffee68ab017c0df7c9562127456b4ad" dmcf-pid="XDoAywe4l0" dmcf-ptype="general">모델 학습에는 웹 데이터와 코드, 이공계 데이터(STEM), 추론 데이터 등 다양한 고품질 데이터가 활용됐다. 한국어 특화 PDF 문서를 파싱(개발 프로그램이 학습 자료를 이해할 수 있도록 복잡한 자료를 구조적으로 분해해서 정리하는 것) 및 합성 데이터를 생성했고, 난이도에 따라 커리큘럼 학습 방식도 적용했다.</p> <p contents-hash="8baa478da9ce4b56c6aef9c007d2c956b4784a7b547b251c5a294175171fa6f4" dmcf-pid="ZwgcWrd8l3" dmcf-ptype="general">SK텔레콤은 A.X K1을 기반으로 추가 연구와 확장을 이어갈 계획이다. 연내 멀티모달 기능을 추가하고 모델 규모를 조 단위 파라미터로 확대하는 것을 목표로 하고 있다.</p> <p contents-hash="c76bae4032b2c99abbb80f3e2c44ca10a357998676f6effcd75a94cf06e533bc" dmcf-pid="5rakYmJ6WF" dmcf-ptype="general">이혜선 기자 hslee@dt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털타임스. 무단전재 및 재배포 금지.</p> 관련자료 이전 남지현X문상민, 사극 불패 조합 맞네… ‘은애하는 도적님아’ 높은 화제성 01-07 다음 복귀 문턱 점점 높아지는 박나래, 끝까지 침묵[SS초점] 01-07 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.