SKT 정예팀 AI 모델, 딥시크-V3.1 성능 앞섰다 작성일 01-07 34 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">허깅페이스에 A.X K1 기술 보고서 공개...향후 멀티모달 추가, 조단위 파라미터로 확장</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="330xTdB3Nm"> <p contents-hash="e9e7927d4150a679f6fdf7ae0bd857a539c29afdfcff10b9b78554b25b19e91d" dmcf-pid="02VN3kx2kr" dmcf-ptype="general">(지디넷코리아=박수형 기자)SK텔레콤 정예팀이 매개변수 5천190억 개 규모의 초거대 AI 모델 ‘에이닷엑스 케이원(A.X K1)’ 기술 보고서를 오픈소스 플랫폼 허깅페이스에 공개했다고 7일 밝혔다.</p> <p contents-hash="ac55a0944bbab168cf23576840374bfba6aae3073695c981d6dfd7dbc611a69d" dmcf-pid="pVfj0EMVcw" dmcf-ptype="general">SK텔레콤 정예팀은 4개월여의 짧은 개발기간과 제한된 GPU 자원에도 다양한 기술과 효율성을 극대화한 설계로 국내 첫 500B 이상 초거대 모델 A.X K1을 완성했다.</p> <p contents-hash="931170d906feb8ce6701623a4f5e56ebe647f84d7289726ec53ffd1a3d384fb1" dmcf-pid="Uf4ApDRfND" dmcf-ptype="general">한정된 시간 안에 519B 규모를 갖췄음에도 주요 벤치마크에서 딥시크-V3.1 등 세계적으로 많이 활용되는 초거대 모델과 유사하거나 더 높은 성능을 달성했다.</p> <p contents-hash="09cbba34ef546c790be39a237cd0b1223710ac39e0c808beb71390b66c8691a1" dmcf-pid="u48cUwe4aE" dmcf-ptype="general">통상 매개변수가 많아질수록 최적화 시간과 GPU 자원 투입이 늘어날 수밖에 없는데, 타 정예팀 대비 최소 2배 이상의 모델 규모임에도 높은 성능까지 확보한 점이 주목할 부분이다.</p> <p contents-hash="abb3252ad6f77e21a5a1a4bb39c78cd9333f47390ed30921fee5f9e02f6a0fdf" dmcf-pid="786kurd8Ak" dmcf-ptype="general">A.X K1은 향후 추가 연구 기간에 따라 더 많은 컴퓨팅 자원과 데이터를 투입해 성능을 더욱 높일 수 있는 모델이다. SK텔레콤은 연내 멀티모달 기능을 추가하고 조 단위 파라미터로 확대할 계획이다.</p> <figure class="figure_frm origin_fig" contents-hash="dc5a6b8d467d31aa38ef8284fd3eea74ee4c3e46070f9090b55e0607c6e5256e" dmcf-pid="z6PE7mJ6jc" dmcf-ptype="figure"> <p class="link_figure"><img alt="사진_SK텔레콤 뉴스룸" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/07/ZDNetKorea/20260107110944233xufx.jpg" data-org-width="638" dmcf-mid="p5uHe1OcNC" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/07/ZDNetKorea/20260107110944233xufx.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 사진_SK텔레콤 뉴스룸 </figcaption> </figure> <p contents-hash="a66e4dd73ddbf7abf61d7da497217b8b27338af4b73112a66863c4dba4596361" dmcf-pid="qPQDzsiPgA" dmcf-ptype="general"><strong>자체 GPU만으로 학습 효과 성능 높였다</strong></p> <p contents-hash="1892cfd4c7a584398a40a75bd40a234195e45ed37ce413b1f44b5bd4b2b551a7" dmcf-pid="BQxwqOnQcj" dmcf-ptype="general">SK텔레콤 정예팀은 1천개의 GPU 자원을 활용해 A.X K1 학습을 진행했다. 학습 기간과 GPU 규모를 바탕으로 가능한 총 학습량을 추산하고, 이를 바탕으로 최대 모델 크기를 스케일링 이론에 근거해 설계했다.</p> <p contents-hash="9328313d010d8a4b0352f8eeee7ed9f55415d0abe872c54f6f31285de3e78e45" dmcf-pid="bxMrBILxaN" dmcf-ptype="general">그 결과 세계적으로도 독창적인 매개변수 구조인 519B 규모의 모델을 목표로 정하고 약 10조(10T) 개의 데이터를 투입해 학습했다.</p> <p contents-hash="f3a3f04a4548b6992f5d5f9474dd712f6c4552f7bf55df055bd51c40db74878f" dmcf-pid="KMRmbCoMaa" dmcf-ptype="general">정예팀은 개발기간 동안 상시 1천개 이상의 GPU를 인공지능 훈련에 활용했다. 투여된 GPU 자원 대비 효과를 극대화하기 위해 최적의 학습 연산량을 수학적으로 설계하고 관리했다.</p> <p contents-hash="bfc258d4b9ddf81191d8b187f8a9583dcf0fab2ef90ef3d4a13bb446b41e73d0" dmcf-pid="9ResKhgRgg" dmcf-ptype="general">특히 A.X K1은 이번 개발기간 동안 정부 지원을 받지 않고 자체 GPU 조달만으로 목표를 달성했다.</p> <p contents-hash="115037fc97fcbefb9d26dfa4c0658b2798a4aaa7b0f19d3a1e4f2aea6b355df2" dmcf-pid="2edO9laejo" dmcf-ptype="general">모델 학습에는 웹 데이터, 코드, 이공계 데이터(STEM), 추론 데이터 등 다양한 고품질 데이터를 활용했다. 한국어 특화 PDF 문서를 파싱, 합성 데이터를 생성했고 난이도별 커리큘럼 학습 방식도 적용했다.</p> <p contents-hash="4c83129c03d6b697087b81fa85780d97ba9db43996666fb5619e9fe7f0421cb3" dmcf-pid="VckHe1OcjL" dmcf-ptype="general"><strong>수학, 코딩에서도 우수한 성능 구현</strong></p> <p contents-hash="8b020f3a143882ee5e73a5280030d10a0e442749f1201d6db848cd24d613bcb8" dmcf-pid="fkEXdtIkkn" dmcf-ptype="general">A.X K1은 수학과 코딩 등 초거대 AI 모델의 능력을 필요로 하는 분야에서 우수한 성능을 구현했다.</p> <p contents-hash="191bcde7f84d6b80407da7684d886e38d6a6328a07f766a41d22671f10d14f73" dmcf-pid="4EDZJFCEoi" dmcf-ptype="general">보고서에 기술된 벤치마크 지표는 매개변수 6천850억 개(685B)의 ‘딥시크-V3.1’, 매개변수 3천570개(357B)의 ‘GLM-4.6’ 오픈소스 모델과 비교해 규모 대비 성능을 비교할 수 있도록 했다.</p> <p contents-hash="08bf9d59be7afca16606bf697caa6dabbb357916d903770dcc809bc64a8d70e0" dmcf-pid="8Dw5i3hDNJ" dmcf-ptype="general">수학은 AIME25 벤치마크에서 89.8점을 받아 딥시크-V3.1 모델(88.4점) 대비 102% 수준으로 앞선 성능을 확인했다. AIME25는 미국 고등학생 수학 올림피아드 문제로 AI의 수학 실력을 측정하며, 창의적이고 복잡한 난이도의 문제가 출제된다.</p> <p contents-hash="a287f148cba248f9da7863e8dfd70a526fba345e6c61cbd046fea5e6f3e9702b" dmcf-pid="6wr1n0lwNd" dmcf-ptype="general">코딩 활용도 측면에서 측정한 LiveCodeBench는 영어 기반 75.8점, 한국어 기반 73.1점을 기록하며 실시간 코딩 문제 해결 능력을 입증했다. 영어 기반 69.5점, 한국어 기반 66.2점을 받은 딥시크-V3.1 대비 각각 109%, 110% 수준의 높은 성능을 보였다.</p> <p contents-hash="2e1d7b2cdfaae716ea2d872a703743ee62f675062e52c891afb4e08cffb10823" dmcf-pid="PrmtLpSrNe" dmcf-ptype="general">LiveCodeBench는 AI가 실시간으로 나오는 최신 코딩 문제를 얼마나 잘 푸는지 측정하는 시험으로, 인공지능이 미리 볼 수 없는 최신 문제들로 구성돼 실제 코딩 능력을 테스트한다.</p> <figure class="figure_frm origin_fig" contents-hash="16cedf65cb0f9365159104e109e8ba5da7833644b84d22dde59e5265c06929f9" dmcf-pid="QmsFoUvmoR" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/07/ZDNetKorea/20260107110945529opuc.png" data-org-width="640" dmcf-mid="UCcsKhgRoI" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/07/ZDNetKorea/20260107110945529opuc.png" width="658"></p> </figure> <p contents-hash="0fd0c8f5603463e577b3e164b4748afbcf6525e916a1ac04b63e247f49e60102" dmcf-pid="xsO3guTsaM" dmcf-ptype="general"><strong>실용적인 구조 설계...훈련 안정성 확보</strong></p> <p contents-hash="88442e800b798e768ec96036aa1946c0b1aac7aace744c3af6559a4e8a1b1b3e" dmcf-pid="y92aFcQ9ox" dmcf-ptype="general">A.X K1은 519B 규모의 파라미터 가운데 33B만 선택적으로 활성화하는 방식으로 효율성을 높였다. 전문가 혼합(MoE) 구조를 채택해 AI 훈련 과정의 안정성과 효율을 동시에 확보한 것이 특징이다.</p> <p contents-hash="e5915156bb3dab4cfeb8b4931a0391d5c905f527f9291e06978d746ad1bf2a61" dmcf-pid="W2VN3kx2NQ" dmcf-ptype="general">MoE란 여러 개의 작은 전문가 모델들이 모여서 하나의 큰 문제를 해결하는 방식으로 각 전문가 모델은 특정 유형의 데이터를 잘 처리하도록 특화되어 있고, 입력 데이터에 따라 가장 적합한 전문가가 선택되어 문제를 해결한다.</p> <p contents-hash="0f7c676174f260a8a00d580ce2acb697ef4a3c95dc715de1cab3e7589511b583" dmcf-pid="YVfj0EMVkP" dmcf-ptype="general">이밖에 A.X K1은 한 번에 128K 토큰의 긴 문맥도 처리할 수 있는 능력을 갖췄다. 이는 한국어 기준 약 10만 단어로서, 인공지능 모델이 소설책 한 권 또는 기업 연간 보고서 한 권도 동시에 검토할 수 있게 해 준다.</p> <p contents-hash="ae7ad4165a4e55c99e903a2c5677aefb57b23572a859d4a4e47e9d4c4e4293ab" dmcf-pid="Gf4ApDRfc6" dmcf-ptype="general">박수형 기자(psooh@zdnet.co.kr)</p> </section> </div> <p class="" data-translation="true">Copyright © 지디넷코리아. 무단전재 및 재배포 금지.</p> 관련자료 이전 네이버에 번진 ‘AI 독자기술’ 논란…흔들리는 국가대표 AI 선발 01-07 다음 "내 챗GPT 질문, 밖에 샜다"…크롬 악성 프로그램서 대화 정보 빼돌려 01-07 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.