[독자AI발표]연산량 줄였는데 챗GPT 넘는 성능…LG AI연구원 'K-엑사원' 작성일 12-30 42 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">독자 AI 파운데이션 모델 1차 발표회<br>중저가 GPU에서도 구동 가능한 K-엑사원 공개</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="2wwN2anQNl"> <figure class="figure_frm origin_fig" contents-hash="e48dcd90c36eca737fa9ede2646e89b23fbdd3fc86ccaed1605f14f0319a5401" dmcf-pid="VrrjVNLxgh" dmcf-ptype="figure"> <p class="link_figure"><img alt="최정규 LG AI연구원 AI에이전트 그룹장이 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 발표하고 있다. 사진=박유진 기자" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/30/akn/20251230183644726pmtp.jpg" data-org-width="745" dmcf-mid="9u9uhUFYgS" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/30/akn/20251230183644726pmtp.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 최정규 LG AI연구원 AI에이전트 그룹장이 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 발표하고 있다. 사진=박유진 기자 </figcaption> </figure> <p contents-hash="aa629620c4846002eb0a9c20816c0626eb09125f168fa372aabbd498bd4e18f9" dmcf-pid="fmmAfjoMcC" dmcf-ptype="general">LG AI연구원은 학습 연산량을 기존 대비 3분의 1 수준으로 낮추면서도 미국의 챗GPT와 중국의 큐웬 등 글로벌 프론티어 모델을 웃도는 성능을 확보한 인공지능(AI) 모델 'K-엑사원'을 공개했다.</p> <p contents-hash="5b39281cbc98f96a07c1e0438a52dd72f23524bb49f752a7a53da4f9e1396963" dmcf-pid="4ssc4AgRoI" dmcf-ptype="general">최정규 LG AI연구원 AI에이전트 그룹장은 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 "성능은 유지하면서도 학습에 필요한 연산량을 기존 대비 약 30% 수준으로 낮췄다"며 "효율적인 구조를 통해 비용 부담을 줄이는 데 초점을 맞췄다"고 말했다.</p> <p contents-hash="9f4afe7ab1c75a8366aaf68e00cbfc5ea8b19ebba8087aa1f01d7c2c83b98381" dmcf-pid="8CCDPEjJoO" dmcf-ptype="general">최 그룹장은 기존 대규모 언어모델(LLM)의 한계로 '연산 비용'을 꼽았다. 문장 속 모든 단어 간 관계를 계산하는 방식은 성능은 뛰어나지만, 학습과 운영에 많은 비용이 든다는 설명이다. 그는 "모든 정보를 다 계산하지 않아도 필요한 정보만 선택적으로 활용할 수 있다"며 "이를 위해 하이브리드 어텐션 구조를 효율적으로 설계했다"고 설명했다.</p> <p contents-hash="88c1a3743a699244be8217c8bdf47d54319aab37ffef62ba8f0caf85d370fc65" dmcf-pid="6hhwQDAigs" dmcf-ptype="general">이 모델은 중저가급 GPU 환경에서도 구동이 가능하다. 최 그룹장은 "고가의 인프라가 아니어도 모델을 운영할 수 있어 초기 구축 비용과 운영 부담이 상대적으로 적다"며 "스타트업이나 중소기업도 바로 활용할 수 있는 AI 모델"이라고 말했다.</p> <p contents-hash="fe55e9c52f80a3936e05fb8242a89e7985d83f0b0317937f0a8ae68a23e01f46" dmcf-pid="PllrxwcnAm" dmcf-ptype="general">학습 방식은 단계적으로 구성됐다. 일반적인 기본 지식을 먼저 학습한 뒤, 사고력을 강화하는 학습을 거쳐, 마지막으로 특정 분야의 전문 지식을 학습하는 구조다. 최 그룹장은 "이전 단계에서 쌓은 지식을 바탕으로 다음 단계 성능을 끌어올리는 방식"이라며 "이런 학습 전략을 통해 가용 인프라를 효율적으로 활용할 수 있었다"고 설명했다. 실제 GPU 인프라 활용 효율은 평균 89.4%를 기록했다.</p> <p contents-hash="52503a73e12658d6f215fccfe0c2c166c697a6615aded82a2133aed3fff1bd30" dmcf-pid="QSSmMrkLAr" dmcf-ptype="general">성능 평가 결과도 공개됐다. LG AI연구원이 주요 벤치마크 13개 항목을 자체 평가한 결과, 평균 성능은 목표치 대비 104%를 기록했다. 300B(3000억개) 파라미터 이하 모델 기준으로는 오픈AI의 GPT-OSS(120B)와 중국 큐웬3(235B) 등 글로벌 모델과 비교해도 상위권 성능을 확보했다고 설명했다.</p> <p contents-hash="cb3ff6da45b47a84ebce90cb30c09a74847c853698566d427acb38fbae81e491" dmcf-pid="xvvsRmEokw" dmcf-ptype="general">안전성과 신뢰성도 강조했다. LG AI연구원은 학습 데이터 전반에 대해 컴플라이언스 검토를 진행하고, 문제가 될 소지가 있는 데이터는 다른 데이터로 대체하는 절차를 운영하고 있다. 또 인류 보편적 가치, 사회 안전, 한국적 특수성, 미래 위험 대응 등 여러 영역을 기준으로 모델을 점검하고 있다고 밝혔다.</p> <p contents-hash="d27208f6c9d798907fca452b991bd3617fd5d65ad799e9a497e09992b3eaff36" dmcf-pid="yPP9YKztgD" dmcf-ptype="general">박유진 기자 genie@asiae.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 아시아경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 한국어 뉘앙스 알아듣고, 현장 문제 대화로 해결…베일 벗은 국가대표 AI 모델 [팩플] 12-30 다음 안세영 이럴 수가! '죽음의 대진표' 받았다! 12위→올림픽 銅→중국→중국→중국…'2026년 첫 대회부터 이런 일이' 12-30 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.