네이버, 세계 최고 권위 AI 학회 ‘뉴립스 2025’서 논문 10개 채택 작성일 12-09 31 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">네이버 AI 풀스택 전략 공유<br>LLM 캐시 압축 기술 등 소개</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="XyzpSALxla"> <figure class="figure_frm origin_fig" contents-hash="72f602e8698d2c7a9545b4834e201d86a565f579f04f0125003858e3a507202f" dmcf-pid="ZWqUvcoMTg" dmcf-ptype="figure"> <p class="link_figure"><img alt="네이버클라우드 관계자가 해외 AI 연구자들에게 팀네이버의 AI 경쟁력을 소개하고 있다. 사진 제공=네이버" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/09/seouleconomy/20251209095815824kjeo.png" data-org-width="640" dmcf-mid="HxqUvcoMyN" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/09/seouleconomy/20251209095815824kjeo.png" width="658"></p> <figcaption class="txt_caption default_figure"> 네이버클라우드 관계자가 해외 AI 연구자들에게 팀네이버의 AI 경쟁력을 소개하고 있다. 사진 제공=네이버 </figcaption> </figure> <div contents-hash="944bbae42ba7c3fa149bef7a227b756dd8d8ddce24488953565ee79cff5406af" dmcf-pid="5YBuTkgRSo" dmcf-ptype="general"> [서울경제] <p>네이버가 세계 최고 권위의 인공지능(AI) 학회 ‘뉴립스 2025(NeurIPS 2025)’에서 논문 10편이 채택되는 성과를 거뒀다고 9일 밝혔다. </p> </div> <p contents-hash="cae8e7ff3720ad163adacd211489170872d147e2a915b841ccc2e0e520fd2dff" dmcf-pid="1Gb7yEaehL" dmcf-ptype="general">팀네이버는 이번 학회에서 ‘연구에서 현실로(From Research to Reality)’를 주제로 리서치에서부터 자체 초거대 AI 모델인 ‘하이퍼클로바X’, 네이버의 온서비스 AI 등으로 이어지는 AI 풀스택 전략을 공유했다.</p> <p contents-hash="b76517e72329f3adb9d9ed68df116d5e08033ac7e75ceac38fd0ed763afe5622" dmcf-pid="tHKzWDNdhn" dmcf-ptype="general">올해 채택된 팀네이버의 논문 10편은 AI 풀스택 기술을 실제 서비스와 산업현장에서 효율적이고 안전하게 적용하기 위한 실용적인 내용들로 △초거대 AI의 효율적 운용 △생성형 AI의 안전성 강화 △물리 세계와 로보틱스로의 확장 등 크게 3가지 기술 분야의 혁신을 담았다.</p> <p contents-hash="7b2db0aeeb1e977bcf50523ec0a6c7834d592cb850233928e9ff0e516a5ec28d" dmcf-pid="FyzpSALxWi" dmcf-ptype="general">먼저 거대언어모델(LLM)의 서비스 비용 절감과 속도 향상을 위한 핵심 기술로 중요한 데이터를 선별적으로 압축해 성능 저하 없이 메모리를 최대 4배 절약하고 속도를 2배 향상시키는 캐시 압축 기술이 소개됐다. 또한 LLM이 복잡한 문제를 풀 때 생성하는 사고과정(CoT) 중 불필요한 중간단계를 제거해도 정답률은 유지됨을 증명하며 연산 효율을 높인 연구 등이 발표됐다.</p> <p contents-hash="3b44e873ad7bc90ee57807f03cf85c9630f9b0bdaa6c158957b9ac79e57acd66" dmcf-pid="3WqUvcoMCJ" dmcf-ptype="general">AI가 생성한 결과물의 품질을 높이고 안전하게 제어하는 연구도 주목받았다. 대화형 검색 환경에서 콘텐츠 품질을 정교하게 평가할 수 있는 새로운 벤치마크를 제안한 연구, 이미지 생성 과정에서 사용자의 의도를 더 정확히 반영하도록 하는 텍스트 임베딩 기술, 별도 재학습 없이 유해한 콘텐츠 생성을 억제하는 안전 제어 기술 등이 발표됐다.</p> <p contents-hash="b753d584a162a3ef819778d3448811eacf02812cf2be4dae937aae5b16cedb02" dmcf-pid="0YBuTkgRvd" dmcf-ptype="general">AI를 실세계로 확장하는 연구도 소개됐다. 로봇이나 비디오처럼 시간의 연속성이 중요한 환경에서 장면 정보를 병목 토큰으로 압축해 학습 효율을 높이는 방법과 로봇이 변화하는 공간을 기억하고 경로를 스스로 찾을 수 있도록 돕는 모델 구조를 제시한 논문이 대표적이다.</p> <p contents-hash="1f75ff1c5184ee9e69cc5aca0e8524ef91e3a0ee8e8e6bdba88fced83844f413" dmcf-pid="pGb7yEaehe" dmcf-ptype="general">팀네이버는 올해 뉴립스 학회 기간 중 2만 9000명이 넘는 전 세계 AI 연구자들이 참석한 가운데 통합 부스를 운영하며 주요 연구 성과와 AI 기술을 선보였다. 밋업 행사(Meet the <span stockcode="035420">NAVER(035420)</span> AI Team)를 열고 국내외 AI 연구진 80여 명과 함께 기술 비전과 철학을 공유했다.</p> <div contents-hash="7ed25b850f871aa3044fd2efebeb27487c6164d4280030a285f93af6667ab107" dmcf-pid="UHKzWDNdlR" dmcf-ptype="general"> <p>네이버클라우드 관계자는 “논문 채택률이 약 25%에 불과한 뉴립스에서 팀네이버의 10편의 논문이 채택됐다는 점은 팀네이버의 연구 역량과 기술력이 세계적으로 인정받은 것”이라며 “앞으로도 글로벌 AI 생태계를 확장하고 AI가 실제 서비스와 산업에 구현될 수 있도록 연구 역량을 끌어올리겠다”고 말했다.</p> 양지혜 기자 hoje@sedaily.com </div> </section> </div> <p class="" data-translation="true">Copyright © 서울경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 송전선 주변 ‘자기장’ 활용…‘전기’ 생산, 드론 충전한다 12-09 다음 네이버플러스 스토어·테무, 올해 글로벌·한국 이커머스 앱 시장 석권 12-09 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.