팀네이버, 세계 최고 권위 AI 학회 '뉴립스 2025'에서 논문 10개 채택 작성일 12-09 22 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">AI의 효율적 운용 및 안전성 강화·산업현장 확장 제시</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="Fcsli2ztCX"> <p contents-hash="ffdbb5a22647f673360a038fcea9ca6f754390dcc22a15ad293229be6b07e544" dmcf-pid="3kOSnVqFvH" dmcf-ptype="general">[아이뉴스24 윤소진 기자] 팀네이버는 세계 최고 권위의 인공지능 학회 ‘뉴립스(NeurIPS) 2025’에서 논문 10편이 채택되는 성과를 거뒀다고 9일 밝혔다.</p> <figure class="figure_frm origin_fig" contents-hash="325b0981b537dd14afdd09fe73c8870d6070466aad15dffdd13efaa1bb48533e" dmcf-pid="0EIvLfB3WG" dmcf-ptype="figure"> <p class="link_figure"><img alt="네이버클라우드 관계자가 해외 AI 연구자들에게 팀네이버의 AI 경쟁력을 소개하고 있다. [사진=네이버클라우드]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/09/inews24/20251209094449127zzdn.jpg" data-org-width="580" dmcf-mid="troAVFHlSZ" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/09/inews24/20251209094449127zzdn.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 네이버클라우드 관계자가 해외 AI 연구자들에게 팀네이버의 AI 경쟁력을 소개하고 있다. [사진=네이버클라우드] </figcaption> </figure> <p contents-hash="80960022d65e0d7aabcdf6b356c39fa59e34d183bd0fc0d6af9a379bb8ec5f08" dmcf-pid="pDCTo4b0WY" dmcf-ptype="general">팀네이버는 이번 학회에서 ‘From Research to Reality’를 주제로 리서치에서부터 자체 초거대 AI 모델인 하이퍼클로바X, 네이버의 온서비스 AI 및 산업특화 버티컬 서비스로 이어지는 AI 풀스택 전략을 세계 우수 연구 인재들과 공유했다.</p> <p contents-hash="fd01155eae63b481b51af22d6fd8f247120118aa706af24f6357ef407aa90ec3" dmcf-pid="Uwhyg8KpWW" dmcf-ptype="general">올해 채택된 논문 10편은 AI 풀스택 기술을 실제 서비스와 산업현장에서 효율적이고 안전하게 적용하기 위한 실용적인 내용들로 △초거대 AI의 효율적 운용(Efficiency) △생성형 AI의 안전성 강화(Controllability & Safety) △물리 세계와 로보틱스로의 확장(Physical AI) 등 크게 3가지 기술 분야의 혁신을 담았다.</p> <p contents-hash="dd4df9ffc4b52abf9ad9d33adbcc5b531896b7a895ab635dc530b9486b043426" dmcf-pid="urlWa69UCy" dmcf-ptype="general">먼저 LLM의 서비스 비용 절감과 속도 향상을 위한 핵심 기술로는 LLM의 긴 문맥 처리 시 중요한 데이터를 선별적으로 압축해 성능 저하 없이 메모리를 최대 4배 절약하고 속도를 2배 향상시키는 캐시 압축 기술, LLM이 복잡한 문제를 풀 때 생성하는 사고과정(CoT) 중 불필요한 중간단계를 제거해도 정답률은 유지됨을 증명하며 연산 효율을 높인 연구 등이 발표됐다.</p> <p contents-hash="3b44e873ad7bc90ee57807f03cf85c9630f9b0bdaa6c158957b9ac79e57acd66" dmcf-pid="74RnzGSrTT" dmcf-ptype="general">AI가 생성한 결과물의 품질을 높이고 안전하게 제어하는 연구도 주목받았다. 대화형 검색 환경에서 콘텐츠 품질을 정교하게 평가할 수 있는 새로운 벤치마크를 제안한 연구, 이미지 생성 과정에서 사용자의 의도를 더 정확히 반영하도록 하는 텍스트 임베딩 기술, 별도 재학습 없이 유해한 콘텐츠 생성을 억제하는 안전 제어 기술 등이 발표됐다.</p> <p contents-hash="b753d584a162a3ef819778d3448811eacf02812cf2be4dae937aae5b16cedb02" dmcf-pid="z8eLqHvmSv" dmcf-ptype="general">AI를 실세계로 확장하는 연구도 소개됐다. 로봇이나 비디오처럼 시간의 연속성이 중요한 환경에서 장면 정보를 병목 토큰으로 압축해 학습 효율을 높이는 방법과 로봇이 변화하는 공간을 기억하고 경로를 스스로 찾을 수 있도록 돕는 모델 구조를 제시한 논문이 대표적이다.</p> <p contents-hash="9c17e0eb477843fb688f58e8cf35162adedc5940d381f3e34a38f80a85b03a50" dmcf-pid="q6doBXTsSS" dmcf-ptype="general">팀네이버는 올해 뉴립스에서 글로벌 인재들과의 네트워크 구축에도 적극 나섰다. 학회 기간 중 2만9000명이 넘는 전 세계 AI 연구자들이 참석한 가운데, 통합 부스를 열고 주요 연구 성과와 AI 기술을 선보였다. 밋업 행사(Meet the NAVER AI Team)에서는 국내외 AI 연구진 80여 명과 함께 기술 비전과 철학을 공유했다.</p> <p contents-hash="39dd3889fee5c1c3f856fce40a8b86779fae5317ca2b7343e6e101c1a2d95eed" dmcf-pid="BPJgbZyOhl" dmcf-ptype="general">네이버클라우드 관계자는 “논문 채택률이 약 25%에 불과한 NeurIPS에서 팀네이버의 10편의 논문이 채택됐다는 점은 팀네이버의 연구 역량과 기술력이 세계적으로 인정받은 것”이라며 “앞으로도 글로벌 AI 생태계를 확장하고 AI가 실제 서비스와 산업에 구현될 수 있도록 연구 역량을 끌어올리겠다”고 말했다.</p> <address contents-hash="a784744a0183658640e7acd608879168ecc53e179a73c73d29d81198bf64d9aa" dmcf-pid="bQiaK5WIvh" dmcf-ptype="general">/윤소진 기자<span>(sojin@inews24.com)</span> </address> </section> </div> <p class="" data-translation="true">Copyright © 아이뉴스24. 무단전재 및 재배포 금지.</p> 관련자료 이전 “수출통제 中자립 도와” 젠슨 황 설득 통했나...美, 고성능 AI칩 ‘H200′ 中에 수출 허용 12-09 다음 "지역 상인에 디지털 홍보 지원" 카카오 '프로젝트 단골' 4년째 이어져 12-09 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.