메타, 물리적 세계 이해하는 AI 모델 공개...‘월드 모델’로 확대되는 경쟁 작성일 06-12 38 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="zseiOxiBm3"> <figure class="figure_frm origin_fig" contents-hash="38f81dfb7a79b7b23be96785c70f40ba22a65fdfc54b274c178cb748ebb0bd6b" dmcf-pid="qOdnIMnbEF" dmcf-ptype="figure"> <p class="link_figure"><img alt="메타 로고. 로이터연합뉴스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202506/12/khan/20250612163205881tfqa.jpg" data-org-width="1100" dmcf-mid="7Pioheo9E0" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202506/12/khan/20250612163205881tfqa.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 메타 로고. 로이터연합뉴스 </figcaption> </figure> <p contents-hash="6a404865584867a1fbb0aa67c271d2090191cb4d3d56c83bc3687f5d7e742289" dmcf-pid="BIJLCRLKst" dmcf-ptype="general">미국 거대 기술기업 메타가 물리적 세계에서 일어나는 움직임을 이해하고 변화를 예측하는 데 특화된 새로운 인공지능(AI) 모델을 공개했다. 언어 모델 중심이던 생성형 AI 경쟁이 이제 로봇이나 자율주행차처럼 실제 환경과의 상호작용을 위한 ‘월드 모델’ 분야로 확대되고 있다.</p> <p contents-hash="c07602e12b19276d61e4127dcf02876c2d46660ca6d3b64043f0d732879f05f8" dmcf-pid="bQ3Ux1Uls1" dmcf-ptype="general">메타는 11일(현지시간) 새 월드 모델 ‘브이제파2(V-JEPA2)’를 공개했다. 지난해 처음 공개한 브이제파 모델의 후속으로, 100만시간 이상의 영상과 100만개 이미지로 사전 학습을 거쳤다.</p> <p contents-hash="d761f48ac4314f7c95b0bd0985809eb3f6a99dd2cf00ca485603948c517eb8bf" dmcf-pid="Kx0uMtuSr5" dmcf-ptype="general">월드 모델은 현실 세계의 작동 원리를 이해해 마치 인간처럼 미래 상황을 예측하고 행동을 계획할 수 있게 하는 기술이다. 방대한 텍스트를 학습해 문장을 만들어내는 거대언어모델과 달리 실제 환경의 움직임과 변화를 다루는 데 중점을 둔다. 메타는 “이러한 능력은 행동에 앞서 사고할 수 있는 AI 에이전트를 구축하는 데 필수적”이라고 말했다.</p> <p contents-hash="25e1128390ded6ffa8c0e42cc39eaf297e42a4dceff6e7894511c145406747d0" dmcf-pid="9Mp7RF7vIZ" dmcf-ptype="general">예를 들어 사람들은 공을 공중에 던지면 중력에 의해 밑으로 떨어지는 것을 직관적으로 안다. 혼잡한 길을 걸을 땐 목적지를 향해 가면서도 사람이나 장애물에 부딪히지 않으려 조심한다. 메타는 새로운 모델이 이같은 ‘물리적 직관’을 바탕으로 가상의 행동이 가져올 결과를 예측할 수 있게 해준다고 설명했다.</p> <p contents-hash="4708aa3e99d9ef0fd443138325ae692b4c66d100c20061137f05e8e31eafd84e" dmcf-pid="2RUze3zTwX" dmcf-ptype="general">메타의 수석 AI 과학자인 얀 르쿤은 “우리는 월드 모델이 로봇 공학의 새로운 시대를 열어, 천문학적인 양의 로봇 훈련 데이터 없이도 현실 세계의 AI 에이전트가 물리적 작업을 도울 수 있게 될 것이라고 믿는다”고 말했다.</p> <p contents-hash="5333e074fcbcb3d41659e15c893f8aee93c623ecfb29b2fa93492fafe9255953" dmcf-pid="Veuqd0qysH" dmcf-ptype="general">회사는 향후 작업을 여러 단계로 나눠 계획하고, 시각뿐만 아니라 청각·촉각 등 다양한 감각 정보를 활용해 예측할 수 있는 모델을 개발해나갈 계획이라고 전했다.</p> <p contents-hash="919746ae857191dd4cd28c407220be7a8bcbc1e9f49a3db3e4bae44d6865407e" dmcf-pid="fd7BJpBWmG" dmcf-ptype="general">AI와 기계의 융합이 현실화되면서 오픈AI의 챗GPT 같은 생성형 AI 챗봇의 기반인 거대언어모델을 넘어 월드 모델이 주목받고 있다. 엔비디아는 올해 초 실제 환경을 정밀하게 재현하는 합성 비디오를 생성해 로봇 학습 속도를 높일 수 있는 ‘코스모스 월드 파운데이션 모델’을 공개했다.</p> <p contents-hash="c737f2284754d7b3cac5466651d492633d5875452aecfc5c9fce6e31fb742e48" dmcf-pid="4JzbiUbYOY" dmcf-ptype="general">구글은 지난 5월 “실제 세계의 다양한 측면을 시뮬레이션해 계획을 세우고, 새로운 경험을 상상할 수 있는 ‘월드 모델’이 되도록 (자사 AI 모델) 제미나이를 발전시키고 있다”며 “범용 AI 어시스턴트(비서) 개발의 중요한 단계”라고 밝혔다.</p> <p contents-hash="8f3e0399c9ea9f67fd7f1bf66b6f11d98e6e460a638f65d8fd35fd610fccc9df" dmcf-pid="8iqKnuKGmW" dmcf-ptype="general">노도현 기자 hyunee@kyunghyang.com</p> </section> </div> <p class="" data-translation="true">Copyright © 경향신문. 무단전재 및 재배포 금지.</p> 관련자료 이전 ‘악의 도시’ 김혜은 “딱 한 신 출연, 고민했지만 캐스팅 응한 이유는‥” 06-12 다음 에이티즈 “세번째 ‘골든아워’, 청춘이 감정을 마주한 솔직한 이야기” 06-12 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.