[팩플] 비 예보에 우산 챙긴 로봇…구글, ‘행동 전에 생각하는’ 로봇 AI 모델 공개 작성일 09-26 43 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="tr2RfcA8hz"> <figure class="figure_frm origin_fig" contents-hash="60798412b05bd25f111ceb9c34475161f9600c7c297ede138e0db344ccbd9799" dmcf-pid="FmVe4kc6h7" dmcf-ptype="figure"> <p class="link_figure"><img alt="제미나이 로보틱스 1.5가 적용된 로봇 아폴로가 연구자의 명령에 따라 짐을 싸기 전 생각하는 모습. 사진=구글 동영상 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/26/joongang/20250926142549066orfr.jpg" data-org-width="559" dmcf-mid="HRTx2jNfS9" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/26/joongang/20250926142549066orfr.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 제미나이 로보틱스 1.5가 적용된 로봇 아폴로가 연구자의 명령에 따라 짐을 싸기 전 생각하는 모습. 사진=구글 동영상 캡처 </figcaption> </figure> <p contents-hash="f40a67ac47c9a7369d2e2de81c31be9724105ba851afd625f63018a0407ef939" dmcf-pid="3sfd8EkPCu" dmcf-ptype="general"><br> 구글이 인간처럼 계획하고 추론하는 로봇 AI(인공지능) 모델을 공개했다. 단순히 사람 명령을 따르는 수준을 넘어 알아서 상황을 이해하고 행동하는 능력을 갖췄다. 다양한 상황에 대한 적응력이 높아지면서 로봇의 일상화·상용화에 한발 다가섰다는 평가다. </p> <div contents-hash="c7ed3edf6b750083a5a922c321635342616f4dd54cf2613b2f0d3458b6083ce8" dmcf-pid="0O4J6DEQTU" dmcf-ptype="general"> ━ <br> <p> 무슨 일이야 </p> <br> 구글의 AI 조직 딥마인드는 24일(현지시간) 스스로 사고하고 행동하는 로봇 AI 모델 ‘제미나이 로보틱스 1.5’를 공개했다. 모델은 크게 두 종류로 나뉜다. ‘로보틱스 1.5’는 물체를 인식하고(시각) 지시를 이해해(언어) 이를 물리적 동작(행동)으로 옮기는 VLA(시각·언어·행동) 모델이고, ‘로보틱스 ER 1.5’는 계획과 추론을 통해 명령을 완수하는 모델이다. 두 모델은 모두 제미나이 기반으로 구축됐고, 각자 역할에 특화되도록 서로 다른 데이터셋으로 학습됐다. “두 모델이 결합했을 때 다양한 환경에서 로봇의 적응력이 크게 향상된다”는 것이 구글 측의 설명이다. </div> <div contents-hash="a6989cde0a888c292a07e466d4c984fd104d1fa34d6857a9153dc91a29bec528" dmcf-pid="pr2RfcA8vp" dmcf-ptype="general"> ━ <br> <p> 무슨 의미야 </p> <br> 지난 3월 ‘제미나이 로보틱스 1.0’ 첫 공개 후 반년 만에 이뤄진 업데이트다. 구글은 이번 모델이 15개 벤치마크에서 동종 모델 대비 최고 성능을 기록했다고 밝혔다. 벤치마크 테스트 점수를 더한 종합 점수에서 제미나이 로보틱스 ER 1.5는 62.8점을 받았는데, 오픈AI의 챗GPT-5(60.6점) GPT-5미니(57.3점)보다 높았다. 6개월 전 공개한 1.0 버전과 비교했을 때, 8.6점 올랐다. </div> <p contents-hash="4d8512186a11d17cc938f2f5e6c4f312b0bab2165520a6b84fa8a1f30eef81d0" dmcf-pid="UmVe4kc6l0" dmcf-ptype="general">이전 버전은 한 번의 명령에 단일 작업만 가능했다면, 이제는 다단계 작업을 스스로 처리할 수 있는 수준으로 진화했다. 캐롤리나 파라다 구글 딥마인드 수석 디렉터는 “지금까지는 한 번에 하나의 지시를 수행했다면 이제는 물리적 과제에 대한 이해와 복잡한 다단계 문제를 해결하는 단계로 나아가는 중”이라고 설명했다. </p> <figure class="figure_frm origin_fig" contents-hash="f413111c6078da2618b8314cbf7547fa51c36ae8bfbef24a57e497fa2704b5fc" dmcf-pid="usfd8EkPT3" dmcf-ptype="figure"> <p class="link_figure"><img alt="추론 모델 ‘제미나이 로보틱스-ER 1.5’와 VLA 모델 ‘제미나이 로보틱스 1.5’가 어떻게 상호 보완적으로 작동하고 실제 물리적 세계에서 복잡한 작업을 수행하는지를 보여주는 다이어그램. 사진 구글" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/26/joongang/20250926142550352rtlw.jpg" data-org-width="559" dmcf-mid="XdpDgyTNSK" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/26/joongang/20250926142550352rtlw.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 추론 모델 ‘제미나이 로보틱스-ER 1.5’와 VLA 모델 ‘제미나이 로보틱스 1.5’가 어떻게 상호 보완적으로 작동하고 실제 물리적 세계에서 복잡한 작업을 수행하는지를 보여주는 다이어그램. 사진 구글 </figcaption> </figure> <div contents-hash="9bb4dac8f0c804945acaae6a1c9e0be11ca685c38fed2c864cef37e1c4d8f872" dmcf-pid="7O4J6DEQWF" dmcf-ptype="general"> ━ <br> <p> 뭘 할 수 있어? </p> <br> 이날 구글이 공개한 영상에서 시연자가 런던 여행을 위해 모자를 가방에 넣어달라 요청하자, 로봇은 비 예보를 확인해 우산을 함께 챙겨 넣었다. 또 책상 위 과일 껍질과 캔 등을 분류해달라는 지시에, 로봇은 자신이 샌프란시스코에 있음을 인식하고 웹에서 재활용 관련 규정을 검색해 쓰레기를 올바르게 분류했다. </div> <figure class="figure_frm origin_fig" contents-hash="8fa0f4c18d2abe8775b629031d68aa10f30a369a3f00e74a384885f75290852b" dmcf-pid="zI8iPwDxSt" dmcf-ptype="figure"> <p class="link_figure"><img alt="제미나이 로보틱스 1.5가 적용된 양팔 로봇 알로하가 분리수거를 하고 있는 장면. 사진=구글 동영상 캡처" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/26/joongang/20250926142551606dogo.jpg" data-org-width="558" dmcf-mid="Zwve4kc6Cb" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/26/joongang/20250926142551606dogo.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 제미나이 로보틱스 1.5가 적용된 양팔 로봇 알로하가 분리수거를 하고 있는 장면. 사진=구글 동영상 캡처 </figcaption> </figure> <p contents-hash="83f772c3f6328bb20a2c30e8789290ace6e894d29d99f8f631e6de9a00ab39e0" dmcf-pid="qC6nQrwMS1" dmcf-ptype="general"><br> 기존에는 로봇마다 형태·크기·감지 능력·자유도가 달라, 한 로봇이 배운 동작을 다른 로봇에 그대로 적용하기가 사실상 불가능했다. 그러나 구글은 제미나이 로보틱스 1.5를 통해 학습한 동작을 서로 다른 로봇에 전이(transfer)하는 데 성공했다. 구글은 자사 양손 로봇 알로하2에서 훈련된 모델을 앱트로닉의 휴머노이드 ‘아폴로’와 양손 로봇 ‘프랭카’에 적용했을 때 동일하게 작동했으며, 그 반대도 가능했다고 밝혔다. 서로 다른 몸체에 같은 지능을 입힌 셈이다. </p> <div contents-hash="9d090113a774b1b88845f7120283d2f8abdf8d88b6507a9887dfc97fe3bf8957" dmcf-pid="BhPLxmrRl5" dmcf-ptype="general"> ━ <br> <p> 왜 중요해 </p> <br> 로봇이 단순히 인간의 명령을 따르는 것을 넘어, 실제 상황에서 사고하고 추론해 임무를 수행한다는 점에서 로봇의 일상화에 한 걸음 다가섰다는 평가다. 구글은 “제미나이 로보틱스 1.5는 물리적 세계에서 AGI(범용 인공지능)를 실현해 나가는 여정의 중요한 이정표”라면서 “사고·계획·일반화까지 가능한 에이전트형 능력을 도입해, 궁극적으로는 우리 삶 속에서 더 유용하고 자연스럽게 통합되는 로봇을 구축할 것”이라고 밝혔다. 구글이 추론 능력을 발전시킨 로봇 모델을 공개했다는 소식 이후 26일 장 초반 국내 로봇 관련 종목의 주가가 오르기도 했다. </div> <figure class="figure_frm origin_fig" contents-hash="719caa75dc857c5c5c62622c2d4707cc92cb76ee924786382b89025c95d35540" dmcf-pid="blQoMsmehZ" dmcf-ptype="figure"> <p class="link_figure"><img alt="현재 구글은 ‘로보틱스 ER 1.5’를 개발자용 API로 공개했으며, ‘로보틱스 1.5’는 파트너사와 공동 연구개발을 진행 중이다. 로이터=연합뉴스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/26/joongang/20250926142552887zttk.jpg" data-org-width="559" dmcf-mid="5WPGh7uSTB" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/26/joongang/20250926142552887zttk.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 현재 구글은 ‘로보틱스 ER 1.5’를 개발자용 API로 공개했으며, ‘로보틱스 1.5’는 파트너사와 공동 연구개발을 진행 중이다. 로이터=연합뉴스 </figcaption> </figure> <div contents-hash="864d4ffd161e3302f9ee2c60ab53596379b32e68a367ef50b5c61b0060ac12b0" dmcf-pid="KSxgROsdvX" dmcf-ptype="general"> ━ <br> <p> 앞으로는 </p> <br> 상용화까지는 여전히 과제가 남아 있다. 로봇이 오류 없이 작동할 수 있게 해야하고, 인간 수준 속도·반응도 필요하다. 빨래 개기나 신발 끈 묶기 같은 정밀 작업을 위한 손재주 등도 개선 과제다. 현재 구글은 ‘로보틱스 ER 1.5’를 개발자용 API로 공개했으며, ‘로보틱스 1.5’는 파트너사와 공동 연구개발을 진행 중이다. </div> <p contents-hash="47566727710be5088441fb39a35d77ee82bd178c28d327327061ae5630c34ffb" dmcf-pid="9pkhD15rlH" dmcf-ptype="general">■ 팩플: 🤖휴머노이드 시대의 개척자들</p> <p contents-hash="203d7c5c21030aa38f9ea811f29b2da5019ce4acb32c114cd7b206f6a61191e5" dmcf-pid="2UElwt1mWG" dmcf-ptype="general">「 올해부터 휴머노이드 로봇 산업에서 심상찮은 흐름이 감지되고 있다. 어떤 회사는 공장에 휴머노이드를 투입해 하루 여덟 시간씩 같은 동작을 반복하게 하고, 또 다른 회사는 직원 거실에 로봇을 들여보내 청소와 빨래를 시킨다.개발 단계에 머물던 로봇이 어느새 일상 속으로 스며들기 시작한 것. </p> <p contents-hash="85aeae000dd6d1333edc81ac6c71f0fbc2b4a2247b5c5c755797d63a3215075a" dmcf-pid="VuDSrFtsSY" dmcf-ptype="general">이 흐름의 최전선에는 미국과 중국이 있다. 방식은 달라도 목표는 같다. 휴머노이드를 산업과 생활 인프라에 뿌리내리는 것. 팩플은 미국과 중국 현장에서 만난 휴머노이드 개척자들의 이야기를 시리즈로 전한다. </p> <p contents-hash="7aab8f34f117083d0b0efdd2dc3063b64b55598e08a0f2bec2ea989cc550ee3a" dmcf-pid="f7wvm3FOlW" dmcf-ptype="general">①[미국편] “새우 까게 하는 게 최종 목표” 집안일 로봇 만든 그 CEO 누구 <br> https://www.joongang.co.kr/article/25368872 </p> <p contents-hash="ec31b1a66297a6eb898bf16dd59241298b4642dd0ba6132ab16f34bac340959e" dmcf-pid="4zrTs03Ivy" dmcf-ptype="general">②[중국편] 미국 챗GPT 나오자 각성했다…“휴머노이드 세일” 중국 노림수 <br> https://www.joongang.co.kr/article/25369933 <br> </p> <figure class="figure_frm origin_fig" contents-hash="0f1df7f883fcd20273fc3226f7becfb9a3f814112e08976642319585fa11fa8b" dmcf-pid="8qmyOp0ClT" dmcf-ptype="figure"> <p class="link_figure"><img alt="김혜미 디자이너" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/26/joongang/20250926142554140bvhi.jpg" data-org-width="559" dmcf-mid="1OMaeIOJyq" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/26/joongang/20250926142554140bvhi.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 김혜미 디자이너 </figcaption> </figure> <p contents-hash="d27ddef5d5095f2afe479ef42dfb41398a9578e51d44ba59b05420e840361002" dmcf-pid="6BsWIUphlv" dmcf-ptype="general"> 」</p> <p contents-hash="2190226333bd9a549e71a1db82326c12b52e5f614e4cb01414300f115ae312d0" dmcf-pid="PbOYCuUlhS" dmcf-ptype="general">어환희 기자 eo.hwanhee@joongang.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 중앙일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 제로베이스원 성한빈, '복면가왕' 깜짝 출연…오랜 인연 복면 가수 정체는? 09-26 다음 우즈X영케이, 미발매곡 'Falling' 무대 최초 공개…관객들 놀란 이유(쓰담쓰담) 09-26 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.