투모로로보틱스-서울대, 로봇 AI 모델 'CLIP-RT' 개발…피지컬 AI 글로벌 경쟁 합류 작성일 05-12 80 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="1rhqrwGkIM"> <figure class="figure_frm origin_fig" contents-hash="18f708d83d75ea91649f4b1df954497ad57a0cd85dcc996b537b0b86f2d55ecd" dmcf-pid="tmlBmrHEsx" dmcf-ptype="figure"> <p class="link_figure"><img alt="CLIP-RT 기술 설명 그림. 제공=투모로로보틱스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/12/etimesi/20250512134105127fqzp.jpg" data-org-width="700" dmcf-mid="ZQeh68aVIe" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/12/etimesi/20250512134105127fqzp.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> CLIP-RT 기술 설명 그림. 제공=투모로로보틱스 </figcaption> </figure> <p contents-hash="823f28ead82029eb7d4e0e522a75f5d8d8ea8cc7d83ca224cfd291f997612564" dmcf-pid="FlYflhFOOQ" dmcf-ptype="general">국내 휴머노이드 스타트업과 서울대학교가 손잡고 복잡한 장비 없이도 로봇을 쉽게 훈련시킬 수 있는 인공지능(AI) 모델을 개발했다. '피지컬 AI' 시대에 맞춰 국내 기술력을 기반으로 만든 세계적 수준의 기술로 주목받는다.</p> <p contents-hash="80006ca820429f5f3178df228e60dcba42a81c83f48a63a51f101f2f833c95b4" dmcf-pid="3SG4Sl3IDP" dmcf-ptype="general">로보틱스AI 기업 투모로로보틱스는 12일 서울대와 공동 개발한 로봇 AI 모델 'CLIP-RT'를 공개했다.</p> <p contents-hash="d1c2a96115e181f9223b9e0559d8f0e85a0d6fc739631749638c43659b47f182" dmcf-pid="0vH8vS0Cw6" dmcf-ptype="general">CLIP-RT는 사용자의 자연어 설명만으로 로봇에게 동작을 학습시키는 로봇 파운데이션 모델(RFM, Robot Foundation Model)로, 전문 장비나 원격 조작 없이도 일반인이 로봇을 쉽게 훈련시킬 수 있는 것이 특징이다.</p> <p contents-hash="7f374fc1366e2bde757f242856fdec9b5d6c650556cb6bcbd8396a25a8408988" dmcf-pid="pTX6TvphD8" dmcf-ptype="general">CLIP-RT의 연구 결과는 로봇공학 분야 최고 권위 학회인 'RSS 2025'에 논문이 채택됐다. 해당 연구는 스탠퍼드대가 주도해 개발 중인 '오픈VLA(OpenVLA)', 피지컬인텔리전스의 '파이제로(Pi0)' 등과 함께 '비전-언어-행동(VLA)' 세션에서 나란히 발표될 예정이다.</p> <p contents-hash="384826c3ebef2e8569fcd44a7587606a09665f690dff738d262b3cede227f389" dmcf-pid="UyZPyTUlw4" dmcf-ptype="general">세계적으로 주목받는 로봇 파운데이션 모델들과 어깨를 나란히 하게 되면서, 국내 기술의 국제 경쟁력이 입증됐다는 평가다.</p> <p contents-hash="37eb48402d1595f38b06a745616998b59e6efae9d41506c81f96b703bc861402" dmcf-pid="uW5QWyuSDf" dmcf-ptype="general">CLIP-RT는 사용자가 “컵을 선반에 올려줘”라고 말하면 로봇이 이를 이해하고 동작을 수행한다. 기존에는 VR 장비나 전문가의 원격 조작이 필요했지만, CLIP-RT는 텍스트나 음성 명령 만으로도 새로운 작업을 학습시키는 것이 가능하다.</p> <p contents-hash="ee50f840ee3e91107acf678db0de619dcdf4432e65664b85c6064da29798c7e1" dmcf-pid="7Y1xYW7vmV" dmcf-ptype="general">성능 면에서도 CLIP-RT는 세계 수준을 입증했다. 스탠퍼드대의 대표 모델 '오픈VLA'보다 높은 조작 성공률을 기록했으며, 파라미터 수는 약 10억개로 오픈VLA(약 70억개)의 7분의 1수준으로 훨씬 작지만, 평균 24%포인트 높은 성공률을 보였다. 특히 처음 수행하는 작업에서도 53%의 성공률을 기록해, 일반화 성능에서도 앞섰다.</p> <p contents-hash="568a3e9c06b30098c20999bdf752e642d65ab85d33c74ca66e309fe88122e53c" dmcf-pid="zGtMGYzTO2" dmcf-ptype="general">또, 로봇 조작 모델 성능을 평가하는 글로벌 벤치마크인 '리베로(LIBERO)'에서도 92.8%의 성공률을 나타냈으며, 오픈VLA보다 약 39배 빠른 163㎐ 속도로 실시간 제어도 가능함을 입증했다. 한두 번의 시연만으로 새로운 작업을 학습할 수 있는 효율성도 뛰어나며, 일부 과제에서는 사용자 피드백 2~4회만으로 빠른 성능 향상을 보여줬다.<br></p> <figure class="figure_frm origin_fig" contents-hash="f4bee3bd5bf99acc8c2bf13089aa5862deec0767849b9205934c0dacc78591ee" dmcf-pid="qiNHiJrRO9" dmcf-ptype="figure"> <p class="link_figure"><img alt="장병탁 서울대 AI연구원 원장" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202505/12/etimesi/20250512134106803qduu.jpg" data-org-width="700" dmcf-mid="5N5QWyuSOR" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202505/12/etimesi/20250512134106803qduu.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 장병탁 서울대 AI연구원 원장 </figcaption> </figure> <p contents-hash="2f06d4c9f06fb61650ff3387f6b734cf4d63da068f8a71e6c47d2ebdac4c6329" dmcf-pid="BnjXnimeOK" dmcf-ptype="general">CLIP-RT 개발을 주도한 장병탁 투모로로보틱스 대표(서울대 AI연구원장)는 “국내 최초로 세계 수준의 로봇 파운데이션 모델을 개발한 의미 있는 성과”라며 “누구나 손쉽게 로봇을 훈련하고 활용하는 시대를 앞당기기 위해 CLIP-RT를 오픈소스로 공개하고 후속 연구를 이어갈 것”이라고 밝혔다.</p> <p contents-hash="e348f9900a302894daf7f2494e103a9124af7d51387d1a38f917aa344796cb9a" dmcf-pid="bLAZLnsdsb" dmcf-ptype="general">이번 기술은 과학기술정보통신부, 산업통상자원부, 광주광역시 등의 지원으로 개발됐으며, 장병탁 원장와 함께 이준기 연구교수, 강기천 연구원, 김정현 박사과정 등 서울대 AI연구원 주요 연구진이 참여했다.</p> <p contents-hash="355f20a7dd078cfc95653f39d39e248627f89b23990805a7c981039717e6e4e6" dmcf-pid="Koc5oLOJOB" dmcf-ptype="general">김명희 기자 noprint@etnews.com</p> </section> </div> <p class="" data-translation="true">Copyright © 전자신문. 무단전재 및 재배포 금지.</p> 관련자료 이전 SKT "유심보호 해외서도 가능…충분히 안전" 05-12 다음 UN 에너지 고문 "'리튬 가격 폭락' 단기적… 미래 수요 충분해" 05-12 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.