“수술 시뮬레이션 더 실감나게”…손 물체 상호작용 3D복원 AI 개발 작성일 06-09 95 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">- UNIST 백승렬 교수팀, 가상·증강현실, 로봇 제어 활용</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="8auIFb417B"> <figure class="figure_frm origin_fig" contents-hash="b269ee78ad3c5f50716708fe424d7a3c2ccc81ad1cda2a4834394064a6590f11" dmcf-pid="6N7C3K8t7q" dmcf-ptype="figure"> <p class="link_figure"><img alt="이번 연구를 수행한 백승렬(왼쪽) 교수와 온정완 연구원.[UNIST 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202506/09/ned/20250609103121842pfsz.jpg" data-org-width="1280" dmcf-mid="fnLzejwM7K" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202506/09/ned/20250609103121842pfsz.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 이번 연구를 수행한 백승렬(왼쪽) 교수와 온정완 연구원.[UNIST 제공] </figcaption> </figure> <p contents-hash="c46f1420f85cd482928eb8700961fb30ed5c78c0536347403b8584ae26f6f5c8" dmcf-pid="PI6Z2RLK7z" dmcf-ptype="general">[헤럴드경제=구본혁 기자] 두 손으로 낯선 물체를 조작하는 장면을 정확하게 3D로 복원하는 인공지능 기술이 개발됐다. 양손과 의료기구가 뒤엉킨 모의 수술 장면도 정확하게 증강현실 화면에 재현해낼 수 있게 됐다.</p> <p contents-hash="a6cd1582d20965228aed5505e23b23cae8e2be1a3cd4bb45103e00bf4b1cb905" dmcf-pid="QCP5Veo9F7" dmcf-ptype="general">울산과학기술원(UNIST) 인공지능대학원 백승렬 교수팀은 단일 RGB 영상만으로 양손과 처음 보는 기구의 복잡한 상호작용을 실시간 3D로 시각화할 수 있는 인공지능 모델 ‘BIGS(Bimanual Interaction 3D Gaussian Splatting)’를 개발했다고 9일 밝혔다.</p> <p contents-hash="e6d33ef81261387d5269ea321d3edcb1262410f76a8818a1c654039592751603" dmcf-pid="xhQ1fdg2Uu" dmcf-ptype="general">AI는 카메라로 촬영된 2D 데이터만 입력받기 때문에 손과 물체의 실제 위치나 입체적인 형태를 파악하려면 이를 3차원으로 다시 복원하는 과정이 필요하다. 기존 기술은 한 손만 인식하거나 사전에 스캔 된 물체만 대응할 수 있어, AR이나 VR기술에서 현실감 있는 상호작용 장면을 재현해내는 데 한계가 있었다.</p> <p contents-hash="c1f6100315aa304b2f9cbdb1598585f285a0cc3792306f01ab5e01c0b752ce7d" dmcf-pid="y4TLCHFOFU" dmcf-ptype="general">연구팀이 개발한 BIGS는 손이 가려지거나 일부만 보이는 상황에서도 전체 형상을 안정적으로 예측할 수 있으며, 처음 보는 물체도 학습된 시각 정보를 통해 보이지 않는 부분까지 자연스럽게 그려낸다. 또 깊이 센서나 여러 각도의 카메라 없이 단 한 대의 카메라로 찍은 단일 RGB 영상만으로 이 같은 복원이 가능해 현장에서 쉽게 적용할 수 있다.</p> <p contents-hash="a3382913c540c0369de0668572f072500814173c7c658d5f48842581a8b3664b" dmcf-pid="W8yohX3Ipp" dmcf-ptype="general">이 AI 모델은 3차원 가우시안 스플래팅(Gaussaina Splatting)을 기반으로 한다. 가우시안 스플래팅은 사물의 형상을 퍼지는 점 구름 형태로 표현하는 방식으로, 픽셀 단위로 경계가 뚜렷한 포인트 클라우드 방식과 달리 손과 물체가 만나는 접촉면 등을 더 자연스럽게 복원할 수 있다.</p> <figure class="figure_frm origin_fig" contents-hash="73415a0f73ba7d6117cf7a681e6bcd20b04d94b7553ccdfab9e124c4c77601cc" dmcf-pid="Y6WglZ0Cp0" dmcf-ptype="figure"> <p class="link_figure"><img alt="‘BIGS’ 기법을 사용하여 다양한 시점에서 손-물체 상호작용을 복원한 결과.[UNIST 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202506/09/ned/20250609103122163mhvb.png" data-org-width="1280" dmcf-mid="4rbvufxp7b" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202506/09/ned/20250609103122163mhvb.png" width="658"></p> <figcaption class="txt_caption default_figure"> ‘BIGS’ 기법을 사용하여 다양한 시점에서 손-물체 상호작용을 복원한 결과.[UNIST 제공] </figcaption> </figure> <p contents-hash="9cd2b52233133c9f2ddc715065768e647869680ebbbecaef8ba0e7f831824084" dmcf-pid="GPYaS5ph73" dmcf-ptype="general">이 방식은 손이 겹치거나 일부가 가려진 상황에서는 전체 형상을 추정하기 어렵지만, 모든 손을 하나의 기준 손 구조(Canonical Gaussian)에 맞춰 정렬하는 방식을 이용해 문제를 해결했다. 또 사전 학습된 확산모델을 활용한 점수 증류 방식(Score Distillation Sampling, SDS)까지 적용해 영상에 보이지 않는 물체의 뒷면까지 복원한다.</p> <p contents-hash="dc7420a1d16bc274870dac3d1512d7d5807e10223854266405f049344e5baac5" dmcf-pid="HQGNv1Ul3F" dmcf-ptype="general">실제 ARCTIC, HO3Dv3 등 국제 데이터셋을 활용한 실험 결과, BIGS는 손의 자세, 물체의 형상, 두 손과 물체 간의 접촉 정보 복원은 물론 화면을 재현하는 렌더링 품질면에서도 기존 기술보다 우수한 성능을 보였다.</p> <p contents-hash="9149b622d228e6af035f1c7bf08cf8875804db1de26d29d76b17bd692ce0b0da" dmcf-pid="XxHjTtuSut" dmcf-ptype="general">백승렬 교수는 “이번 연구는 향후 가상현실, 증강현실, 로봇 제어, 원격 수술 시뮬레이션 등 다양한 분야에서 실시간 상호작용 복원 기술로 활용될 것으로 기대된다”고 말했다.</p> <p contents-hash="5530f89926dc87d45347f934b458c7a37fcb2f02bd180c96c6c2f3ba1e12738d" dmcf-pid="Z4TLCHFOp1" dmcf-ptype="general">이번 연구결과는 오는 6월 11일부터 5일간 미국에서 열리는 컴퓨터 비전 분야 국제학회인 CVPR 2025에 채택됐다.</p> </section> </div> <p class="" data-translation="true">Copyright © 헤럴드경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 FC트롯퀸즈, 응원가 '해보자' 음원 발매 06-09 다음 면접장에 웃음꽃…LGU+ 신입사원 뽑는 '무너위크' 가보니 06-09 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.