사진 2~3장만으로 3D 장면 복원한다 작성일 11-06 53 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">KAIST</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="ybWzjSd8nt"> <figure class="figure_frm origin_fig" contents-hash="f0b828e21d7e3aec451488d29ee6baf9003abdd7209f02e2af9c3636a16578a9" dmcf-pid="WKYqAvJ6R1" dmcf-ptype="figure"> <p class="link_figure"><img alt="(왼쪽부터) 연구에 참여한 KAIST 이주민 박사과정생, 김우재 박사과정생, 김태연 석사과정생, 나영주 박사과정생, 한규범 박사과정생, 윤성의 교수. KAIST 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/06/dongascience/20251106151757387igel.png" data-org-width="447" dmcf-mid="xUbJW7OcRF" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/06/dongascience/20251106151757387igel.png" width="658"></p> <figcaption class="txt_caption default_figure"> (왼쪽부터) 연구에 참여한 KAIST 이주민 박사과정생, 김우재 박사과정생, 김태연 석사과정생, 나영주 박사과정생, 한규범 박사과정생, 윤성의 교수. KAIST 제공 </figcaption> </figure> <p contents-hash="d2537a11a9246265d7d07ea1e39dc6bd96c074e4a1c0f43cba1d55605f8549f8" dmcf-pid="Y9GBcTiPR5" dmcf-ptype="general">KAIST 연구팀이 어디서 어떤 장면을 어느 각도로 찍었는지 정밀하게 알기 어려운 일반 사진이나 영상만으로 고품질 3D 장면 복원이 가능한 기술을 개발했다. 현실을 찍으면 곧바로 가상 환경이 되는 새로운 패러다임을 제시했다. </p> <p contents-hash="4397108a52e15a7d76e0109f7915d4205e456e7fbb03d552437a8e8d2ba58624" dmcf-pid="GtmZREV7RZ" dmcf-ptype="general">KAIST는 윤성의 전산학부 교수 연구팀이 정밀한 카메라 위치 정보 없이도 일반 사진, 영상만으로 고품질의 3차원 장면을 복원할 수 있는 새로운 기술 ‘SHARE(Shape-Ray Estimation)’를 개발했다고 6일 밝혔다.</p> <p contents-hash="6a9c5f7e9f3388e3c9d18ad89b70b1c54f49b4f6862d65d85bb68c2d6c1a74d1" dmcf-pid="HFs5eDfzMX" dmcf-ptype="general">3D 영상을 만드는 기존의 3D 시뮬레이션은 실제 공간을 라이다(LiDAR)나 3D 스캐너로 정밀하게 측정하고 수천 장의 사진을 카메라 위치 정보와 함께 보정하는 과정이 필요하다. 촬영 당시의 정밀한 카메라 위치와 방향 정보가 필수적으로 요구된다. 고가의 특수 장비나 복잡한 보정 과정이 필요한 이유다. </p> <p contents-hash="89e391a93b9b4b25aadf53496dd7da929805284fb944e81bc90c122c9b0a4a97" dmcf-pid="X3O1dw4qMH" dmcf-ptype="general">KAIST 연구진은 이러한 한계를 극복하고 단 2, 3장의 일반 사진만으로도 실험실이나 도심을 고정밀 3D 공간으로 복원해 시뮬레이션 환경을 구축할 수 있는 기술을 개발했다. 몇 개의 일반 사진만으로도 3차원 장면과 카메라의 방향을 동시에 추정해 정확한 3D 모델을 구축하는 기술이다. 별도의 추가 학습이나 정밀한 보정 과정 없이도 실제 환경에서 신속하고 정밀한 복원이 가능해 효율성과 범용성이 매우 높다. </p> <p contents-hash="9784beea3756c9ee2ce1285318e8bb424b5a1d6b93cd3c179b28b9ee8b849989" dmcf-pid="Z0ItJr8BJG" dmcf-ptype="general">SHARE는 영상 속에서 사물의 형태(Shape)와 카메라의 시선 방향(Ray)을 동시에 추정하는 새로운 방식을 도입했다. 기존 방식이 카메라 위치를 미리 알아야 3D 구조를 계산할 수 있었다면 SHARE는 영상 자체에서 공간 정보를 스스로 찾아내어 카메라와 구조를 추론한다. 서로 다른 위치에서 촬영된 다중 영상을 하나의 공통된 공간으로 정렬하고 형상 왜곡 없이 안정적인 3D 복원을 실현하는 것이다. </p> <p contents-hash="18ce2aaa652e94a0c5fcf01e11b08b5faad75d458bde0d24c80dd1cd546de4f3" dmcf-pid="5pCFim6bRY" dmcf-ptype="general">윤 교수는 “SHARE 기술은 3D 복원의 진입 장벽을 획기적으로 낮춘 기술로 건설·미디어·게임 등 다양한 산업에서 스마트폰 카메라만으로도 고품질 콘텐츠 제작을 가능하게 할 것”이라며 “로봇과 자율주행 분야에서도 저비용 시뮬레이션 환경 구축 등 다양한 응용 가능성이 있다”고 말했다. </p> <p contents-hash="551cbefa4bd578336235e783e2387b5ff4e542105acc826f928cc7c49020f2fe" dmcf-pid="1Uh3nsPKeW" dmcf-ptype="general">연구에는 나영주 KAIST 박사과정생, 김태연 KAIST 석사과정생이 공동 제1저자로 참여했다. 연구성과는 9월 17일 국제 이미지 처리 학회(IEEE International Conference on Image Processing, ICIP 2025)에서 발표돼 ‘최고 학생논문상(Best Student Paper Award)’을 수상했다. 최고 학생논문상은 올해 학회에서 채택된 643편의 논문 중 단 한 편에게만 수여되는 영예(수상률 0.16%)다.</p> <p contents-hash="7e37332dcf4c9dfb6f07eed04ad40c58841d03d5161f2664ada8f957379214db" dmcf-pid="tul0LOQ9Ly" dmcf-ptype="general"><참고자료><br> -https://arxiv.org/abs/2505.22978<br> -https://www.linkedin.com/posts/ieeeicip_congratulations-to-the-icip-2025-best-activity-7374146976449335297-6hXz</p> <p contents-hash="56300483cff1cdbe964a4e915cea6e74855ef5229f033af6e133af75f19c6f91" dmcf-pid="F7SpoIx2MT" dmcf-ptype="general">[이채린 기자 rini113@donga.com]</p> </section> </div> <p class="" data-translation="true">Copyright © 동아사이언스. 무단전재 및 재배포 금지.</p> 관련자료 이전 조혜원, ♥이장우 프러포즈보다 브라이덜샤워 먼저… 친구 품에 안겨 ‘눈물 웃음’ 11-06 다음 韓 AI·SW 기술력, 해외서 통했다…'CES 혁신상' 받은 기업 어디? 11-06 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.