그림에 원근감 부여하는 ‘소실점’ 활용…카메라를 ‘라이다 센서’ 성능으로 작성일 10-15 41 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">UNIST, 카메라의 원근 왜곡 문제 보완 ‘AI모델’ 개발<br>소실점 기준으로 카메라 영상 속 깊이·거리 정확히 복원</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="7mS9ajP3vu"> <figure class="figure_frm origin_fig" contents-hash="68665fb3738b265ab8bc28f6d59cf61268e47f123ab05fd5a41587083eb91413" dmcf-pid="zsv2NAQ0SU" dmcf-ptype="figure"> <p class="link_figure"><img alt="UNIST가 개발한 AI 모델 ‘VPOcc’와 기존 AI 모델 간 예측 결과 비교. UNIST 제공." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202510/15/dt/20251015110348635rnjp.png" data-org-width="640" dmcf-mid="W5OWK21mCQ" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202510/15/dt/20251015110348635rnjp.png" width="658"></p> <figcaption class="txt_caption default_figure"> UNIST가 개발한 AI 모델 ‘VPOcc’와 기존 AI 모델 간 예측 결과 비교. UNIST 제공. </figcaption> </figure> <p contents-hash="41ce45a1c54648b3b479a1dff3449c54522a54925d47976f46febd2d50391dfc" dmcf-pid="qOTVjcxpWp" dmcf-ptype="general"><br> 그림에 원근감을 부여하는 ‘소실점’을 활용해 저비용 카메라를 고성능 라이다 센서와 맞먹는 성능으로 3차원 공간을 예측할 수 있는 인공지능(AI) 모델이 개발됐다.<br><br> 울산과학기술원(UNIST)은 주경돈 인공지능대학원 교수 연구팀이 카메라를 통해 입력된 정보의 원근 왜곡 문제를 보완하는 AI 모델 ‘VPOcc’를 개발했다고 15일 밝혔다.<br><br> 자율주행차와 로봇의 AI는 카메라나 라이다(LiDAR) 센서로 주변을 인식한다. 카메라는 라이다보다 저렴하고 가벼우며 색·형태 등 풍부한 정보를 제공하지만, 3차원 공간을 2차원 이미지로 표현하기 때문에 거리에 따른 크기 왜곡이 큰 한계가 있다.<br><br> 가까운 물체는 더 크게, 먼 물체는 더 작게 보이면서 멀리 있는 사물을 놓치거나 가까운 영역만 강조되는 오류가 생기는 것이다.<br><br> 연구팀은 AI가 소실점을 기준으로 정보를 재구성하도록 설계해 이같은 문제를 해결했다.<br><br> 소실점은 르네상스 시대 화가들이 정립한 ‘원근감 부여 기법’으로, 차선이나 철로처럼 실제로는 평행한 선들이 멀리서는 맞닿는 것처럼 보이는 지점을 말한다.<br><br> 사람이 화폭 위의 소실점을 보고 평면에서 깊이감을 느끼는 것처럼, 개발된 AI 모델은 소실점을 기준으로 삼아 카메라 영상 속에서 깊이와 거리를 더 정확히 복원한다.<br><br> 이 모델은 소실점을 기준으로 영상을 보정해 원근 왜곡을 줄이는 ‘모듈’(VPZoomer), 멀고 가까운 영역에서 균형잡힌 정보를 추출하는 ‘모듈’(VPCA), 원본과 원본 영상을 합쳐 서로의 약점을 보완하는 ‘모듈’(SVF) 등 세 가지 모듈로 구성돼 있다.<br><br> 연구팀은 이 모델을 실제 도로 환경 데이터셋을 통해 검증한 결과, 기존 모델보다 공간 이해 능력과 복원 능력에서 뛰어난 성능을 보였다. 또한 자율주행 도로환경에서 멀리 있는 객체를 선명하게 예측하는 한편 겹쳐 있는 객체를 더 정확히 구분했다.<br><br> AI가 단순히 ‘어디에 뭔가가 있다’는 수준을 넘어 그 물체가 정확히 어떤 것인지를 파악하고 실제 도로 상황을 더 정밀하게 읽어낼 수 있도록 성능을 고도화했다고 연구팀은 설명했다.<br><br> 제1저자인 김준수 연구원은 “사람이 공간을 인식하는 방식을 AI에 접목하면 3차원 공간을 더욱 효과적으로 이해할 것이라는 생각을 갖고 연구를 시작했다”며 “라이더 센서보다 가격 경쟁력과 경량화 측면에서 유리한 카메라 센서의 활용할 수 있는 극대화할 수 있다”고 말했다.<br><br> 주경돈 UNIST 교수는 “향후 로봇, 자율주행 시스템, 증강현실(AR) 지도 제작 등 다양한 분야에 적용할 수 있을 것”이라고 기대했다.<br><br> 이 연구결과는 오는 19일부터 25일까지 중국 항저우에서 열리는 지능형 로봇 분야 학회 ‘IROS’에 채택됐다.<br><br> </p> <figure class="figure_frm origin_fig" contents-hash="455cd9d8d42a8f80b7a95f2aa0c69160ba8968c088f69ee88a771a1faaf3c1c9" dmcf-pid="BIyfAkMUW0" dmcf-ptype="figure"> <p class="link_figure"><img alt="주경돈(왼쪽) UNIST 교수, 김준수 연구원(제1저자). UNIST 제공." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202510/15/dt/20251015110349888ytej.jpg" data-org-width="640" dmcf-mid="ulyfAkMUl7" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202510/15/dt/20251015110349888ytej.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 주경돈(왼쪽) UNIST 교수, 김준수 연구원(제1저자). UNIST 제공. </figcaption> </figure> <p contents-hash="9cfa2706e68d02e7209024b93cb9490f4edbf2b3e2020a741ac9fdd19a63e194" dmcf-pid="bCW4cERuv3" dmcf-ptype="general"><br> 이준기 기자 bongchu@dt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털타임스. 무단전재 및 재배포 금지.</p> 관련자료 이전 'ETRI 창업기업' 공감센서, 더 정확한 초미세먼지 측정기 개발 10-15 다음 과기정통부 중심 제조·산업 AI 대전환 '원팀' 구성…AX 확산 가속화 10-15 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.