눈짓으로 움직이는 로봇…눈 깜박하면 물건 잡아 [영상] 작성일 04-15 33 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">UNIST 연구팀, AI 스마트 콘택트렌즈 개발</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="85JGfZLxdf"> <figure class="figure_frm origin_fig" contents-hash="8ae0ab84c3b24434744b114c1e32ae6f33244594efb5a28a08498dec07b94f56" dmcf-pid="61iH45oMJV" dmcf-ptype="figure"> <p class="link_figure"><img alt="스마트 콘택트렌즈를 통한 시선 감지로 로봇 팔을 원격 제어하는 기술이 나왔다. [사진=UNIST]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/15/inews24/20260415124732909yerp.jpg" data-org-width="580" dmcf-mid="fVyPrMGhM8" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/15/inews24/20260415124732909yerp.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 스마트 콘택트렌즈를 통한 시선 감지로 로봇 팔을 원격 제어하는 기술이 나왔다. [사진=UNIST] </figcaption> </figure> <p contents-hash="ed955977dcc95d2679ce66327ba3c14a937c552143f3e07593fbdc1d848adf38" dmcf-pid="PtnX81gRd2" dmcf-ptype="general">[아이뉴스24 정종오 기자] 눈짓만으로 로봇을 움직일 수 있는 스마트 콘택트렌즈가 나왔다. 렌즈를 끼고 눈동자를 굴리면 로봇 팔이 눈동자 방향을 따라 움직인다. 무겁고 복잡한 기존 확장현실(XR) 기기를 대신할 차세대 인간-기계 인터페이스 기술로 주목받고 있다.</p> <p contents-hash="5c2c645fdf4b1e1148749f61ed8238124a0fdeb1b3b9515b4420642e0d91160d" dmcf-pid="QFLZ6taeJ9" dmcf-ptype="general">울산과학연구원(UNIST) 기계공학과 정임두 교수(인공지능대학원 겸직) 연구팀은 센서를 렌즈에 직접 인쇄하는 특수 기술과 센서의 저해상도 신호를 고해상도로 복원하는 AI 기술을 결합했다. 로봇 팔을 원격 제어할 수 있는 스마트 콘택트렌즈를 개발했다.</p> <p contents-hash="e442aa7ff7bf1587e96167db592345c6d845db7dbadfe2cb02b6cd6939ad0a82" dmcf-pid="x3o5PFNdiK" dmcf-ptype="general">이 렌즈 위에는 100개(10x10)의 빛 검출 센서가 집적돼 있다. 눈을 움직일 때마다 달라지는 빛 분포를 센서가 읽어내 시선 방향을 추적하는 원리로 작동한다. 위·아래·좌·우는 물론 대각선 방향까지 구분할 수 있다. 이 시선 정보가 로봇 팔로 전달돼 팔이 움직인다. 안구의 깜박임으로 물건을 집을 수도 있다.</p> <figure class="figure_frm origin_fig" contents-hash="271e9ce14526f0ba4b61be5c16455ffdb0622796ac7c8053fa6b8e8427f44150" dmcf-pid="yatnvg0Hib" dmcf-ptype="figure"> <p class="link_figure"><img alt="눈짓으로 방향을 제어하고 눈을 깜박이면 물건을 잡는다. [사진=UNIST]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/15/inews24/20260415124734423zgbx.gif" data-org-width="434" dmcf-mid="4ChVc8vmd4" dmcf-mtype="image" height="auto" src="https://t1.daumcdn.net/news/202604/15/inews24/20260415124734423zgbx.gif" width="434"></p> <figcaption class="txt_caption default_figure"> 눈짓으로 방향을 제어하고 눈을 깜박이면 물건을 잡는다. [사진=UNIST] </figcaption> </figure> <p contents-hash="93d3c31f2d359b1e600185c5fbe8d4fd7b48d878b1ddd3c94633f10224fb6455" dmcf-pid="WNFLTapXnB" dmcf-ptype="general">연구팀은 둥근 렌즈 표면에 센서를 직접 프린팅할 수 있도록 ‘메니스커스 픽셀 프린팅(MPP)’ 기술을 개발해 적용했다. 노즐 끝에 맺힌 센서 원료 잉크를 렌즈 표면에 콕콕 찍어내는 형태의 기술이다.</p> <p contents-hash="6843e111323cf384596ed02424617f4c8b42d3a6e515d0c68bf0fa3582c80462" dmcf-pid="Yo5JlLFYMq" dmcf-ptype="general">메니스커스는 액체의 볼록하거나 오목한 곡면을 말하는데, 이 곡면 덕분에 잉크가 배출되는 힘과 잉크 퍼짐을 막는 힘이 균형을 이뤄 잉크를 원하는 양만큼 찍어낼 수 있다. 잉크를 건조하면 빛을 감지하는 페로브스카이트 물질만 남아 센서 역할을 하게 된다.</p> <p contents-hash="9a614f6c393341ec4661bbcebfdea2140810d000dca2556dfade09907f19bafe" dmcf-pid="Gg1iSo3Gez" dmcf-ptype="general">일반 센서 제작과 달리 센서 패턴을 새기기 위한 마스크가 필요 없고 다양한 안구 곡률에 맞춰 센서를 인쇄할 수 있어 개별 맞춤형 렌즈를 만들 수 있는 장점이 있다.</p> <p contents-hash="8734e6d08b5153551277b3ce42d1d4f37642fc1fbd34e9dd2b31045b167e463a" dmcf-pid="Hatnvg0He7" dmcf-ptype="general">렌즈라는 작은 공간 탓에 신호 해상도가 떨어지는 문제는 인공지능 기술을 결합해 해결했다. 실제로는 100개의 센서가 있는데 딥러닝 기반의 초해상도 기술을 적용하면 최대 6400개(80x80)의 센서가 있는 것과 같은 신호 데이터를 얻을 수 있다.</p> <p contents-hash="d0dc208d1c724eb0fa76df956109fa906fbe06cc5659a1bfcd34e44e1fdf2650" dmcf-pid="XNFLTapXdu" dmcf-ptype="general">이번 연구는 UNIST 기계공학과 공병훈, 김도현 연구원이 제1저자로 참여했다. 연구팀은 “하드웨어적 공정 혁신과 AI 기반 신호 복원 소프트웨어 기술을 결합해 렌즈라는 초소형 폼팩터의 공간적 제약을 극복한 기술”이라고 설명했다.</p> <p contents-hash="2cd0215a0336e21e96ab35819daec5bedcea8775102100a869e362b75088c921" dmcf-pid="Zj3oyNUZMU" dmcf-ptype="general">연구를 총괄한 정임두 교수는 “별도의 컨트롤러 없이 인간의 시각 정보를 로봇 제어 신호로 직접 변환하는 고도화된 인간-기계 상호작용(Human-Robot Interaction, HRI) 시스템 구현이 가능함을 증명했다”며 “증강현실 기반 산업용 로봇 원격 제어, 재난·재해 환경에서의 탐사 로봇 운용, 국방 분야의 무인체계와 드론 조종, 의료와 재활 지원 시스템, 스마트 모빌리티 인터페이스 등 다양한 분야로 확장될 수 있는 잠재력을 지닌다“고 덧붙였다.</p> <p contents-hash="ead34809fb406e9c6ee4e18e66fc7449470e9bec7de884c421b7ee1bbd9657ae" dmcf-pid="5A0gWju5Mp" dmcf-ptype="general">연구 결과(논문명: Meniscus Pixel Printing for Contact-Lens Vision Sensing and Robotic Control)는 재료 과학 분야 국제 학술지 ‘어드밴스드 펑셔널 머티리얼즈(Advanced Functional Materials)’에 3월 11일자로 실렸다.</p> <address contents-hash="d35d8fc2c7d9c0918211c0e8f7118ea80aeef3a5794da35e80c582d756910d40" dmcf-pid="1cpaYA71n0" dmcf-ptype="general">/정종오 기자<a href="mailto:ikokid@inews24.com" target="_blank">(ikokid@inews24.com)</a> </address> </section> </div> <p class="" data-translation="true">Copyright © 아이뉴스24. 무단전재 및 재배포 금지.</p> 관련자료 이전 아이유, 초대권 안 받는 이유…몰래 결제 후 “끝까지 다 보고 온다” 04-15 다음 디지털자산 거래소 출금지연제도 강화 ‘보이스피싱 피해 방지 위해’ 04-15 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.