'눈짓'만으로 로봇 팔 제어 성공…물건 들기도 작성일 04-15 39 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">UNIST, 센서붙인 스마트 콘택트렌즈 개발…마스크 없이 패터닝 가능</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="6Zl2lHiPh1"> <p contents-hash="2a9d6ba545d555a79c8c0263a1bab9fdccf4c8e29d44bb8cb488d11a64ff33bc" dmcf-pid="P5SVSXnQW5" dmcf-ptype="general">(지디넷코리아=박희범 기자)<span>센서를 붙인 콘택트 렌즈를 끼고 안구를 굴리면, 로봇 팔이 그대로 따라 움직이는 기술이 개발됐다. 무겁고 복잡한 기존 확장현실(XR) 기기를 대신할 차세대 인간-기계 인터페이스 기술이다.</span></p> <p contents-hash="432ab8fb669ef8c005a37196b8d3d6fff98b34021c0fdca7b8244cce25f8af0b" dmcf-pid="Q1vfvZLxlZ" dmcf-ptype="general">UNIST는 정임두 기계공학과 교수(인공지능대학원 겸직) 연구팀이 센서를 렌즈에 직접 인쇄하는 특수 기술과 센서 저해상도 신호를 고해상도로 복원하는 AI 기술을 결합한 스마트 콘택트렌즈를 개발했다고 15일 밝혔다.</p> <figure class="figure_frm origin_fig" contents-hash="c2deb761d7d1bb4beb83b1b1c57f12b7e3cc616959e3fd5fb3bd93f2c214c6ac" dmcf-pid="xtT4T5oMSX" dmcf-ptype="figure"> <p class="link_figure"><img alt="눈동자 움직임으로 로봇을 제어하는 콘택트렌즈 개념도.(그림=UNIST)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/15/ZDNetKorea/20260415091658088loyr.jpg" data-org-width="500" dmcf-mid="8BUgU9Ikyt" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/15/ZDNetKorea/20260415091658088loyr.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 눈동자 움직임으로 로봇을 제어하는 콘택트렌즈 개념도.(그림=UNIST) </figcaption> </figure> <p contents-hash="0bb31d1e8629664ae169844bdbaf392f170d701be7e412c95d3128989152cd0a" dmcf-pid="yoQhQntWlH" dmcf-ptype="general">연구팀은 이 기술로 로봇 팔을 원격 제어하는데 성공했다.</p> <p contents-hash="3d7aa7675b94a130b863f8a53d5a8eed8d8a750dab56ba8ace839eb79df9fedf" dmcf-pid="WgxlxLFYTG" dmcf-ptype="general">연구팀은 스마트 렌즈 위에 100개(10x10)의 빛 검출 센서를 집적했다. 이 센서가 눈이 움직일 때마다 달라지는 빛 분포를 읽어내 시선 방향을 추적하는 원리다.</p> <p contents-hash="962d0fa0ec94b24e80d34e742d0b47234dd889f9a75ee0054be3a286c6818be2" dmcf-pid="YaMSMo3GTY" dmcf-ptype="general">위·아래·좌·우는 물론 대각선 방향까지 구분할 수 있다. 안구 깜박임으로 물건을 집을 수도 있다.</p> <p contents-hash="a65afa3545f207da4c6fbc6a8fcb4e2e18af91c9ae8d8e97d8aac493971dbeeb" dmcf-pid="GJ4s4eXSvW" dmcf-ptype="general">연구진은 둥근 렌즈 표면에 센서를 직접 프린팅할 수 있도록 ‘메니스커스 픽셀 프린팅(MPP)’ 기술을 개발했다. 노즐 끝에 맺힌 센서 원료 잉크를 렌즈 표면에 콕콕 찍어내는 형태의 기술이다.</p> <p contents-hash="f917053c6d229d5bfe5adcdad45fb192707b487e1cc887979d94c263ac7a8034" dmcf-pid="Hi8O8dZvyy" dmcf-ptype="general">메니스커스는 액체의 볼록하거나 오목한 곡면을 말하는데, 이 곡면 덕분에 잉크가 배출되는 힘과 잉크 퍼짐을 막는 힘이 균형을 이뤄 잉크를 원하는 양만큼 찍어낼 수 있다.</p> <p contents-hash="b0ec0c3c4223fc24949f43969e35609dfc3ac6aa44ed684a73d254e844c0cf70" dmcf-pid="Xn6I6J5TyT" dmcf-ptype="general">잉크를 건조하면 빛을 감지하는 페로브스카이트 물질만 남아 센서 역할을 하게 된다.</p> <p contents-hash="965361d3247a780bbfce4d73b935c059ed480df2c237be9a699e4700f140ff9e" dmcf-pid="ZLPCPi1ylv" dmcf-ptype="general">정임두 교수는 "일반 센서 제작과 달리 센서 패턴을 새기기 위한 마스크가 필요 없고 다양한 안구 곡률에 맞춰 센서를 인쇄할 수 있어 개별 맞춤형 렌즈를 만들 수 있는 장점이 있다"고 설명했다.</p> <p contents-hash="d87cd89b4b4d40f75c6fff337a634f92c199721784e999d439b4a44e94098118" dmcf-pid="5oQhQntWlS" dmcf-ptype="general">렌즈라는 작은 공간 탓에 신호 해상도가 떨어지는데, 이 문제는 인공지능 기술로 해결했다. 실제 100개 센서가 있지만, 딥러닝 기반 초해상도 기술을 적용하면 최대 6,400개(80x80)의 센서가 있는 것과 같은 신호 데이터를 얻을 수 있다. 재구성에 필요한 시간도 0.03초로 짧다. 로봇 팔에 정보 전달이 거의 실시간에 가깝다.</p> <p contents-hash="809f39b43426af9082d432d9cda50f95779775817e7a99e3511ecf3a04b49459" dmcf-pid="1gxlxLFYvl" dmcf-ptype="general">안구 모형을 이용한 실험에서, 눈동자 움직임만으로 물체를 집어 옮기는 동작까지 확인했다. 방향 인식 정확도는 99.3% 수준을 기록했다.</p> <p contents-hash="75982b0bef73001180c1df94480f5d94f02fa394f006c90210ea94fe264f1dc5" dmcf-pid="taMSMo3GWh" dmcf-ptype="general">이번 연구는 공병훈, 김도현 UNIST 기계공학과 연구원이 제1저자로 참여했다.</p> <p contents-hash="c2778d7ed9747e26dd5ef181d7ba6e102eece3bfbfafcca07180915415292235" dmcf-pid="FNRvRg0HhC" dmcf-ptype="general">연구를 총괄한 정임두 교수는 “별도 컨트롤러없이 인간의 시각 정보를 로봇 제어 신호로 직접 변환하는 고도화된 인간-기계 상호작용(HRI) 시스템 구현이 가능함을 증명했다”고 말했다.</p> <p contents-hash="327807c76e17ac8f8cab1b72218cff8ee7df1808e2b207b06697111a19b825b1" dmcf-pid="3jeTeapXSI" dmcf-ptype="general">정 교수는 또 “차세대 초경량 XR 인터페이스 장치로서 눈의 움직임만으로 다양한 전자 기기를 정밀하게 제어할 수 있다는 점에서, 증강현실 기반 산업용 로봇 원격 제어, 재난·재해 환경에서의 탐사 로봇 운용, 국방 분야의 무인체계 및 드론 조종, 의료 및 재활 지원 시스템, 스마트 모빌리티 인터페이스 등 다양한 분야로 확장될 수 있는 잠재력을 지닌다“고 밝혔다.</p> <p contents-hash="9afe050d43d02559fbf92114c1546f8c388fce0e14db45879e4bc429ee77930a" dmcf-pid="0AdydNUZlO" dmcf-ptype="general">연구 결과는 재료 과학 분야 국제 학술지 ‘어드밴스드 펑셔널 머티리얼즈((IF19.0)에 게재됐다. 조만간 최신호 전면 표지 논문으로 출판될 예정이다.</p> <p contents-hash="93dbab5bb9ddc6a21f9cf2718f5a101f58f24905fea162678f2c4c6de0887824" dmcf-pid="pkiYiA71hs" dmcf-ptype="general">박희범 기자(hbpark@zdnet.co.kr)</p> </section> </div> <p class="" data-translation="true">Copyright © 지디넷코리아. 무단전재 및 재배포 금지.</p> 관련자료 이전 [사이테크+] "부모 역할에 에너지 많이 쓰는 새일수록 빨리 늙고 일찍 죽어" 04-15 다음 [김종석의 그라운드] 좋아진 건 부산오픈인데, 작아진 건 한국이었다…전멸이 더 아픈 이유 04-15 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.