렌즈 끼고 눈짓 하자 로봇 팔이 움직였다 작성일 04-15 33 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">UNIST, 광학센서 인쇄해 로봇 팔 원격제어하는 콘택트렌즈 개발</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="4GwM9GJ6zC"> <figure class="figure_frm origin_fig" contents-hash="6040657d3665cf8bee9baca26f602f5b9dcb36fe2cf6ca3d61acc297558dfbcf" dmcf-pid="8HrR2HiPpI" dmcf-ptype="figure"> <p class="link_figure"><img alt="눈동자의 움직임으로 로봇을 제어하는 콘택트렌즈 개념도. 콘택트렌즈에 집적된 빛 감지 센서가 눈에 들어오는 빛 분포를 읽어 시선 방향을 추정하고 이를 AI로 고해상도 보정해 로봇 팔 제어 신호로 변환하는 과정을 나타낸다. 왼쪽 아래 그림은 렌즈에 광학 센서를 프린트하는 기술. UNIST 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/15/dongascience/20260415114804253ogwd.jpg" data-org-width="680" dmcf-mid="VYhLPFNdUl" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/15/dongascience/20260415114804253ogwd.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 눈동자의 움직임으로 로봇을 제어하는 콘택트렌즈 개념도. 콘택트렌즈에 집적된 빛 감지 센서가 눈에 들어오는 빛 분포를 읽어 시선 방향을 추정하고 이를 AI로 고해상도 보정해 로봇 팔 제어 신호로 변환하는 과정을 나타낸다. 왼쪽 아래 그림은 렌즈에 광학 센서를 프린트하는 기술. UNIST 제공 </figcaption> </figure> <p contents-hash="148279045360d676b6b6bbcbef81f7a4dd341226d936dbcbf987eba10a4026bc" dmcf-pid="6XmeVXnQ0O" dmcf-ptype="general">국내 연구팀이 '눈짓'만으로 로봇 팔을 조종할 수 있는 콘택트렌즈를 개발했다. 콘택트렌즈에 미세한 광학 센서를 인쇄하고 안구 움직임 신호를 인공지능(AI) 기술로 증폭하는 원리다.</p> <p contents-hash="5626d3a295e65b65e375f5cf16ad4063dc0eda966a2c69f9b871f4c03a2b10f9" dmcf-pid="PZsdfZLx0s" dmcf-ptype="general"> 울산과학기술원(UNIST)은 정임두 기계공학과·인공지능대학원 교수팀이 로봇 팔을 원격 제어할 수 있는 스마트 콘택트렌즈를 개발했다고 15일 밝혔다. 연구결과는 지난달 11일(현지시간) 국제학술지 '어드밴스드 펑셔널 머티리얼즈'에 공개됐다.</p> <p contents-hash="7651ef4696d095bb98a01225276e3f511fef0eebddb2af0c8029eb96323a2050" dmcf-pid="Q5OJ45oM0m" dmcf-ptype="general"> 연구팀은 둥근 렌즈 표면에 센서를 직접 프린팅할 수 있는 '메니스커스 픽셀 프린팅(MPP)' 기술을 개발했다. 노즐 끝에 맺힌 센서 원료 잉크를 렌즈 표면에 콕콕 찍어내는 형태다. 메니스커스는 액체의 볼록하거나 오목한 곡면을 말한다. 곡면 덕분에 잉크가 배출되는 힘과 잉크가 퍼지는 것을 막는 힘이 균형을 이뤄 잉크를 원하는 만큼만 찍어내는 원리다.</p> <p contents-hash="c7fa798a1e8f14908444f1e554280d2c789f2a2cbaa6a95dd5285d755fa87857" dmcf-pid="x1Ii81gRzr" dmcf-ptype="general"> 잉크를 건조하면 빛을 감지하는 페로브스카이트 물질만 남아 센서 역할을 한다. 렌즈 위에는 가로세로 10개씩 총 100개의 빛 검출 센서가 집적됐다. 눈을 움직일 때마다 달라지는 빛 분포를 센서가 읽어내 시선 방향을 추적한다. 상하좌우와 대각선 방향도 구분하며 시선 정보를 로봇 팔과 연동해 움직이고 깜박임 동작으로 물건을 집을 수도 있다.</p> <p contents-hash="514b779a432824537db34cc64dd81dbf740f1e7847d7127a87a1b27caf3c0051" dmcf-pid="yAQ0YA717w" dmcf-ptype="general"> 렌즈의 작은 크기 때문에 신호 해상도가 떨어지는 문제는 AI 기술로 해결했다. 딥러닝 기술로 신호를 증폭해 최대 6400개의 센서가 있는 것과 비슷한 수준으로 신호 해상도를 높인 것이다. 지연시간도 0.03초로 로봇 팔에 정보가 거의 실시간으로 전달된다.</p> <p contents-hash="295abf4217164e8bd4f917a8d87ca66eaa796eaa4ed70f7817d00377d8e6f8dc" dmcf-pid="WcxpGcztzD" dmcf-ptype="general"> 안구 모형을 활용한 테스트에서 눈동자 움직임만으로 로봇 팔이 물체를 집어 옮기는 동작까지 가능한 것으로 확인됐다. 방향 인식 정확도는 99.3%로 나타났다.</p> <p contents-hash="a6177aed402fc15867f5934dbd6fe1b4f56f36f08cebe99e12fe6cdca4a72177" dmcf-pid="YkMUHkqFzE" dmcf-ptype="general"> 연구팀은 "하드웨어 공정 혁신과 AI 기반 신호 복원 소프트웨어 기술을 결합해 렌즈라는 공간적 제약을 극복한 기술"이라고 설명했다.</p> <p contents-hash="8b4bad05334de4f4a5fb1ace634bdfd8d4cc2a3e57b6624ec78f320ebc58043f" dmcf-pid="GERuXEB3pk" dmcf-ptype="general"> 정 교수는 "별도의 컨트롤러 없이 인간의 시각 정보를 로봇 제어 신호로 직접 변환하는 고도화된 인간-기계 상호작용(Human-Robot Interaction, HRI) 시스템 구현이 가능함을 증명했다"고 밝혔다.</p> <p contents-hash="dc287dc5a5638fe8cfaf71d443e97b86f288a10bf90b967a62df4c7ec3fa9b52" dmcf-pid="HDe7ZDb0uc" dmcf-ptype="general"> 이어 "눈의 움직임만으로 다양한 전자기기를 정밀하게 제어해 확장현실(XR) 기반 산업용 로봇 원격 제어, 재난·재해 환경에서의 탐사 로봇 운용, 국방 분야의 무인체계 및 드론 조종, 의료 및 재활 지원 시스템 등 다양한 분야로 확장될 수 있는 잠재력이 있다"고 밝혔다.</p> <p contents-hash="a742c3587984cc0044c972ffb9ecbce3a934f94ec517c4ea1fe727f66541a6a9" dmcf-pid="Xwdz5wKp3A" dmcf-ptype="general"> <참고 자료><br> - doi.org/10.1002/adfm.202531981</p> <figure class="figure_frm origin_fig" contents-hash="4fdb221273f9b8ed95172ae5afc040e8cced59dd00f8df3a87533f2ad2e3e385" dmcf-pid="ZrJq1r9U7j" dmcf-ptype="figure"> <p class="link_figure"><img alt="왼쪽부터 정임두 UNIST 교수, 공병훈 연구원, 김도현 연구원. UNIST 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202604/15/dongascience/20260415114805503xpcf.jpg" data-org-width="680" dmcf-mid="f7WAd7DgFh" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202604/15/dongascience/20260415114805503xpcf.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 왼쪽부터 정임두 UNIST 교수, 공병훈 연구원, 김도현 연구원. UNIST 제공 </figcaption> </figure> <p contents-hash="d9863736a5e82963018585e05126ef27f00986ca6d4cf18101f2cc47ae0b0db6" dmcf-pid="5miBtm2uUN" dmcf-ptype="general">[이병구 기자 2bottle9@donga.com]</p> </section> </div> <p class="" data-translation="true">Copyright © 동아사이언스. 무단전재 및 재배포 금지.</p> 관련자료 이전 “2080년 겨울은 단 12일”…갈수록 극단적 여름 온다 [지구, 뭐래?-픽(Pick)] 04-15 다음 최형두 "한일 해저케이블, 에너지 안보와 AI 인프라 동시에 잡을 수 있어" 04-15 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.