뇌분야 AI파운데이션 모델 첫 개발…"당장 실용화 가능" 작성일 11-26 35 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">DGIST 연구진 "한계넘은 프레임워크"…포피엠엑스 통해 상용화 추진</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="9NiO7QtWAs"> <p contents-hash="c24c9161ed053bb6c1267d0fb993d4fe9f03f6f8c26e83d33eb8af92ba6b49d4" dmcf-pid="2yC3dD6bAm" dmcf-ptype="general">(지디넷코리아=박희범 기자)<span>딥러닝 기반 뇌신호 분석에서 한계로 꼽혀 온 ‘레이블 데이터 부족’ 문제를 국내 연구진이 새로운 AI 파운데이션 모델로 해결했다. 기술성숙도(TRL)로는 실용화 수준인 5단계 정도로, 상용화 바로 전단계라는 것이 연구진 설명이다.</span></p> <p contents-hash="7eed88313bc106bbc6b9275c3712b253c52ddaa395f53247905addbf2049ca01" dmcf-pid="VWh0JwPKjr" dmcf-ptype="general">DGIST는 지능형로봇연구부 안진웅 박사 연구팀이 뇌신호를 스스로 학습하도록 설계, 극도로 적은 양의 레이블만으로도 기존 대비 높은 정확도(최저8~최고20% 향상)를 구현할 수 있는 AI파운데이션 모델을 개발했다고 26일 밝혔다.</p> <p contents-hash="d4076b5be032c01fa2d254aad4ed52d5a7069e3be781b64adbd33031071a9b92" dmcf-pid="fYlpirQ9gw" dmcf-ptype="general">이번 연구는 안진웅 박사(지능형로봇연구부 책임연구원, 융합전공 겸무교수)와 정의진 박사후연수연구원(로봇및기계전자공학연구소, 바이오체화형피지컬AI연구단)이 공동 수행했다.</p> <figure class="figure_frm origin_fig" contents-hash="5704dddcfbfa694c929229e69d8ee0b07eefc701b6b00170cd1dae838dc7f6aa" dmcf-pid="4GSUnmx2gD" dmcf-ptype="figure"> <p class="link_figure"><img alt="뇌분야 AI파운데이션 모델을 개발한 DGIST 안진웅 책임연구원(왼쪽)과 정의진 박사후연수연구원." class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/26/ZDNetKorea/20251126102151147sdug.jpg" data-org-width="600" dmcf-mid="bkSKASnQkI" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/26/ZDNetKorea/20251126102151147sdug.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 뇌분야 AI파운데이션 모델을 개발한 DGIST 안진웅 책임연구원(왼쪽)과 정의진 박사후연수연구원. </figcaption> </figure> <p contents-hash="3e4f2c8cf3bd4a112d794746a4161f813ae881dc0b93f81064b749e1bc173a99" dmcf-pid="8HvuLsMVaE" dmcf-ptype="general">연구팀은 "EEG(뇌파)와 fNIRS(기능적 뇌혈류) 신호를 모두 이해하고 분석할 수 있는 ‘뇌파–기능뇌혈류 멀티모달 파운데이션 모델’을 세계 최초로 구현했다"고 말했다.</p> <p contents-hash="6cc06fa5ee057f47323437406a6676e8cca95497ef73ab6b8c65bf54b9f02c45" dmcf-pid="6XT7oORfjk" dmcf-ptype="general">이들은 총 918명으로부터 약 1천250시간에 걸친 초대형 뇌신호 데이터를 확보해, 레이블 없이 비지도 방식으로 모델을 학습시켰다. 이를 통해 EEG와 fNIRS 각각의 고유한 특징뿐 아니라 두 신호가 공유하는 잠재적인 표현까지 동시에 파악할 수 있도록 설계했다.</p> <p contents-hash="b50cfb084cea0a2c65de7a1a601efa337b947279b9850bb469a524a4fccad31d" dmcf-pid="PZyzgIe4ac" dmcf-ptype="general">기존에는 EEG와 fNIRS를 동시에 측정한 데이터 확보가 거의 불가능해 멀티모달 AI 구축에 큰 제약이 있었지만, 이번 연구에서 개발된 모델은 동시계측 데이터 없이도 학습이 가능하도록 설계했다.</p> <p contents-hash="1f51b1dd5936ea1460bc679949027781d8b1677378d647ed35d9447771871ffc" dmcf-pid="Q5WqaCd8aA" dmcf-ptype="general">소량의 레이블만으로도 높은 정확도를 구현하며 EEG 단독 분석, fNIRS 단독 분석, 두 신호를 결합한 멀티모달 분석까지 하나의 모델로 모두 수행할 수 있어 기존 기술의 구조적 한계를 완전히 넘어섰다.</p> <p contents-hash="5c2a97c673f8d50588d90e49d95aa61b8060f3cc6d39a275c8431e7f95c43239" dmcf-pid="x1YBNhJ6aj" dmcf-ptype="general">안진웅 박사는 “멀티모달 뇌신호 분석이 가진 구조적 제약을 뛰어넘은 최초의 프레임워크"라며 "뇌신호 AI 분야에서 근본적인 혁신을 이뤄냈다”고 설명했다.</p> <p contents-hash="d18b2b8048992bea323bf05bba296edefb15b3445c54aa957b3ebbeeca3b7881" dmcf-pid="yLRw04XSkN" dmcf-ptype="general">안 박사는 또 “특히 두 신호 간 공유 정보를 정렬하는 대조 학습 전략이 모델의 표현력을 대폭 확장했고, 이는 뇌창발인공지능(Brain-Inspired AI)과 뇌–컴퓨터 인터페이스(BCI) 등 미래 뇌공학 기술 발전에 중요한 전환점이 될 것”이라고 말했다.</p> <p contents-hash="ac293dc01eee514d54f9190f7f482b39eb0a22d623d36a9f0dee5d75f16a9b2d" dmcf-pid="Woerp8Zvca" dmcf-ptype="general">공동 연구자인 정의진 박사후연수연구원은 "실용화가 바로 가능한 수준이다. 안진웅 박사가 대표로 있는 포피엠엑스를 통해 상용화를 추진 중"이라고 덧붙였다.</p> <p contents-hash="63a26ba4b369599cfc1ec305d772fe8bfafdae5b959f12aaa35f9fec28c02359" dmcf-pid="YgdmU65Tgg" dmcf-ptype="general">이 연구는 과학기술정보통신부와 한국연구재단의 지원을 받아 수행됐더. 연구결과는 계산생물학 및 의료정보학 분야 국제 학술지(Computers in Biology and Medicine)에 게재됐다.</p> <figure class="figure_frm origin_fig" contents-hash="7494dc85483371bad4947f4d2ef257d56077d10d08761db9ba7d7b3865a208f8" dmcf-pid="GEaSKdUZoo" dmcf-ptype="figure"> <p class="link_figure"><img alt="EEG-fNIRS 다중 모달 표현 학습 모델의 사전 학습 과정을 나타낸 그림. 모달리티별 표현과 공유 도메인 표현이 어떻게 학습되는지를 보여준다.(그림=DGIST)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/26/ZDNetKorea/20251126102152395xflf.jpg" data-org-width="640" dmcf-mid="KGjT2i71oO" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/26/ZDNetKorea/20251126102152395xflf.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> EEG-fNIRS 다중 모달 표현 학습 모델의 사전 학습 과정을 나타낸 그림. 모달리티별 표현과 공유 도메인 표현이 어떻게 학습되는지를 보여준다.(그림=DGIST) </figcaption> </figure> <p contents-hash="340c2b3c63148d8985ef97e1eebf112ef2985a70ed4fc6207d38eba9b91f203e" dmcf-pid="HDNv9Ju5oL" dmcf-ptype="general">박희범 기자(hbpark@zdnet.co.kr)</p> </section> </div> <p class="" data-translation="true">Copyright © 지디넷코리아. 무단전재 및 재배포 금지.</p> 관련자료 이전 Samick Breaks Through… T&R’s Successful M&A [K-Bio Pulse] 11-26 다음 FIFA, 북중미월드컵 조 추첨 방식 발표…한국 포트2 확정 11-26 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.