KAIST 최정우 교수팀, 국제 음향 AI 챌린지 우승 작성일 07-11 12 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">세계적 권위 음향 탐지·분석 대회<br>음향 장면 분할 분야 압도적 1위<br>“공간음향 기반 시스템 활용 기대”</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="XPXAuGrR3X"> <figure class="figure_frm origin_fig" contents-hash="a0751aaa37b93a59263795d744d0ea3ee9d3b48301dbf98859f7bdb2f425ba02" dmcf-pid="ZQZc7HmeuH" dmcf-ptype="figure"> <p class="link_figure"><img alt="KAIST 전기및전자공학부의 권영후(왼쪽부터) 석박사통합과정생, 김도환 석사과정생, 최정우 교수, 이동헌(오른쪽 작은 사진) 박사 [KAIST 제공]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/11/ned/20250711112739904pjnz.jpg" data-org-width="912" dmcf-mid="HN6jUYwM3Z" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/11/ned/20250711112739904pjnz.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> KAIST 전기및전자공학부의 권영후(왼쪽부터) 석박사통합과정생, 김도환 석사과정생, 최정우 교수, 이동헌(오른쪽 작은 사진) 박사 [KAIST 제공] </figcaption> </figure> <p contents-hash="58e42a870e843dbc44b021deb4a8abb5506b0d4e71c4955b0e8dcc352b3d488a" dmcf-pid="5VyoFvc6zG" dmcf-ptype="general">KAIST는 최정우 전기및전자공학부 교수 연구팀이 세계 최고 권위의 음향 탐지·분석 대회인 ‘IEEE DCASE 챌린지 2025’에 참가해 ‘공간 의미 기반 음향 장면 분할(Spatial Semantic Segmentation of Sound Scenes)’ 분야에서 우승을 차지했다고 11일 밝혔다.</p> <p contents-hash="a13fb825264804e940893ac3e253b5ac07214da985742daa8a5ec1b7d34da7ab" dmcf-pid="1fWg3TkP3Y" dmcf-ptype="general">이번 대회에서 연구팀은 전 세계 86개 참가팀과 총 6개 분야에서 경쟁 끝에 최초 참가임에도 세계 1위 성과를 거두었다. 연구팀은 이동헌 박사, 권영후 석박사통합과정생(연구원), 김도환 석사과정생(연구원)으로 구성됐다.</p> <p contents-hash="a2b01e3b3c24b938b5b50b5f2332ad887c202bad9f70ff8e07a754af16e79dfa" dmcf-pid="t4Ya0yEQpW" dmcf-ptype="general">연구팀이 참가한 ‘공간 의미 기반 음향 장면 분할’의 ‘태스크(Task) 4’ 분야는 여러 음원이 혼합된 다채널 신호의 공간 정보를 분석해 개별 소리를 분리하고 18종으로의 분류를 수행해야 하는 기술 난이도가 매우 높은 분야이다. 연구팀은 오는 10월 바르셀로나에서 열리는 ‘DCASE 워크숍’에서 기술을 발표할 예정이다.</p> <p contents-hash="96202b2ba63ec67c4b5574b868fcf853e1923087ee7b2be5419ff2ffc1be5a1e" dmcf-pid="F8GNpWDx3y" dmcf-ptype="general">이 박사는 올해 초 트랜스포머와 맘바 아키텍처를 결합한 세계 최고 성능의 음원 분리 인공지능을 개발했다. 챌린지 기간 권 연구원을 중심으로 1차로 분리된 음원의 파형과 종류를 단서로 해 다시 음원 분리와 분류를 수행하는 ‘단계적 추론 방식’의 AI 모델을 완성했다.</p> <p contents-hash="63bbb11811a5b2dd3df138850900e1b805da0e86a606a7963bf5307102f87a05" dmcf-pid="36HjUYwMpT" dmcf-ptype="general">이는 사람이 복잡한 소리를 들을 때 소리의 종류나 리듬, 방향 등 특정 단서에 기반해 개별 소리를 분리해 듣는 방식을 AI가 모방한 모델이다.</p> <p contents-hash="96f953e4cddc0b7983762cca28ce22046183a4f1e0b580ba17e0ae4cc26a7ea1" dmcf-pid="0PXAuGrRFv" dmcf-ptype="general">이를 통해 순위를 결정하는 척도인 AI가 소리를 얼마나 잘 분리하고 분류했는지 평가하는‘음원의 신호대 왜곡비 향상도(CA-SDRi)’에서 참가팀 중 유일하게 두 자릿수 대의 성능(11㏈)을 보여, 기술적인 우수성을 입증하였다.</p> <p contents-hash="be46a41e5de25f9287689e313b8a5889109c6324c620c998128169647d731024" dmcf-pid="pQZc7HmezS" dmcf-ptype="general">음원의 신호대 왜곡비 향상도(CA-SDRi)는 기존의 오디오와 비교해 얼마나 더 선명하게 원하는 소리를 분리했는지를 데시벨 단위로 측정한 결과를 말한다. 숫자가 클수록 더 정확하고 깔끔하게 소리를 분리했다는 뜻이다.</p> <p contents-hash="a4248f8b1103fd4c12fb7a42a2e662ab318a9a67a1f31c29272eb5dbbf6edaa3" dmcf-pid="Ux5kzXsdFl" dmcf-ptype="general">최 교수는 “연구팀은 최근 3년간 세계 최고의 음향 분리 AI 모델을 선보여 왔으며, 그 결과를 공식적으로 인정받는 계기가 되어 기쁘다”며 “난이도가 대폭 향상되고, 타 학회 일정과 기말고사로 불과 몇 주간만 개발이 가능했음에도 집중력 있는 연구를 통해 1위를 차지한 연구팀 개개인이 자랑스럽다”고 소감을 밝혔다.</p> <p contents-hash="b0cd08f7b40948d81ff08953fa95ab02b0e81834c45b1615b5cca6eed9747616" dmcf-pid="uM1EqZOJFh" dmcf-ptype="general">각종 음향 관련 탐지·분류 기술을 평가하는 IEEE 신호처리학회(Signal Processing Society) 산하 국제대회인 본 챌린지는 2013년 개최된 이래 음향 분야 인공지능 모델의 세계적인 경연의 장으로 자리매김해 왔다.</p> <p contents-hash="105fc02c0ad1aaa5f362d302152473da3a701e63a9dc05970f6b3b623c3a0ad9" dmcf-pid="7RtDB5IipC" dmcf-ptype="general">해당 연구는 과학기술정보통신부의 재원으로 한국연구재단 중견연구자지원사업, STEAM 연구사업 지원 및 방위사업청·국방과학연구소 재원으로 미래국방연구센터 지원을 받아 수행됐다. 김광우 기자</p> </section> </div> <p class="" data-translation="true">Copyright © 헤럴드경제. 무단전재 및 재배포 금지.</p> 관련자료 이전 [현장]방시혁, 'SM 시세조종' 재판 증인 불출석…재판부 "핵심 증인 아냐" 증인채택 취소 07-11 다음 POSTECH "쓸수록 성능 떨어지는 '강유전체 메모리' 문제 해결" 07-11 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.