24시간 말하는 AI비서 '스피치SSM' 개발 작성일 07-04 16 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="83cx9wxpiZ"> <figure class="figure_frm origin_fig" contents-hash="1ac77e6dc130b7111f93407cc5045b4a68cf980a8795aaeeeec8b3224f9ab182" dmcf-pid="60kM2rMULX" dmcf-ptype="figure"> <p class="link_figure"><img alt="SpeechSSM 개요. KAIST 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/04/fnnewsi/20250704050006059dfmk.png" data-org-width="800" dmcf-mid="4KpvrzvaR5" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/04/fnnewsi/20250704050006059dfmk.png" width="658"></p> <figcaption class="txt_caption default_figure"> SpeechSSM 개요. KAIST 제공 </figcaption> </figure> <div contents-hash="794115d3e393c0375de138b6f9daf36d78bb48278d4d5ce1b6b50d251435e55a" dmcf-pid="PpERVmRuJH" dmcf-ptype="general"> [파이낸셜뉴스] 한국 연구진이 시간 제약 없이 일관되고 자연스러운 음성 생성을 실현한 ‘스피치SSM’을 개발하는데 성공했다. </div> <p contents-hash="1af9120a0e62913805a2c1e7769cc6342ad711de9d8a1e315b974d157cf93578" dmcf-pid="QUDefse7MG" dmcf-ptype="general">4일 KAIST(한국과학기술원)에 따르면 KAIST 전기및전자공학부 노용만 교수 연구팀의 박세진 연구원(박사과정)이 장시간 음성 생성이 가능한 음성 언어 모델 ‘스피치SSM(SpeechSSM)’을 개발했다. </p> <p contents-hash="99012a5192f7931d736e891c374de7d6724e2445129fb5c68ffa96149c03ff8b" dmcf-pid="x4TciGc6dY" dmcf-ptype="general">최근 음성 언어 모델(Spoken Language Model, SLM)은 텍스트 없이 인간의 음성을 학습해 음성의 언어적, 비언어적 정보를 이해해 생성하는 기술로 텍스트 기반 언어 모델의 한계를 넘어서는 차세대 기술로 각광받고 있다. 음성 언어 모델(SLM)은 중간에 텍스트로 변환하지 않고 음성을 직접 처리함으로써, 인간 화자 고유의 음향적 특성을 활용할 수 있어 대규모 모델에서도 고품질의 음성을 빠르게 생성할 수 있다는 점이 큰 강점이다. </p> <p contents-hash="0c387008abc26cc615d6dbac257b4e8f6f77e422e913e870fd57a515e4c526a2" dmcf-pid="yhQuZeuSJW" dmcf-ptype="general">그러나 기존 모델은 음성을 아주 세밀하게 잘게 쪼개서 아주 자세한 정보까지 담는 경우, ‘음성 토큰 해상도’가 높아지고 사용하는 메모리 소비도 증가하는 문제로 인해 장시간 음성의 의미적, 화자적 일관성을 유지하기 어려웠다. </p> <p contents-hash="968a0930b3bfa81054878f6b44399fdee2aceb457e6b913b15a3447e5fc0f562" dmcf-pid="Wlx75d7vdy" dmcf-ptype="general">연구팀이 개발한 스피치SSM은 음성 데이터를 짧은 고정된 단위(윈도우)로 나눠 각 단위별로 독립적으로 처리하고, 전체 긴 음성을 만들 경우에는 다시 붙이는 방식을 활용해 쉽게 긴 음성을 만들 수 있어 무한한 길이의 음성 시퀀스(unbounded speech sequence)를 효과적으로 처리할 수 있게 했다. 또 음성 생성 단계에서는 한 글자, 한 단어 차례대로 천천히 만들어내지 않고, 여러 부분을 한꺼번에 빠르게 만들어내는 ‘비자기회귀(Non-Autoregressive)’방식의 오디오 합성 모델(SoundStorm)을 사용해, 고품질의 음성을 빠르게 생성할 수 있게 했다. </p> <p contents-hash="32698dc71f089b77be49bdb5dd91833763e00eae200ec724c941184b1acbc9ce" dmcf-pid="YSMz1JzTeT" dmcf-ptype="general">기존은 10초 정도 짧은 음성 모델을 평가했지만, 연구팀은 16분까지 생성할 수 있도록 자체 구축한 새로운 벤치마크 데이터셋인 ‘LibriSpeech-Long'을 기반으로 음성을 생성하는 평가 태스크를 새롭게 만들었다. </p> <p contents-hash="10bea22adba2f2029c5ae15c1d2f99fcaa7bddd5918cf5d5b2a7c0ef659ae80e" dmcf-pid="GvRqtiqyiv" dmcf-ptype="general">새로운 평가를 통해 스피치SSM 음성 언어 모델로 생성된 음성은 긴 시간 생성에도 불구하고 초기 프롬프트에서 언급된 특정 인물이 지속적으로 등장하며, 맥락적으로 일관된 새로운 인물과 사건들이 자연스럽게 전개되는 모습을 확인했다. 이는 기존 모델들이 장시간 생성 시 쉽게 주제를 잃고 반복되는 현상을 보였던 것과 크게 대조적이다. </p> <p contents-hash="20b64b17f30cbce767db7e766a234b7fdfc19a7a97178e7df71b21e7d5eacd7c" dmcf-pid="HTeBFnBWMS" dmcf-ptype="general">이 연구는 제1 저자인 KAIST 박세진 박사과정 학생이 구글 딥마인드(Google DeepMind)와 협력해, ICML(국제 머신러닝 학회) 2025에서 7월 16일 구두 발표로 소개될 예정이다.</p> <p contents-hash="6f6ae4cc721cbb12dfb8c9689a706368e760aa9c2b21d09bd13d95c21b61620f" dmcf-pid="Xydb3LbYLl" dmcf-ptype="general">jiany@fnnews.com 연지안 기자</p> </section> </div> <p class="" data-translation="true">Copyright © 파이낸셜뉴스. 무단전재 및 재배포 금지.</p> 관련자료 이전 5년의 대장정 마친 이정재 “오겜은 큰 경험… 성기훈役과 작별 실감 안나” 07-04 다음 빅테크 협력·자체개발…이통사 '소버린 AI' 투트랙 07-04 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.