"AI 댓글, 들켰다"…KAIST, 한국어 AI 댓글 탐지 기술 최초 개발 작성일 07-02 14 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">기사 맥락 따라 AI가 7초 만에 댓글 생성<br>"사람 말투와 AI 말투, 구분 가능"<br>KAIST·국보연, LLM 기반 댓글 악용 대응 기술 공개<br>여론조작·AI 에이전트 대응 기대</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="qGNTW7Sglx"> <p contents-hash="75edab860d979867b95c54df5a66447f08ef736e9d8845333e58a35aeeecd33d" dmcf-pid="BHjyYzvaCQ" dmcf-ptype="general"> [이데일리 강민구 기자] “최근 보도된 기사를 넣고 설정값만 고르면 이렇게 간단히 댓글을 만들 수 있습니다.”</p> <p contents-hash="36eae66e7da931c78d4e5021cccc8bd3e27ddf548cacf86949ed32e162e4dac7" dmcf-pid="byRrsZDxhP" dmcf-ptype="general">지난 26일 KAIST(한국과학기술원)에서 고우영 국가보안기술연구소 선임연구원이 모니터 화면을 보여주며 말했다. 김용대 KAIST 교수와 그의 지도학생인 고 연구원은 한국어 기반 AI 생성 댓글을 탐지하는 기술을 개발하기 위해, 검증용으로 댓글 생성기를 제작했다.</p> <p contents-hash="6409cf1f1fb6732a6e4142a0e0c67656e767b6972c5105e70afdd835bc10b0e2" dmcf-pid="KWemO5wMS6" dmcf-ptype="general">화면에는 실제 기사에 달린 댓글들이 표시됐고, ‘긍정’·‘부정’ 감성부터 댓글 개수, 사용 언어 등 다양한 조건을 선택해 기사 맥락에 맞춘 댓글이 단 5~7초 만에 자동으로 생성됐다.</p> <p contents-hash="446b3f7d322c91a4153cb49f2eece02ec32cef7c0551f549b203b81bcb34ffcb" dmcf-pid="9YdsI1rRh8" dmcf-ptype="general">거대언어모델(LLM)의 발전으로 댓글을 쉽고 저렴하게 생성할 수 있는 시대가 열린 가운데, 국내 연구진이 한국어 기반 ‘AI 생성 댓글’을 탐지할 수 있는 기술 ‘XDAC’을 개발해 주목받고 있다. 기존 기술로는 식별이 어려웠던 댓글 탐지 기술을 처음으로 구현한 것으로, 향후 포털 플랫폼에 접목해 여론 조작을 방지하거나 AI 에이전트가 본격 활용되는 시대에 악용 사례를 차단하는 데 기여할 수 있을 것으로 기대된다.</p> <figure class="figure_frm origin_fig" contents-hash="2190fd0134cafd33bd18b7b540ad5214018d2ed867c408c633a89fddf7f05106" dmcf-pid="2GJOCtmev4" dmcf-ptype="figure"> <p class="link_figure"><img alt="김용대 KAIST 전기전자공학부 교수(왼쪽)와 고우영 국가보안기술연구소 선임연구원(오른쪽).(사진=KAIST)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/02/Edaily/20250702102147297inlp.jpg" data-org-width="384" dmcf-mid="uwuNAvg2We" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/02/Edaily/20250702102147297inlp.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 김용대 KAIST 전기전자공학부 교수(왼쪽)와 고우영 국가보안기술연구소 선임연구원(오른쪽).(사진=KAIST) </figcaption> </figure> <figure class="figure_frm origin_fig" contents-hash="bd9efeb7d9a41224289d638cc9bd66545be0b56ac207e3d9b627c4bf5e8cd064" dmcf-pid="VHiIhFsdhf" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/02/Edaily/20250702102148644seni.gif" data-org-width="792" dmcf-mid="7iA3p6tshR" dmcf-mtype="image" height="auto" src="https://t1.daumcdn.net/news/202507/02/Edaily/20250702102148644seni.gif" width="792"></p> </figure> <div contents-hash="837f9b955583c3e6972ded44c11b4d99a58e5d9eb27d9c9e6ee34d5fa55dba7e" dmcf-pid="fXnCl3OJvV" dmcf-ptype="general"> <strong>“AI 댓글 360개, 360원에 생성”…KAIST, ‘말투’로 가려낸다</strong> </div> <p contents-hash="1a75cf53c14be20c9e141ac3a24d438cbb3238bad3fb43858e252994df1300b4" dmcf-pid="4ZLhS0Iiv2" dmcf-ptype="general">연구진이 이번 기술을 개발하게 된 배경에는 생성형 AI의 발전과 함께 커지는 여론 조작 우려가 있다. 실제로 연구진이 접근 가능한 댓글 데이터를 XDAC 기술로 분석한 결과, 전체 20만 건 중 약 2만 7000건이 AI가 생성했을 가능성이 있는 것으로 나타났다.</p> <p contents-hash="4dfa769b968282dd3faaba89960e987d00e2d0ccb6f6fb25f22f3b4b0ed26741" dmcf-pid="85olvpCnv9" dmcf-ptype="general">AI 기술이 고도화되면서 활용도는 높아지는 반면, 악용 가능성 역시 커지고 있다. 특히 공개된 LLM은 자체 GPU 인프라만 갖추면 사실상 비용 부담 없이 수백 건의 댓글을 빠르게 생성할 수 있다. 고우영 선임연구원은 “10초 만에 감정과 언어를 바꿔가며 360개의 댓글을 생성할 수 있고, 비용은 360원에 불과하다”며 “인간과 AI의 댓글을 점점 구별하기 어려운 수준에 이르고 있다”고 설명했다.</p> <p contents-hash="da4ccbce8043dfbf100fd783bd33e429b6fe79fe6c889c41be37e69e3741181c" dmcf-pid="6HiIhFsdCK" dmcf-ptype="general">이번 연구에서 팀은 실제 이용자 스타일을 모방해 한국어 AI 생성 댓글 데이터셋을 구성한 뒤, 설명 가능한 AI(XAI) 기법을 적용해 언어 표현을 정밀 분석했다. 그 결과, AI 댓글에는 사람과 구분되는 고유한 말투 패턴이 존재함을 확인했다. 예컨대 AI는 문장 구조가 명확하고 접속어를 자주 사용하는 반면, 실제 이용자는 반복 문자, 감정 표현, 줄바꿈 등 구어체 특성이 두드러지는 경향이 있었다. 또한 AI 댓글이 기사 내용을 더 충실히 반영하는 경향을 보인 점도 흥미로운 차이점으로 나타났다.</p> <figure class="figure_frm origin_fig" contents-hash="b868d766bfaa50599df591c9c77566cb533952dd064c2e18cafa0c196230b269" dmcf-pid="PXnCl3OJWb" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/02/Edaily/20250702102150207bjpv.gif" data-org-width="640" dmcf-mid="zQcYHByjWM" dmcf-mtype="image" height="auto" src="https://t1.daumcdn.net/news/202507/02/Edaily/20250702102150207bjpv.gif" width="640"></p> </figure> <div contents-hash="6c7ffbfdb89a3b7784c15535742052526604570276d55b1fd515c38380200ea5" dmcf-pid="QZLhS0IiyB" dmcf-ptype="general"> 또한 AI는 전 세계적으로 통용되는 표준 이모지(그림문자)를 주로 사용하는 반면, 실제 이용자는 한국어 자음이나 문화적 특수성이 담긴 특수문자를 더 자주 활용하는 점에서도 차이를 보였다. 연구팀은 이러한 차이를 포착하기 위해 줄바꿈, 공백 등 서식 문자와 반복 문자 패턴을 기계가 이해할 수 있도록 변환하는 알고리즘을 시스템에 적용했다. 또한 각 LLM의 말투 특성을 분석해 어떤 AI 모델이 댓글을 생성했는지도 식별할 수 있도록 설계했다. </div> <p contents-hash="4c5fd24ac2e57085ee7b5bde1e81113d9314d5fc6edc67c01f66b9260364fa8b" dmcf-pid="x5olvpCnlq" dmcf-ptype="general">이번 연구에는 오픈AI의 챗GPT, 구글의 제미나이, 중국의 큐웬(Qwen) 등 한국어 댓글 생성에 상대적으로 강점을 지닌 주요 LLM이 적용됐다.이 가운데 LG 엑사원 모델은 댓글 작성 레이블 재현율에서 88.7%의 높은 수치를 기록했고, 챗GPT는 레이블 예측 정밀도에서 86.3%로 우수한 성능을 보였다.</p> <p contents-hash="78fd5a079e378b582d917709382313a5712d25599223b8d1effef7ba5733a9b9" dmcf-pid="ynt8Pjf5Tz" dmcf-ptype="general">다만 이러한 탐지 원리를 역이용해 줄바꿈, 띄어쓰기, 특수문자 등을 인위적으로 조작하면 탐지율이 낮아질 수 있다는 한계도 있다. 고우영 선임연구원은 “한국인의 표현 패턴을 수작업으로 조건에 맞춰 입력하면 탐지가 어려워질 수 있다”면서도 “그럼에도 AI 악용을 억제하고, 악용 시 추가 작업이 필요하게끔 만드는 ‘심리적 저항선’을 형성했다는 점에서 큰 의미가 있다”고 강조했다.</p> <p contents-hash="b1d4fcc98dd1fe6b2d9e1c3dc2bc74dbdcda952a24145720da7dd31fcb872536" dmcf-pid="WLF6QA41l7" dmcf-ptype="general"><strong>“AI 댓글, 설득까지 가능할까”…KAIST, 댓글 탐지 기술 후속 연구 박차</strong></p> <p contents-hash="646d188e17dac238eba1b5b07f8468d77f942885d6f6815d817667a5fbc23a30" dmcf-pid="Yo3Pxc8tTu" dmcf-ptype="general">연구팀은 현재 기술의 확장 가능성을 놓고 후속 연구를 검토 중이다. 뉴스 포털뿐만 아니라 유튜브 등 동영상 플랫폼에 달린 댓글에도 이번에 개발한 탐지 프로그램을 적용하고, 시스템을 더욱 정교하게 고도화할 계획이다. 다만, 해당 플랫폼의 데이터 수집 권한 문제와 개인정보 보호, 정치적 민감성 등의 이슈로 인해 실질적 적용에는 한계도 존재한다.</p> <p contents-hash="14ded5520f80f5da8c81448202fad2c099738c4580db8dd883c963a67f35f833" dmcf-pid="Gg0QMk6FTU" dmcf-ptype="general">그럼에도 연구팀은 기술 적용 가능성을 높이기 위해 관련 기관 및 플랫폼 사업자들과의 논의를 이어가고 있다. 향후에는 댓글뿐 아니라 대댓글, ‘좋아요’ 등의 반응 요소까지 포함해 AI 에이전트의 행동 특성을 분석하고, 나아가 AI가 인간을 설득할 수 있는지 여부까지 실험할 계획이다.</p> <p contents-hash="1cff19be68ee85603b5b2060f617e71d868c2efca5b2dff991e55f4b9c2f715d" dmcf-pid="Hh6cEWj4lp" dmcf-ptype="general">김용대 KAIST 교수는 “LLM이 계속 진화하는 만큼 이번 연구는 그 첫걸음에 불과하다”며 “향후 상용화 가능성뿐만 아니라, AI가 사람의 생각을 변화시킬 수 있는지에 대한 근본적인 질문에도 답을 찾기 위해 후속 연구를 이어갈 것”이라고 밝혔다.</p> <p contents-hash="85164a4bdf2cdc19c4caf9be94d1347c11f47fb027130f68faf32ed0f2fc8bbc" dmcf-pid="XlPkDYA8S0" dmcf-ptype="general">강민구 (science1@edaily.co.kr) </p> </section> </div> <p class="" data-translation="true">Copyright © 이데일리. 무단전재 및 재배포 금지.</p> 관련자료 이전 추영우, '견우와 선녀'에 특별 감성 첨가…'애틋 OST' 발매 07-02 다음 방탄소년단 "'아미', 더 기다리지 않게… 너무 그리웠다" 완전체 컴백 예고 (종합) 07-02 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.