가짜정보로 훈련시키는 'AI 그루밍' 확산 작성일 01-29 9 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">전세계 LLM 답변 오류 유발<br>대규모 조작으로 AI 학습 왜곡<br>편향 정보·가짜 판별도 어려워<br>선거 앞둔 韓, 여론조작 주의보<br>전문가 "완전 차단은 불가능<br>전세계 협력·검증기구 설치를"</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="GGJyoDLxSp"> <figure class="figure_frm origin_fig" contents-hash="7a3d77167b5ace750550655c26f679880fe7c4adab4987fbef3166ada187b9cb" dmcf-pid="HHiWgwoMl0" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/29/mk/20260129175421141djis.jpg" data-org-width="1000" dmcf-mid="Y5k3rvwaSU" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/29/mk/20260129175421141djis.jpg" width="658"></p> </figure> <p contents-hash="1912bf5da21b30525756baa88d06c213eb757c559a2c6a85d9fe4b01b12cec25" dmcf-pid="XXnYargRW3" dmcf-ptype="general">최근 생성형 인공지능(AI)이 존재하지 않는 정보나 공신력 없는 출처를 근거로 답변을 구성하며 잘못된 정보를 증폭시키는 사례가 잇따라 발생하고 있다. 단순한 답변 오류를 넘어 AI가 참고하는 인용·학습 체계 자체가 오염되고 있다는 지적이 나오면서 더 엄격한 관리와 검증 필요성이 제기된다.</p> <p contents-hash="4382b7aeac860fefc936884ddd95a0261f6116846ac6305b840eafe948f0c5aa" dmcf-pid="ZZLGNmaevF" dmcf-ptype="general">29일 미국 경제지 포천을 비롯한 외신에 따르면 최근 AI 탐지 기업 GPT제로 연구진은 지난해 세계 최고 권위의 신경정보 처리 시스템 학회인 '뉴립스(NeurIPS)'에서 채택된 논문 4841편을 분석한 결과 51편에서 총 100건의 잘못된 인용 사례를 확인했다고 밝혔다. 이들 오류는 대부분 생성형 AI 모델이 만들어낸 가짜 저자·학회와 제목, AI가 작성했다고 주장되는 텍스트로 구성된 것으로 분석됐다.</p> <p contents-hash="4744f292e330085eea8c768579f2ecdb6ad8e037e36273e3f368f1bb46c631a1" dmcf-pid="5qruIYOcht" dmcf-ptype="general">연구진은 "발표된 논문에는 무시할 수 없는 수준의 객관적 오류가 포함돼 있었다"며 "특히 이러한 문제는 해당 논문이 향후 다른 AI의 학습 자료나 연구 근거로 재활용돼 학계 전반에 거짓이 사실처럼 유통될 수 있다는 점에서 우려가 크다"고 지적했다.</p> <p contents-hash="b143ba74fb63495764fa2a588dd081ed620489bf52e8709df1b6f59cbe027c8e" dmcf-pid="1Bm7CGIky1" dmcf-ptype="general">이 같은 상황이 심화될 경우 여러 AI 모델이 동시에 사회 전체의 담론을 왜곡하는 이른바 'LLM(거대언어모델) 그루밍' 현상으로 이어질 수 있다. 다니엘 슈뢰더 노르웨이 과학산업기술연구재단(SINTEF) 연구원을 비롯한 전문가 22명은 최근 사이언스지에 발표한 논문에서 악성 AI가 인터넷에 허위 담론을 범람시켜 LLM의 학습 데이터 자체를 오염시키는 'LLM 그루밍' 현상이 민주주의에 대한 실질적 위협이 될 수 있다고 경고했다.</p> <p contents-hash="704a55807937a2bb1842c7fc726c84ecf1b5ec2993f5bc5eb3a791a84d064d42" dmcf-pid="tbszhHCEW5" dmcf-ptype="general">실제로 지난해 러시아가 유포한 친러 성향의 허위 정보가 여러 AI 서비스 답변에 반영된 사례가 있었는데 유사한 일이 반복되면 더 심각한 정보 왜곡으로 이어질 수 있다는 지적이다. </p> <p contents-hash="925268f0ebea5efe0b114645855f7c01c6373bc3d0b97a94bc529bbd3256d867" dmcf-pid="FKOqlXhDyZ" dmcf-ptype="general">전 세계적으로 사용되는 AI 모델에서도 신뢰하기 어려운 출처 인용 이슈가 이어지고 있다. 영국 일간지 가디언에 따르면 구글의 'AI 개요'는 건강 관련 검색에서 의료 전문 사이트보다 유튜브를 더 많이 인용한 것으로 나타났다. 오픈AI의 챗GPT 역시 논란에서 자유롭지 않다. 테크크런치에 따르면 최근 챗GPT가 일론 머스크가 관여한 보수 성향 AI 백과사전 '그로키피디아'에서 답변을 가져오는 사례가 종종 확인되고 있다. 그로키피디아는 과거 노예제 정당화 주장이나 트랜스젠더 비하 용어 사용 등으로 여러 차례 비판을 받은 바 있다.</p> <p contents-hash="baa6de593806474308315c2b10e21ccd27175e15635e0821f69beb04adf029c8" dmcf-pid="39IBSZlwCX" dmcf-ptype="general">이 같은 문제를 막기 위해 모델의 통제와 관리를 강화하는 '가드레일' 기술 등 관련 솔루션이 잇따라 등장하고 있지만, 실효성에는 회의적인 시각이 많다. 새로운 우회 기법이 계속 등장하는 데다 기술적으로도 미봉책에 가깝다는 이유에서다. 확률적 생성 구조를 기반으로 하는 LLM의 특성상 허위 정보나 편향된 인용을 완벽하게 차단하는 것은 사실상 불가능하다는 지적이다.</p> <p contents-hash="c468261b26d44eeedd2401b15fcecd5956f78021c523f29394e17e598e1bfbbe" dmcf-pid="02Cbv5SrhH" dmcf-ptype="general">이재성 중앙대 AI학과 교수는 "외부에서 검증할 수 있는 독립적인 기관에 대한 강화도 필요하다"고 덧붙였다. </p> <p contents-hash="57d4a3e108251c539413258f116abf718c6023d5701c84e8105bd34b9dcffa89" dmcf-pid="pVhKT1vmCG" dmcf-ptype="general">LLM 그루밍</p> <p contents-hash="d38a994a4324b83dc7987be1e5529c62e30cc99ce8e036b4cd6b33b6e6825393" dmcf-pid="Ufl9ytTslY" dmcf-ptype="general">특정 세력이 대량의 왜곡된 정보를 퍼뜨려 인공지능(AI)을 편향되게 학습시키는 것을 의미한다.</p> <p contents-hash="4794598f4581bd7284ac125b75047fd61f4c64bcb5fef97c0081b321b43da8dd" dmcf-pid="u4S2WFyOhW" dmcf-ptype="general">[안선제 기자]</p> </section> </div> <p class="" data-translation="true">Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지</p> 관련자료 이전 HBM서 갈린 운명… 멈춘 ‘삼성’, 달린 ‘SK하이닉스’ 01-29 다음 구글도 AI 브라우저 진출 … 제미나이 기능 대거 추가 01-29 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.