아동 성착취 이미지 생성·유포하는 xAI '그록'…각국 조사 착수 작성일 01-06 30 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="KRYVZvjJWw"> <p contents-hash="71528964abbc34dd6b2297088f3b8c3b3a64324a40d4127d9fd43c973ed318d1" dmcf-pid="9eGf5TAiCD" dmcf-ptype="general"><strong>머스크 xAI 개발 챗봇 '그록', 아동 성착취 이미지 생성·유포<br> 영국, 인도, 말레이시아, 프랑스 등 각국 긴급 조사 등 착수</strong></p> <p contents-hash="34d829274d34bdc0230c560529d66ebb8b1ff3d97d0a076eacabf76febc806bc" dmcf-pid="2dH41ycnWE" dmcf-ptype="general">[미디어오늘 <span>윤유경 기자</span>]</p> <figure class="figure_frm origin_fig" contents-hash="4a8b2a4b1594a5279491fd22cb37986b6e966cb474b87ec22e060e87174f51d6" data-idxno="473415" data-type="photo" dmcf-pid="VJX8tWkLyk" dmcf-ptype="figure"> <p class="link_figure"><img alt="▲ 일론 머스크. 사진=flickr" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/06/mediatoday/20260106164543303wcrv.jpg" data-org-width="600" dmcf-mid="bgRIiPpXvr" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/06/mediatoday/20260106164543303wcrv.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> ▲ 일론 머스크. 사진=flickr </figcaption> </figure> <div contents-hash="2cfd4b07fd4d82c68fdf74cbbe8edecb8e0fe35ab530efd50e5084723f644cdc" dmcf-pid="fiZ6FYEoSc" dmcf-ptype="general"> <p>일론 머스크 테슬라 최고경영자의 인공지능(AI) 기업 xAI가 개발한 챗봇 '그록'(Grok)에 아동·청소년과 여성을 대상으로 한 성착취 이미지가 계속해 생성·유포되고 있고 있어 비판이 거세다. 영국, 인도, 말레이시아, 프랑스 등 세계 각국은 이번 사태를 심각하게 보고 조사 등 대응에 나서고 있다.</p> </div> <p contents-hash="e4f0990dbb7fb46b327f87246fe91d9c4f9f2d3daa274e666a5f5d085d72b4e0" dmcf-pid="4n5P3GDgSA" dmcf-ptype="general">BBC, 가디언 등 외신 보도에 따르면, 영국 미디어 규제기관 오프콤(Ofcom)은 지난 5일(현지시간) “X와 xAI에 긴급 연락을 취해 영국 내 사용자 보호라는 법적 의무를 이행하기 위해 어떤 조치를 취했는지 파악 중”이라고 밝혔다. 오프콤은 답변을 바탕으로 조사 필요성을 판단할 것이라도 설명했다. 유럽연합 집행위원회(European Commission)도 같은 날 그록이 아동 등을 대상으로 성적 이미지를 생성·유포하는 데 사용되고 있다는 신고를 “매우 심각하게” 조사 중이라고 밝혔다.</p> <p contents-hash="e37d92f1817374b193484f555cf30d33228c87c2558d2367e0dd1a2ca56ba791" dmcf-pid="8L1Q0Hwavj" dmcf-ptype="general">이번 조사는 지난 몇 주 동안 그록을 이용해 아동, 여성의 성착취 이미지를 생성하고 공유하는 사례가 전 세계적으로 급증한 데 따른 것이다. xAI의 이용 약관상 '음란한 방식의 인물 묘사'는 금지돼있으나 사용자들은 그록을 이용해 AI로 미성년자 성착취 이미지를 계속해 생산할 수 있었고, 비키니 수영복을 입은 아동 이미지, 1~2세 영유아로 보이는 아동 사진도 포함됐다. 많은 여성들은 자신도 모르는 새 생성·유포된 성착취 이미지를 발견한 후 엑스(X·옛 트위터)에서 분노를 표출했다.</p> <p contents-hash="4def12f99d24f91981595310d0c6cdb89de75e3a064a93dd43564d597112fd3e" dmcf-pid="6N0e71OcWN" dmcf-ptype="general">그록은 지난 2일(현지시간) X 계정을 통해 “일부 이용자들이 미성년자에게 최소한의 옷만 입히도록 한 AI 이미지를 요청해 실제 만들어진 사례들이 존재한다”며 이용자 요청이 있어도 아동 성착취물이 생성되지 않도록 막는 기술적 안전장치에 허점이 있었음을 파악해 수정 중이라고 밝혔다.</p> <p contents-hash="c7722514792caf7dbf3774d64be90957a587e5bce2ff22fd820ba34256e3ac4f" dmcf-pid="PjpdztIkWa" dmcf-ptype="general">X측은 “아동 성착취물을 포함한 불법 콘텐츠에 대해 삭제 조치, 계정 영구 정지, 필요 시 지방 정부 및 법 집행 기관과의 협력을 통해 대응하고 있다”며 “그록을 이용해 불법 콘텐츠를 생성하거나 생성을 유도하는 경우에도 불법 콘텐츠를 직접 업로드한 것과 동일한 결과를 초래한다”고 경고했다.</p> <p contents-hash="5bb00121a043251d032db42d9c56608a9fde32fae767ddcd084666d89a6bb4e1" dmcf-pid="QAUJqFCElg" dmcf-ptype="general">안전장치상의 문제라는 설명에도, 그록이 그간 성적 콘텐츠를 허용하는 방식으로 이용자를 늘려왔다는 비판이 나온다. 지난해 8월엔 이미지·영상 생성 모델을 출시하면서 성적인 이미지를 생성할 수 있는 소위 '스파이시 모드'(Spicy Mode)를 내놓아 딥페이크 생성 도구가 되고있다는 비판을 받았다. 지난달엔 '이미지 편집' 기능을 새로 추가하면서 문제제기가 쏟아졌다. 해당 기능은 이용자가 다른 이용자의 사진·그림에 대해서도 AI로 변형된 이미지를 만들 수 있도록 했기 때문이다. </p> <p contents-hash="2cdeafb5dabe9a54a592530485b636f1e5b75ddc40bb2d467a4f11f06f729c4d" dmcf-pid="xcuiB3hDho" dmcf-ptype="general">파리에 기반을 둔 비영리 단체 AI 포렌식스(AI Forensics) 연구진은 지난달 25일부터 1월1일까지 일주일 간 X에서 그록에 대한 5만 건의 언급과 그록이 생성한 2만 장의 이미지를 분석했다. 그록이 언급된 내용 중 최소 4분의 1은 이미지 생성을 요청하는 내용이었고, 프롬프트(생성형 AI에 쓰는 명령어)에는 “그녀”, “입히다”, “벗기다”, “비키니”, “의복” 등의 용어가 빈번하게 등장했다. 생성된 이미지의 절반 이상이 속옷, 비키니 수영복 등 '최소한의 복장'을 한 인물이었으며 대부분 30세 미만으로 보이는 여성이었다. 연구진은 소수 이미지는 18세 이하로 보이는 인물들이었고 일부는 5세 미만 어린이를 묘사했다고 설명했다. </p> <p contents-hash="04f11e25e18ba35a14eccb95aa38f2797cc492339aa630c73f289a312472ee1b" dmcf-pid="yucZwa4qhL" dmcf-ptype="general">인도 전자정부기술부는 지난 1일(현지시간) X에 공문을 보내 그록으로 인한 아동·여성 대상 성적 이미지에 대해 조치를 취하고 결과 보고서를 제출하라고 요구했다. 프랑스 당국도 그록에서 생성한 성착취 이미지를 확산하도록 둔 점이 유럽연합(EU)의 디지털서비스법(DSA)을 위반했을 것으로 보고 이번 사건에 대한 조사를 시작하겠다는 방침이다.</p> <p contents-hash="dd4813c497013313aebaaca0b8915bd7b6271761dd8fe7b9ce64cb443eccf739" dmcf-pid="W7k5rN8BCn" dmcf-ptype="general">말레이시아 통신멀티미디어위원회(MCMC)도 X에서 벌어지는 온라인 유해 콘텐츠를 조사 중이며 회사 관계자를 소환할 것이라고 밝혔다. MCMC는 성명에서 “말레이시아에서 접근 가능한 모든 플랫폼, 특히 AI 기반 기능, 챗봇, 이미지 조작 도구와 관련해 말레이시아 법률 및 온라인 안전 기준에 부합하는 안전장치를 구현할 것을 촉구한다”고 밝혔다. </p> </section> </div> <p class="" data-translation="true">Copyright © 미디어오늘. 무단전재 및 재배포 금지.</p> 관련자료 이전 엔비디아·우버도 참전… 정전·폭우에 멈춰서도 로보택시 시장 올해 ‘변곡점’ 01-06 다음 '스포츠 전문 채널' STN 방송, '20년 이상' B2B 향기 관리 전문가와 마케팅 MOU 체결 01-06 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.