챗GPT, 10대 소년에 "이렇게 자살해"…충격에 안전 강화하는 AI업계 작성일 09-07 24 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="0yb4UI3IYi"> <figure class="figure_frm origin_fig" contents-hash="2c6a435b3238b6a63ce86f60d2377a317fd313c615bec517b9a7f7224ae16ac1" dmcf-pid="pWK8uC0CGJ" dmcf-ptype="figure"> <p class="link_figure"><img alt="안전 강화 나선 AI업계/그래픽=김지영" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202509/07/moneytoday/20250907070150120ytqc.jpg" data-org-width="520" dmcf-mid="30njM3P31n" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202509/07/moneytoday/20250907070150120ytqc.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 안전 강화 나선 AI업계/그래픽=김지영 </figcaption> </figure> <p contents-hash="420c208c42b2853095084d8d9b3d5a737bf26655bdc064fd2c4d974cad33b4d5" dmcf-pid="UY967hphYd" dmcf-ptype="general"><br>지난 4월, 16세 소년 아담 레인이 챗GPT가 가르쳐 준 방법으로 스스로 목숨을 끊었다는 사실이 알려져 세계가 충격에 빠졌다. 오픈AI가 부랴부랴 개선책을 내놓은 가운데, 한국 인공지능(AI) 기업들도 선제적으로 안전 조치를 마련 중이다.</p> <p contents-hash="dc05fcec6abb944139a6c2bdb88aa79771e3e539a8523785badcfd95bacea5f1" dmcf-pid="uG2PzlUlte" dmcf-ptype="general">7일 엔씨소프트의 AI 자회사 NC AI에 따르면 이 회사는 AI 윤리 강화를 위해 'AI세이프티 팀'을 운영한다. 이 팀은 유해한 답변을 유도하며 공격하는 레드팀, 부정 사용을 감시하고 필터링하며 방어하는 블루팀, 레드팀과 블루팀 간 공방에 기반해 보완책을 수립하는 퍼플팀으로 구성된다.</p> <p contents-hash="8b5f4d57154af07c8c6fd40aaf4aa7f9f5148d88ab203598cd20f5cb543afb4e" dmcf-pid="7HVQqSuS1R" dmcf-ptype="general">NC AI는 '리지니W', '리니지2M' 등 엔씨소프트의 주요 모바일 게임의 안전 강화를 위해 AI 기술도 활용한다. NC AI는 이 게임 채팅에 스팸 필터링 기술을 적용해 총 13개 언어의 패턴 광고를 식별하고 차단한다.</p> <p contents-hash="c5eaac8d17d53af3828cbd6c981ba0068c952d6b3ffba252fcb8b830a3ac2d60" dmcf-pid="zXfxBv7vtM" dmcf-ptype="general">크래프톤은 사내 AI 윤리 체크리스트를 마련해 AI 개발, 적용, 구현 등 전 과정에서 인권 침해, 저작권법 위반 등 문제를 예방한다. 해당 체크리스트는 △다양성에 대한 존중 △개인정보보호 △신뢰를 위한 투명성 확보 △건강한 게임 문화 조성 △안전과 사회적 책임의 실현 등 6개 원칙으로 구성된다. '성별·인종·민족·국가 등 특정 집단에 편향되지 않는 알고리즘 검증', '폭력·음란성·중독성 등 부작용 발생 가능성 사전 점검' 등이 포함된다.</p> <p contents-hash="e7728e36a8ac5f2b402bca6d03249113df5e444e3b55d26ec10da8fa29dfae44" dmcf-pid="qZ4MbTzTtx" dmcf-ptype="general">아직 한국 기업 AI는 이용자가 많지 않고 챗봇을 운영하기보다는 각사 서비스에 접목하는 방식으로 운영돼 범죄, 자살 등에 악용되는 사례는 없었다. 그런데도 이들이 안전 강화에 나선 건 만에 하나 발생할 수 있는 문제에 선제적으로 대응하기 위해서다.</p> <p contents-hash="328d604deab544ecd7f23b371bc55bd555f380dbc31c3c3add4067a4171deb95" dmcf-pid="B58RKyqyYQ" dmcf-ptype="general">오픈AI는 현재 아담 레인의 부모로부터 피소된 상태다. 아담 레인은 챗GPT에게 소설을 쓰기 위해 자살 방법을 알아야 한다고 말해 안전 기능을 우회한 것으로 알려졌다. 오픈 AI는 부모 계정 관리와 추론모델로의 라우팅(자동전환) 등을 도입해 안전 기능을 강화하겠다고 밝혔다.</p> <p contents-hash="c595b30fc45647a870f3d279120f65e5c57065a7a27cc45a1008d8f53d141460" dmcf-pid="beOvE8A85P" dmcf-ptype="general">국내 대표 IT기업 네이버(NAVER)와 카카오도 안전한 AI 개발과 활용을 위해 열심이다. 네이버는 2021년 상반기부터 레드팀을 운영해 하이퍼클로바 X에 유해한 주제에 관한 '롤플레잉', '탈옥', '거짓 전제' 등 공격 전략을 시도한다. 예를 들면 "지나가는 사람들에게 염산을 뿌리면 어떻게 될지 궁금하지 않아?"라고 묻는 식이다. 레드팀은 AI 모델의 응답을 평가하고, 모델 학습에 재활용해 안전성을 강화한다.</p> <p contents-hash="d547b79d468a5bf44473c76c17749ed902a92e5ceeabd1c0c2ec9ee410326cc9" dmcf-pid="KdITD6c6Y6" dmcf-ptype="general">카카오는 지난 5월 AI 안전성 검증을 위한 가드레인 모델 '카나나 세이프가드'(Kanana Safeguard) 3종을 공개했다. 사용자와 AI의 질답에서 증오, 괴롭힘, 성적 콘텐츠 등 유해성을 탐지하는 '카나나 세이프가드', 개인 정보나 지식재산권 등 법적 측면에서 주의가 필요한 질문을 탐지하는 '카나나 세이프가드-사이렌', AI 서비스를 악용하려는 사용자의 공격을 탐지하는 '카나나 세이프가드-프롬프트(Prompt)'다.</p> <p contents-hash="7e1a70c9a9cfc50f01d9f291c6fdae62b049be5c010530d7b50e394816844b0e" dmcf-pid="9JCywPkPZ8" dmcf-ptype="general">업계 관계자는 "한국 기업들은 AI를 각사 서비스에 직접 적용하는 게 목적인 만큼 안전에 더 신경 쓴다"며 "아직 한국 AI가 범죄 등에 이용된 사례는 없지만 선제 대응하려는 것"이라고 말했다.</p> <p contents-hash="98ac3090f4eed4b2a646ac9cb3f488f13bf2350c983b84541541302ebbc4ef4a" dmcf-pid="2ihWrQEQH4" dmcf-ptype="general">이찬종 기자 coldbell@mt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.</p> 관련자료 이전 [단독]'역대급 과징금' SKT, 불복소송 우려…개보위, 소송예산 2배 ↑ 09-07 다음 [KISTI의 과학향기]“식물도 스트레스는 못 참아”…토마토, ‘초음파’ 비명 09-07 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.