“AI로 생성된 결과물 1회 이상 고지 의무, 과도한 규제” 작성일 01-06 25 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">22일 AI 기본법 시행 앞두고 업계 우려 여전</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="Uw9AEoV7Wf"> <figure class="figure_frm origin_fig" contents-hash="e76d71930d41d2337379556fc791acd318b367cf013be6e94180edb9b0e99528" dmcf-pid="ur2cDgfzTV" dmcf-ptype="figure"> <p class="link_figure"><img alt="6일 서울 여의도 국회 의원회관에서 열린 AI 기본법 라운드테이블에서 참석자들이 기념 촬영을 하고 있다. [사진 = 정호준 기자]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/06/mk/20260106172102926siwn.jpg" data-org-width="700" dmcf-mid="0y6yGhgRT8" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/06/mk/20260106172102926siwn.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 6일 서울 여의도 국회 의원회관에서 열린 AI 기본법 라운드테이블에서 참석자들이 기념 촬영을 하고 있다. [사진 = 정호준 기자] </figcaption> </figure> <div contents-hash="a1eeeb67b237f52a7bb2b8093cc70c9e92785aa827b7eacd1dfd3f75624047fd" dmcf-pid="7mVkwa4qT2" dmcf-ptype="general"> ‘인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 AI 기본법)이 오는 22일 시행되는 가운데, 모든 AI 생성 결과물에 대해 음성 또는 문구로 안내하도록 하는 조항이 과도하다는 시각이 제기됐다. </div> <p contents-hash="0bfacf23e11ae3ba1f4b3e605ea62ee599ed5fc27f9662c6c788e29831f33e82" dmcf-pid="zsfErN8BT9" dmcf-ptype="general">최성진 스타트업성장연구소 대표는 6일 서울 여의도 국회 의원회관에서 열린 AI 기본법 라운드테이블에서 기본법의 주요 쟁점을 분석하며 “(생성형 AI 결과물에 대해) 기계 판독 방법을 적용할 때도 문구나 음성으로 1회 이상 안내하라는 것은 과도한 규제에 해당할 수 있다”고 지적했다.</p> <p contents-hash="f7706498ac6a3e9f847468c7caa1836770aabdd0091f3c2b9558346cd5f26925" dmcf-pid="qO4Dmj6bhK" dmcf-ptype="general">AI 기본법은 투명성 확보 의무 차원에서 AI 사업자가 AI 결과물에 생성형 AI를 통해 생성됐음을 표시하도록 한다. 비가시적 워터마크도 허용되지만, 시행령에서는 비가시 워터마크를 사용하는 경우에도 1회 이상 문구나 음성을 통해 안내하도록 규정하고 있다.</p> <p contents-hash="469f1f939029eb07107e97fba12807dccaa932274823cdbd5bf72e8fec5bfa10" dmcf-pid="BI8wsAPKlb" dmcf-ptype="general">이에 대해 최 대표는 “생성형 AI 결과물을 표시하는 과정에서 판독 가능성이 높은 기술적인 방법을 적용했음에도 추가적인 의무를 질 이유는 없다”며 “가시적인 라벨은 오히려 악의적인 이용자가 쉽게 삭제할 수 있는 만큼 사람이 인식 가능한 방법 위주 정책이 오히려 국민 보호 목적과 충돌할 수 있다”고 설명했다.</p> <p contents-hash="be1b04fc6e67fe344e3ffeeab38206f870cfa8c508757055ddb0b7a3087539f8" dmcf-pid="bC6rOcQ9hB" dmcf-ptype="general">최 대표는 또한 사람이 AI 생성물인지 헷갈릴 우려가 있는 딥페이크 생성물의 경우 ‘실제와 구분이 어려운 결과물 고지’라는 별도 조항이 있다며 모든 결과물에 위와 같은 의무를 부과하는 것은 과도하다고 지적했다.</p> <figure class="figure_frm origin_fig" contents-hash="8de0ccb2b24365caab4e21401ab3bc7bdba3f110605c2666360112a55a465af4" dmcf-pid="KhPmIkx2Cq" dmcf-ptype="figure"> <p class="link_figure"><img alt="정지은 코딧 대표(왼쪽 셋째)가 AI 기본법 라운드테이블에서 발언하고 있다. [사진 = 정호준 기자]" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/06/mk/20260106172104234xfpl.jpg" data-org-width="700" dmcf-mid="pZLyGhgRh4" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/06/mk/20260106172104234xfpl.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 정지은 코딧 대표(왼쪽 셋째)가 AI 기본법 라운드테이블에서 발언하고 있다. [사진 = 정호준 기자] </figcaption> </figure> <div contents-hash="5aa27d7e73348c52c60af76e3a871b6754a6f29fbcea8160d34027cc41779039" dmcf-pid="9MH8Q9Zvvz" dmcf-ptype="general"> 코리아스타트업포럼의 대외정책분과위원장을 맡고 있는 정지은 코딧 대표 또한 “크리에이티브 영역 등 비주얼 분야에서는 사용자 경험에 직접적인 영향을 미치는 의무”라며 “어떻게 이용자 경험도 잘 살리면서 표시할 수 있을지 해결점이 명확해야 한다”고 말했다. </div> <p contents-hash="dfa85321f0c6491d2e59858427f4b97f97f473a18c0574122260b348479ee6d9" dmcf-pid="2RX6x25TW7" dmcf-ptype="general">보다 강한 의무가 부과되는 고영향 AI, 고성능 AI에 대한 기준과 필요 조치에 대한 사업자의 애로 사항도 제기됐다. 고영향 AI는 사람의 생명·안전·기본권에 중대한 영향을 미치는 AI로, 이를 제공하는 사업자는 위험 관리 방안 수립 같은 의무를 이행해야 한다.</p> <p contents-hash="cae7dfd592edb33aa787638e4565845a757ec48ad93c4896f75230d5e806a4ec" dmcf-pid="VeZPMV1ySu" dmcf-ptype="general">정주연 스타트업얼라이언스 선임연구위원은 “고영향 AI 여부 확인을 정부에 요청할 때 학습 데이터의 개요를 제출하게 돼 있는데, 이는 과도한 의무로 작용할 수 있다”고 말했다.</p> <p contents-hash="959b535e9f5bd0fcff60a12227d5961049d2e71cbf680bff394ede931845beca" dmcf-pid="fd5QRftWSU" dmcf-ptype="general">최 대표는 “고영향 AI는 원자력, 자율주행처럼 규제와 관리가 엄격한 분야에 해당하는데 해당 분야의 안전 및 인허가 기준을 적합하게 개선하면서 AI 기본법에 적용되는 책무를 줄이는 방향도 가능하다”고 제안했다.</p> <p contents-hash="437d478fc1ac629f2ed4640d9469f06c63980968e81e40a9357b8dfe9f4e0713" dmcf-pid="4J1xe4FYTp" dmcf-ptype="general">정부는 기업의 애로사항과 요구를 최대한 반영하면서 국민이 AI에 대해 느끼는 불안도 함께 해소할 수 있도록 효율적으로 운영한다는 계획이다.</p> <p contents-hash="1e35f799ac90572a1cf555e7a0afe661fecb4dac9d0f66b17a867ebb72ddfc89" dmcf-pid="8itMd83Gl0" dmcf-ptype="general">최우석 과학기술정보통신부 인공지능안전신뢰과장은 “고영향 AI에 대한 규제 내용은 위험에 대한 관리를 요구하는 것이지 더 강한 제재는 아니다”며 “역차별 이슈는 당연히 생겨서는 안 되며 해외와의 상호 운용성도 고려해 운영할 예정”이라고 말했다.</p> <p contents-hash="b3e58409f04159e50346ca6741fbaa6caa7f0fdc84e682f7777ed07b74c175ec" dmcf-pid="6nFRJ60Hv3" dmcf-ptype="general">기업이 겪을 어려움 외에도 국민을 보호하기 위한 차원에서 AI 기본법을 봐야 한다는 목소리도 나왔다. 김형준 한국지능정보사회진흥원 AI법제도센터장은 “기업이 힘들고 괴롭더라도 보호할 것은 보호해야 한다”며 “고영향 AI 관련 의무는 이를 이용하거나 영향을 받게 되는 자를 위한 것”이라고 설명했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 매일경제 & mk.co.kr. 무단 전재, 재배포 및 AI학습 이용 금지</p> 관련자료 이전 한중 정상회담에 한한령 해제 기대 컸는데… 게임주는 '미지근' 01-06 다음 ‘극적 올림픽행’ 이해인 “아직 피겨가 너무 재밌고 위로가 된다” 01-06 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.