국가·공공기관 AI 도입 보안 가이드라인 나온다 작성일 11-30 10 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="xRH1fWhDO1"> <figure class="figure_frm origin_fig" contents-hash="434502a95f474afb57d973c045bbc31a265800be908c3f527aba0fe71adbc43c" dmcf-pid="yYdLCM4qD5" dmcf-ptype="figure"> <p class="link_figure"><img alt="ⓒ게티이미지뱅크" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/30/etimesi/20251130170302906enlg.jpg" data-org-width="700" dmcf-mid="QTLNvJQ9mt" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/30/etimesi/20251130170302906enlg.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> ⓒ게티이미지뱅크 </figcaption> </figure> <p contents-hash="0d837ab49f7c79151bdaa5b566561969b0cbff0ee531420276dcabd72df27e6b" dmcf-pid="WGJohR8BmZ" dmcf-ptype="general">정부가 국가·공공기관이 인공지능(AI) 시스템 도입 시 고려해야 하는 보안 사항을 담은 가이드라인을 발표한다.</p> <p contents-hash="4a395c40de126a2c1a7cf75edc0c8a08a00168d23c4e3c865357862431ac1353" dmcf-pid="YHigle6bwX" dmcf-ptype="general">가이드라인은 생성형 AI부터 피지컬 AI, AI에이전트 등 다양한 AI를 다루며 도입 시 위험 모델과 대응 방안을 제시한다.</p> <p contents-hash="339599cce1c46e55a5336d0ddc95f0bc34931ae7943f441b2842fb85464aa796" dmcf-pid="GXnaSdPKDH" dmcf-ptype="general">30일 정보보호산업계 등에 따르면, 국가정보원 국가인공지능안보센터가 최근 국가·공공기관의 AI 시스템 도입을 위한 가이드라인 초안을 제작했다. 앞서 국정원은 챗GPT 등 생성형 AI 열풍이 일자 공공분야의 생성형 AI 활용 보안 가이드라인을 2023년 6월 발표한 바 있다.</p> <p contents-hash="e315315148eaeb1a4f7350b8af174cebd839271f90da495428bd328a4b1d59d8" dmcf-pid="HZLNvJQ9OG" dmcf-ptype="general">올해 2월 공식 운영에 들어간 국가인공지능안보센터는 AI 관련 안보 위협에 선제적으로 대응하기 위한 곳으로, 국가·공공분야 AI 도입·활용 관련 보안정책 수립은 물론 AI 안보 위협 대응기술 개발, AI 위협정보 수집·분석·대응 등을 주요 업무로 한다.</p> <p contents-hash="869b36d58fbd7dde08feb3ee88d4f961b5cfca763bcd73a63c390e94d6dc0334" dmcf-pid="X5ojTix2OY" dmcf-ptype="general">우선 이번 가이드라인은 기관 내 AI 시스템을 자체 구축하거나 외부(민간) AI 시스템을 활용하는 등으로 나눴다.</p> <p contents-hash="9615c4c93e0823a3d11a259b785a457fa3342fa31c27f93c87ee4e791aaefe4d" dmcf-pid="Z1gAynMVDW" dmcf-ptype="general">특히 AI 시스템 도입 시 우려되는 위험 모델 20개와 함께 대응 모델을 도출했다. 데이터를 생성해 학습하고 궁극적으로 AI 시스템을 도입해 활용하는 과정에서 단계마다 어떻게 보안을 적용해야 하는지를 안내한다. 일례로 기관이 거대언어모델(LLM)을 활용할 시 내부기밀 유출 등을 막는 가드레일 기술을 적용해야 한다는 식이다.</p> <p contents-hash="5933ae9461902c1f032ee3433f1e8a418af23563234a9b9e047dde51c239af8e" dmcf-pid="5yRiOQV7wy" dmcf-ptype="general">정부가 추진하고 있는 국가망보안체계(N2SF)와 연계도 추진할 것으로 보인다. 정부는 획일적인 망분리에서 벗어나 업무 중요도에 따른 차등 보안 적용을 골자로 한 N2SF 전환에 나서고 있다.</p> <p contents-hash="e0627aa66637d373485b8308d50bd64d7400e2240d2b684ab889a43b783618f4" dmcf-pid="1WenIxfzsT" dmcf-ptype="general">국정원은 제도 이해를 돕기 위해 지난 9월 N2SF 보안 가이드라인 1.0을 공개했다. 가이드라인 부록에서도 11개 정보서비스 모델을 선정하고, 해당 서비스 구축 시 발생할 수 있는 보안 위협을 고려해 N2SF를 적용하는 방법론을 서술했다. 여기엔 업무환경에서 생성형 AI 활용, 공공 데이터의 외부 AI 융합 등 AI 관련 정보서비스 모델도 포함됐다.</p> <p contents-hash="c9aab86b5064e82cb4bde32bc538dbe157a2e6259f74cce0ec167495099d4d13" dmcf-pid="tYdLCM4qmv" dmcf-ptype="general">이번 가이드라인은 대통령실 국가안보실과 AI수석실 등 보고 후 이르면 올해 말 늦어도 내년 1월 공개될 것으로 관측된다. 나아가 내년 상반기 N2SF를 기반으로 한 AI 시스템의 보안통제 항목 매핑 작업도 이뤄질 전망이다.</p> <p contents-hash="4dee6eb7b1ae95b9ec80166ca14c648ea207a1c5c200162c8e344e9a41f41aab" dmcf-pid="FGJohR8BwS" dmcf-ptype="general">조재학 기자 2jh@etnews.com</p> </section> </div> <p class="" data-translation="true">Copyright © 전자신문. 무단전재 및 재배포 금지.</p> 관련자료 이전 “AI·로봇·헬스케어 품질 검증 리더로 도약...미래 산업 SW 품질 기준 선도” 11-30 다음 엔믹스 “팬들에게도 첫 콘서트, 선물 같은 무대 보여주고파” 11-30 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.