한국인 92%, AI 보안 맹탕?... 딥페이크 사기엔 45%가 속수무책 작성일 01-28 13 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="ffJXwbFYDl"> <p contents-hash="b2a96351b5f5fd5fa55ebc08f1c7f2f2c70f22d56478c9d3003c33dff4f31ff2" dmcf-pid="44iZrK3Gsh" dmcf-ptype="general"><strong>업무 생산성 도구가 정보 유출 구멍으로 전락 우려 <br>노드VPN, 안전한 AI 활용 위한 보안 수칙 제시</strong></p> <p contents-hash="4ad2e44bd115ebc3e3ee6ade7df9d00c5b926869c40b8fe1eeed83d18c92424e" dmcf-pid="88n5m90HOC" dmcf-ptype="general">[보안뉴스 조재호 기자] 업무 효율을 위한 AI 도구 사용이 일상화됐다. 하지만 10명 중 9명은 이 과정에서 발생할 수 있는 개인정보 침해 위험을 제대로 인식하지 못한 것으로 나타났다.</p> <figure class="figure_frm origin_fig" contents-hash="0b63851812fe4f836063a7e536ee573a69e3f5a21d630ac59966bba252215aa6" dmcf-pid="66L1s2pXII" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202601/28/552815-KkymUii/20260128114604707dpqo.jpg" data-org-width="750" dmcf-mid="VwwBYeV7IS" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202601/28/552815-KkymUii/20260128114604707dpqo.jpg" width="658"></p> </figure> <div contents-hash="e9b6236c727d7c5060428e1e969ccfd9eeddef675b7d87a0c73f5fc5afc61851" dmcf-pid="PPotOVUZmO" dmcf-ptype="general"> <div> <p>[출처: 노드VPN]</p> </div> <br>노드VPN(NordVPN)은 1월 28일 ‘데이터 프라이버시의 날’(Data Privacy Day)을 맞아 진행한 ‘국가 개인정보 테스트’(National Privacy Test, NPT) 분석 결과를 발표했다. 조사 결과에 따르면 한국인의 92%는 업무에서 AI를 사용할 때 고려해야 할 개인정보 보호 요소를 충분히 인식하지 못하고 있는 것으로 드러났다. </div> <p contents-hash="816231c880c5bf05c156d86c9d144416577c9235858140c99d50da50c6029112" dmcf-pid="QQgFIfu5ws" dmcf-ptype="general">최근 챗GPT나 코파일럿 같은 생성형 AI 도구가 사용이 늘어나고 있다. 이 과정에서 기업의 기밀 정보나 업무 관련 데이터가 무심코 입력돼 노출되는 사례가 증가하고 있음에도, 데이터의 저장 및 활용 방식에 대한 사용자의 이해도는 여전히 낮은 실정이다.</p> <p contents-hash="0f02096d3190613aa091887015438561626663734d5ecc598ff21a3bbc392cdc" dmcf-pid="xxa3C471sm" dmcf-ptype="general">AI 보안 불감증은 업무 환경뿐만 아니라 일상적인 사이버 위협 대응에서도 확인됐다. 이번 조사에서 한국인의 45%는 딥페이크나 음성 복제 등 AI 기술을 악용한 사기를 정확히 구별하지 못하는 것으로 나타났다. AI 기술이 고도화되면서 실제 인물과 구분하기 어려운 영상과 음성 구현이 가능해졌고, 이를 악용한 사기 수법 또한 정교해지고 있기 때문이다.</p> <p contents-hash="7c218c315c93577cb44f8695c9aa0761fbb00303ee077045c1d5d9ecf6f267a9" dmcf-pid="y39sJZlwEr" dmcf-ptype="general">실제로 노드VPN의 연구 결과에 따르면, 최근 2년간 3명 중 1명은 온라인 사기를 경험했으며, 이 중 49%는 금전적 피해까지 입은 것으로 조사됐다. 노드VPN 측은 2026년에는 AI 기반 공격이 주요 사이버보안 위협으로 부상할 것이라고 경고했다.</p> <p contents-hash="a14cbf8cdbb7e23c4f78c7e527a4f1db74088d81c01e53fa555e7352186bc132" dmcf-pid="W02Oi5SrEw" dmcf-ptype="general">이에 노드VPN은 AI 시대의 개인정보 노출 위험을 줄이기 위해 기술적 조치뿐만 아니라 사용자의 보안 원칙 준수가 필수적이라고 강조했다. </p> <p contents-hash="0ccef8586a0932d7b65cd6f8d7c5accefa2e15157378f66353e7bc958fc58f01" dmcf-pid="YpVIn1vmsD" dmcf-ptype="general">구체적인 보안 수칙으로는 △회사 기밀 및 고객 정보 입력 금지 △AI 대화 내용의 기록·저장 가능성 인지 △조직 차원의 AI 사용 정책 사전 확인 △예상치 못한 금전 정보 요청 경계 △보안 소프트웨어의 최신 상태 유지 등을 권고했다.</p> <p contents-hash="2b7ab9fdd79f1e0493807ad7b21d31e4f4797c2699754ccdc782d61385c474b9" dmcf-pid="GUfCLtTssE" dmcf-ptype="general">마리우스 브리에디스 노드VPN 최고기술책임자(CTO)는 “AI 도구는 동료와의 대화와 달리 기록되고 분석될 수 있으며, 향후 모델 학습에 활용될 가능성도 있다”며 “직원들이 고객 정보나 내부 전략 등을 무심코 AI에 입력할 경우, 자신도 인식하지 못한 사이에 치명적인 보안 취약점이 발생할 수 있다”고 말했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 보안뉴스. 무단전재 및 재배포 금지.</p> 관련자료 이전 [스타트업 브랜딩 가이드] 브랜딩은 ‘멋’이 아니라 선택과 신뢰를 만드는 구조다 01-28 다음 '또 논란' UFC 이게 맞나? '대놓고 눈 찌르기' 추잡한 반칙→챔피언 수술대... "감점도 없었다" 01-28 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.