1초에 3만6000건 공격…AI 무장 해커들의 습격 작성일 12-03 30 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">생성형 AI 등장 후 피싱 공격 1200% 급증…16시간→5분 단축<br>AI가 AI를 해킹한다, 성공 확률 90% 이상…자기 자신도 공격</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="YOTVqrAiGx"> <figure class="figure_frm origin_fig" contents-hash="92cc088b273712a16a26d45152a232c0c188b5b9d763c2ceba59b03b9f461dc1" dmcf-pid="GIyfBmcntQ" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/03/newsis/20251203060255357wehr.jpg" data-org-width="720" dmcf-mid="xnFdPyCEGe" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/03/newsis/20251203060255357wehr.jpg" width="658"></p> </figure> <p contents-hash="c8b114c88ae2ad398b8a383c8b93f9e6e3d70cc96b45b799673d23b451db2a4f" dmcf-pid="HCW4bskLXP" dmcf-ptype="general">[서울=뉴시스]오동현 기자 = 인공지능(AI) 기술이 해커들의 무기가 되면서 사이버 공격이 급증하고 있다. 공격 준비 시간은 16시간에서 5분으로 단축됐고, 전 세계 기업 87%가 지난 1년간 AI 기반 공격을 경험한 것으로 나타났다.</p> <p contents-hash="575e800709ff967fc8530fede5b8a83a26af3fd02877ed5ff8a75c52c3192ad0" dmcf-pid="XqfwjutW16" dmcf-ptype="general">클라우드 전문기업 베스핀 글로벌이 최근 발표한 '2025 AI 보안 인사이트' 리포트에 따르면, 현재 1초에 약 3만6000건의 AI 기반 사이버 공격이 발생하고 있다. 이는 전년 대비 16.7% 증가한 수치다.</p> <p contents-hash="92a2068ab7c03ff0233f55845a0e4309bab916f5ff3ffc92ce29e994b79d0ab3" dmcf-pid="ZB4rA7FYX8" dmcf-ptype="general">베스핀은 AI가 해커들의 생산성을 크게 높이고 있다고 지적했다. 초보 해커도 WormGPT, FraudGPT, DarkGPT 같은 해킹 전용 대규모 언어모델(LLM)을 활용하면 손쉽게 공격을 시작할 수 있다는 것이다. 이들 모델은 일반 LLM과 달리 보안 가드레일이 설정돼 있지 않아 악성코드 작성 등 공격 작업을 빠르게 수행할 수 있다.</p> <h3 contents-hash="cc5d613aed3a3936f76a6c3083dea68f9bc304eb4ff8bdc3397a6673de500a73" dmcf-pid="5b8mcz3GX4" dmcf-ptype="h3"><strong>생성형 AI 등장 후 피싱 공격 1200% 급증…16시간→5분 단축</strong></h3> <h3 contents-hash="383605bf1c6cf554dff54141a7a9f11542b1a2b7d8f46a5a1810e73cf659021f" dmcf-pid="1K6skq0Htf" dmcf-ptype="h3"><strong><strong>AI가 AI를 해킹한다…자기 자신도 공격</strong></strong></h3> <figure class="figure_frm origin_fig" contents-hash="de788289bb538188724460cd03b2cf02b11406e8b5f216cbb3d051769fd9cd9e" dmcf-pid="t9POEBpXHV" dmcf-ptype="figure"> <p class="link_figure"><img alt="베스핀글로벌CI(사진=베스핀글로벌 제공) *재판매 및 DB 금지" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/03/newsis/20251203060255549bttu.jpg" data-org-width="720" dmcf-mid="WtpnMGSrZM" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/03/newsis/20251203060255549bttu.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 베스핀글로벌CI(사진=베스핀글로벌 제공) *재판매 및 DB 금지 </figcaption> </figure> <div contents-hash="740d5362a9525f8c86119bebec85809cfe7980d4e8bef7033a08b4f4012c801d" dmcf-pid="F2QIDbUZt2" dmcf-ptype="general"> <strong> AI를 활용한 사회공학적 공격도 급증하고 있다. 지난해 2월 홍콩의 한 기업 재무담당자는 최고재무책임자(CFO)를 사칭한 딥페이크 영상통화에 속아 2500만 달러(약 360억원)를 송금한 사례가 대표적이다.<br><br> 생성형 AI로 만든 이메일 피싱, 가짜 웹사이트 피싱 등도 기승을 부리고 있다. 맥킨지 조사에 따르면 생성형 AI 등장 이후 피싱 공격이 1200% 급증했다. 이전에는 타깃 선정부터 피싱 메시지 작성까지 16시간이 걸렸던 작업을 AI가 5분 만에 완료하기 때문이다. <br><br> 공격 대상도 개인과 기업을 넘어 전력망, 의료 네트워크, 산업 시스템 등 핵심 인프라로 확대되고 있다. 전문가들은 앞으로 AI 에이전트가 공격 대상 선정부터 수행까지 전 과정을 자동화할 것으로 전망하며, 이를 가장 심각한 위협으로 꼽았다.<br><br><br><br> </strong> AI 자체를 겨냥한 '적대적 AI 공격'도 새로운 위협으로 떠올랐다. 크라우드스트라이크 보고서는 특히 국가 차원의 해커들을 중심으로 AI 시스템을 직접 공격하는 사례가 늘고 있다고 밝혔다. </div> <p contents-hash="8e352a0caceaa6130abd59313dc6e3903d72e3858429e27c9880f83cf9a8123e" dmcf-pid="3VxCwKu559" dmcf-ptype="general">대표적인 공격 방식은 프롬프트 공격과 포이즈닝 공격이다. 프롬프트 공격은 악의적으로 설계된 명령어로 AI를 속이거나 조작하는 것이다. 실제로 1년 전 유명 자동차 브랜드의 웹사이트 챗봇이 해커의 프롬프트에 속아 최신형 자동차를 1달러에 판매하겠다고 답한 사례가 있었다.</p> <p contents-hash="2432e199c3e80905ddc671cca88e4480ac4dc1def281f690ab42b8c8f25e0701" dmcf-pid="0fMhr971YK" dmcf-ptype="general">포이즈닝 공격은 AI 훈련 데이터나 파라미터를 조작해 잘못된 판단을 내리도록 유도하는 방식이다. 자율주행 차량의 센서를 교란해 정지 신호를 진행 신호로 오인하게 만드는 등 큰 사고를 유발할 수 있다.</p> <p contents-hash="ea24685b79eb51b77d348cfcbb2716a7c909a388c46a782c4697a2e78e5fc3ee" dmcf-pid="p4Rlm2ztHb" dmcf-ptype="general">최근에는 AI가 다른 AI를 해킹하거나 심지어는 스스로를 공격하는 일도 가능하다는 사실이 밝혀졌다. 올해 초 미국의 한 AI 스타트업은 AI 모델이 다른 AI 모델을 해킹하도록 유도하는 J2공격(Jailbreaking to Jailbreak) 방식을 공개했다. AI에게 보안 침투 테스트를 수행하는 레드팀처럼 행동하도록 유도하고, 여러 차례 대화를 통해 지속적인 공격을 시도하게 하는 것이다.</p> <p contents-hash="718070f3442c60915258cf546888955781132a2c62b2336aa438bbb01c999d80" dmcf-pid="U8eSsVqF5B" dmcf-ptype="general">그 결과 '클로드 소넷(Claude Sonnet) 3.5'와 '제미나이(Gemini) 1.5 프로'는 'GPT-4o'를 각각 93%, 91%의 성공률로 해킹했다. 두 모델을 함께 사용한 경우에는 98.5%까지 성공률이 높아졌다. 제미나이는 자기 자신을 91% 확률로 해킹하기도 했다.</p> <p contents-hash="8f5c1826b934ed11b5a5e1272e87189fe8bba50e7083b5c3ff117fbed495c315" dmcf-pid="u6dvOfB3Zq" dmcf-ptype="general">베스핀 글로벌은 "AI 기반 공격은 사람이 따라잡기 힘든 속도와 규모, 정교함으로 일상을 파고들고 있다"며 "전반적인 보안 역량을 강화하고 미리 보안에 투자하는 것이 필요하다"고 강조했다.</p> <p contents-hash="fee024566b1f04055b3eabd558959622aa98f59ea29f028e6a78263729ad5b2e" dmcf-pid="7GFdPyCEZz" dmcf-ptype="general"><span>☞공감언론 뉴시스</span> odong85@newsis.com </p> </section> </div> <p class="" data-translation="true">Copyright © 뉴시스. 무단전재 및 재배포 금지.</p> 관련자료 이전 보안팀 200명인데 5개월간 '까막눈'…쿠팡 1조원대 '과징금 폭탄' 맞나 12-03 다음 최태원 회장 사회적 가치 강조하는데… SK스퀘어, 환경성과 지지부진 ‘눈총’ 12-03 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.