인공지능이 인류를 멸종시킬 수 있을까 작성일 07-02 24 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true"><font color="#333333">곽노필의 미래창</font><br> 미 랜드연구소, 진단 보고서 발표<br> 방법은 핵무기·팬데믹·지구공학 세 가지<br> 기술적으론 가능하나 인간 대응에 막힐 것</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="GwEzcTaV15"> <figure class="figure_frm origin_fig" contents-hash="d009958464bf75444e8acfb9004d622538f4b7b5b34b22f6b1c69f5f8654e81a" dmcf-pid="HrDqkyNf1Z" dmcf-ptype="figure"> <p class="link_figure"><img alt="미국 국가 안보 문제를 연구하는 랜드연구소가 인공지능에 의한 인류 멸종 가능성을 진단하는 보고서를 내놨다. 랜드연구소 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/02/hani/20250702093626684cfbl.jpg" data-org-width="800" dmcf-mid="y0ztnse7HF" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/02/hani/20250702093626684cfbl.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 미국 국가 안보 문제를 연구하는 랜드연구소가 인공지능에 의한 인류 멸종 가능성을 진단하는 보고서를 내놨다. 랜드연구소 제공 </figcaption> </figure> <p contents-hash="679d82f99b0868a27bc59656677dd43001cc737786185856691e73b560a3dfde" dmcf-pid="XmwBEWj4tX" dmcf-ptype="general"> 영화 ‘터미네이터’는 인공지능이 직접 인류 멸종을 시도하는 과정에서 벌어지는 인간과의 사투를 담고 있다. 이 영화에서 인공지능 방어 시스템 스카이넷은 핵전쟁을 일으켜 대부분의 인간을 없애버린 뒤, 살아남은 인간마저 제거하기 위해 터미네이터라는 로봇들을 보낸다. 스카이넷은 원래 군사 방어 목적으로 개발된 고도의 자율 학습 및 사고 능력을 갖춘 시스템이지만 스스로 지능을 발전시키면서 인류를 자신에게 위협적인 존재로 인식하게 됐다.<br><br> 영화 ‘매트릭스’에선 인공지능 기계들이 인간과의 전쟁에서 승리한 후, 인간을 에너지원으로 사용하기 위해 인공자궁에서 인간을 만들어 낸 뒤 매트릭스라는 가상현실 세계에 가둬 놓는다. 인간은 멸종된 것은 아니지만 사실상 기계의 노예로 전락한다.<br><br> 요즘 급속히 발전하고 있는 인공지능 기술은 인간의 수고를 한결 덜어주고 있지만 다른 한편에선 이들 SF영화에서 보는 것처럼 미지의 공포심을 야기한다.<br><br> 실제로 일부 인공지능 전문가들은 인공지능에 의한 인류 멸종 가능성을 이야기한다. 미국의 민간 싱크탱크인 예측조사연구소(forecasting research institute)가 2022년 실시한 설문 조사에서는 인공지능이 2100년까지 인류를 멸종시킬 확률이 1~6%로 나왔다.<br><br> 2024년 인공지능 전문가들이 “인공지능으로 인한 멸종 위험에 대한 대응을 팬데믹이나 핵전쟁 같은 위험과 함께 전 세계적인 우선순위에 둬야 한다”는 성명을 발표한 건 이런 분위기를 반영한다. 2024년 노벨상 수상자인 제프리 힌튼(물리학상), 데미스 허사비스(화학상)와 빌 게이츠, 샘 올트먼 등 IT업계 거물을 포함한 다수의 인공지능 전문가들이 서명에 참여했다.<br><br> 전문가들의 경고를 계기로 삼아 미국의 국가 안보 문제를 연구하는 랜드연구소가 인공지능에 의한 인류 멸종 가능성을 진단하는 보고서를 내놨다.<br><br></p> <figure class="figure_frm origin_fig" contents-hash="e0a8ddec1d583a9b2c0899a9c64cef044878b3a4d5a60c7b04c9062ce29d9aff" dmcf-pid="ZsrbDYA8YH" dmcf-ptype="figure"> <p class="link_figure"><img alt="전 세계 핵탄두는 현재 1만2천개로 추정된다. 랜드연구소 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/02/hani/20250702093628004mrsj.jpg" data-org-width="729" dmcf-mid="Wx9sbd7vYt" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/02/hani/20250702093628004mrsj.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 전 세계 핵탄두는 현재 1만2천개로 추정된다. 랜드연구소 제공 </figcaption> </figure> <p contents-hash="a50f09a8664df25831a473f467a47ecf71cd2dbb6a2a018bad3ce80148b3f456" dmcf-pid="5DwBEWj4tG" dmcf-ptype="general"><strong> 인류를 제거할 수 있는 세가지 방법</strong><br><br> 연구소는 일단 인공지능의 인류 멸종 위협 시나리오는 실현 불가능하다는 가설에서 논의를 시작했다. 가설의 근거는 세가지다. 첫째는 역사상 인간은 매우 놀라운 환경 적응력을 보여줬다. 둘째는 인류가 멸종되기에는 인구가 너무나 많아졌다. 전 세계에 80억명이 넘는 사람이 산다. 셋째는 이 많은 인구가 지구 전 지역에 흩어져 산다. 인공지능이 이렇게 넓은 지역에 사는 이렇게 많은 사람을 하나도 남김없이 제거하기는 어렵다.<br><br> 이런 악조건에서 인공지능이 인류를 멸종시킬 수 있는 방법이 있을까? 과학자, 엔지니어, 수학자로 구성된 연구진이 찾아낸 후보는 세 가지였다. 첫째는 핵무기 폭발, 둘째는 병원체에 의한 생물학적 위협, 셋째는 지구공학을 이용한 기후 재앙이다. <br><br> 하지만 결론은 ‘아니다’였다. 멸종 가능성을 배제할 수는 없지만 멸종에 이르기까지는 상당한 시일이 걸리기 때문에 인간이 이에 대응할 시간을 확보할 수 있다는 게 판단의 근거다.<br><br> 우선 핵무기의 경우를 보자. 현재 핵무기 보유국은 미국과 러시아, 중국을 비롯해 9개국이다. 이들이 보유한 핵탄두는 1만2천개가 넘는다. 보고서는 인공지능이 이들을 모두 발사하더라도 폭발, 방사능 낙진, 그로 인한 핵겨울은 인류를 멸종시킬 수준에는 미치지 못한다고 결론을 내렸다. 사람의 수가 너무 많고 너무 멀리 흩어져 살고 있기 때문이다.<br><br> 연구진은 인공지능이 초래할 핵 재앙은 엄청나지만, 지금의 모든 핵무기를 투하해도 공룡을 멸종시킨 운석만큼 많은 재를 발생시키지는 못할 것으로 예측했다. 그렇다면 인류는 살아남아 재건할 수 있다.<br><br> 병원체가 일으킬 팬데믹은 좀 더 위협적이었다. 가령 치명률이 99.99%인 병원체가 전 세계에 유행할 경우 80만명 남짓한 인간만 살아남을 것으로 예측됐다. 인공지능은 여기서 한 발 더 나아가 100% 치사율을 달성하도록 병원체를 설계할 수 있다. 또 이를 신속하게 전 세계로 확산시킬 수도 있다. 그러나 인간이 스스로 고립된 공동체를 만들어 방어할 경우엔, 인공지능이 이를 뚫고 들어갈 방책은 없다.<br><br> 지구공학을 이용한 기후 재앙은 어떨까? <br><br> 45억년 지구 역사에서 일어난 다섯번의 대멸종 사건의 원인은 모두 기후 재앙이었다. 그 중에서도 최악의 멸종 사건인 2억5200만년 전 ‘페름기 대멸종’은 일련의 화산 폭발로 분출된 이산화탄소, 메탄 등의 온실가스가 초래했다. 이때 지구 생물종의 90%가 사라지고 지구는 고생대에서 중생대로 넘어갔다.<br><br> 그러나 연구진은 지금과 같은 조건이라면 기후 변화가 인류 전체를 멸종시킬 만큼 심각한 위협은 되지 않을 것으로 진단했다. 인간은 극지방 이주를 포함해 생존을 위한 새로운 환경적 틈새를 찾아낼 가능성이 높다는 것이다.<br><br> 따라서 인공지능이 지구를 인간이 살 수 없는 곳으로 만들려면 이산화탄소보다 훨씬 더 강력한 온실가스를 대량 방출해 지구 기온을 높여야 한다. 예컨대 프레온 가스의 대체재인 수소화불화탄소(HFC), 플루오르포름(CHF3), 삼불화질소(NF3), 사불화탄소(CF4) 같은 슈퍼 온실가스가 동원돼야 한다. 이들 가스는 지구온난화지수(GWP)가 이산화탄소보다 수백~2만배 높다.<br><br></p> <figure class="figure_frm origin_fig" contents-hash="d5e8dbc9bfcac3ce759accbbb64b64bc55a606e910fdc9dee408374c5db1449e" dmcf-pid="1wrbDYA8tY" dmcf-ptype="figure"> <p class="link_figure"><img alt="인공지능이 아무리 발전해도 인간의 감시망을 피하긴 어렵다. 픽사베이" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/02/hani/20250702093629294uilt.jpg" data-org-width="800" dmcf-mid="YvbrqRUlX1" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/02/hani/20250702093629294uilt.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 인공지능이 아무리 발전해도 인간의 감시망을 피하긴 어렵다. 픽사베이 </figcaption> </figure> <p contents-hash="3947b391c3353d5c5fc54c886b852dbe932e04d97e748805838ce67bafe7e5c8" dmcf-pid="trmKwGc6GW" dmcf-ptype="general"><strong> 인공지능이 인간 감시망 피하긴 어려워</strong><br><br> 세 가지 멸종 방법에 대한 연구진의 최종 판단은 “기술적으론 가능한 시나리오이지만, 이것이 현실이 되려면 인공지능이 인간의 감시망을 피할 수 있어야 한다”는 것이다.<br><br> 인공지능이 인류를 멸종시키려면 좀 더 현실적인 조건이 갖춰져야 한다. 연구진은 이를 네 가지로 정리했다. 하나는 구체적인 멸종 목표다. 둘째는 핵무기 발사 통제 시스템이나 화학물질 제소 시설처럼 주요 시스템을 통제할 수 있어야 한다. 셋째는 인간이 방어를 하지 못하도록 오랫동안 자신의 행동과 계획을 숨겨야 한다. 넷째는 인간 없이도 스스로 생존할 수 있는 시스템을 갖춰야 한다.<br><br> 인공지능에 의한 인간 멸종의 마지막 관문은 이 네가지 능력을 모두 갖춘 인공지능을 인간이 만들 수 있느냐다. 연구진은 최근의 인공지능 에이전트 사례를 들어 단초는 나타났다고 밝혔다.<br><br> 그렇다면 인류의 안전을 위해 더 이상의 인공지능 개발을 중단해야 할까? 연구진은 ‘아니오’라고 답변했다. 불확실한 인류 멸종을 피하기 위해 인공지능을 포기하기에는 인공지능으로부터 얻는 이점이 너무나 크다는 것이다.<br><br> 연구진은 오히려 이번 연구를 통해 핵무기, 온실가스, 팬데믹을 통제하지 못할 경우 굳이 인공지능의 개입 없이도 인간 스스로 자멸할 수 있다는 걸 인식하게 됐다고 밝혔다.<br><br> *논문 정보<br><br> Could AI Really Kill Off Humans?<br><br> https://doi.org/10.7249/RRA3034-1<br><br> 곽노필 선임기자 nopil@hani.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 한겨레신문사 All Rights Reserved. 무단 전재, 재배포, AI 학습 및 활용 금지</p> 관련자료 이전 네이버 자율규제위 "커머스 정산 주기, 창작자 지원 등 우수" 07-02 다음 광주 세계양궁대회 조직위 “북한 선수단 초청 노력” 07-02 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.