AI 거물들 “메모리가 최대 병목...메모리 중심 구조로 AI 효율화” 작성일 03-24 39 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="p5R1OHb0Gg"> <figure class="figure_frm origin_fig" contents-hash="ea6a978048b066177c55e6c7648b6ea117894dedb2b3725710117b44cc520a2e" dmcf-pid="U1etIXKp5o" dmcf-ptype="figure"> <p class="link_figure"><img alt="미국 인디애나주 뉴칼라일에 있는 아마존웹서비스(AWS)의 인공지능(AI) 데이터센터. 글로벌 빅테크와 스탠퍼드대 등 연구진은 AI 개발에서 하드웨어의 한계가 명확해지고 있다고 지적했다. /로이터 연합뉴스" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/24/chosun/20260324060305220xeig.jpg" data-org-width="4768" dmcf-mid="F5AbH7MVtj" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/24/chosun/20260324060305220xeig.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 미국 인디애나주 뉴칼라일에 있는 아마존웹서비스(AWS)의 인공지능(AI) 데이터센터. 글로벌 빅테크와 스탠퍼드대 등 연구진은 AI 개발에서 하드웨어의 한계가 명확해지고 있다고 지적했다. /로이터 연합뉴스 </figcaption> </figure> <p contents-hash="4f788ba1d0bfee49207f6c3c8741d18c70c57ec56850c95751afd972d1ea90ec" dmcf-pid="utdFCZ9UYL" dmcf-ptype="general">“최첨단 인공지능(AI) 모델은 이전보다 훨씬 더 많은 에너지와 메모리를 요구한다. AI의 발전을 가능하게 했던 바로 그 시스템들이 이제는 기존 하드웨어 패러다임의 물리적·구조적·경제적 한계에 직면하고 있다”</p> <p contents-hash="c7cfe20d56618c263f518dd0cb6060eef5631264fc20066ed4e08f35c59cd9c3" dmcf-pid="7FJ3h52uGn" dmcf-ptype="general">AI가 모든 일상 영역에 녹아드는 시대가 현실화했지만, 가장 큰 문제가 남아 있다. 바로 ‘효율성’이다. AI 모델의 발전 속도는 날로 가속화하고 있지만 이를 지원하는 반도체 등 하드웨어의 발전 속도는 이에 못 미치고 있다. 첨단 AI 모델을 학습시키는 데는 수백 가구가 사용하는 전기가 필요하다. AI 혁명이 물리적인 제한으로 한계에 이를 수 있다는 것이다.</p> <p contents-hash="bce200979946d03316fd7c1d06ff75cbe23b1e4a3350735ae5771dbc3a0e8c7c" dmcf-pid="z3i0l1V71i" dmcf-ptype="general">미국 스탠퍼드대, UCLA와 구글, 오픈AI, 엔비디아, SK하이닉스 등 글로벌 빅테크 및 반도체 기업 연구진이 향후 10년간 AI와 하드웨어의 효율화를 이끌기 위한 AI 백서 ‘AI+HW 2035′를 최근 공개했다. AI 4대 구루(스승)로 불리는 얀 르쿤 뉴욕대 교수뿐 아니라, 각 빅테크의 AI 인프라 담당자 등 AI 인프라의 거물들이 모여 쓴 로드맵이다. 이들은 AI 개발에 패러다임 전환이 필수적이라며, AI와 하드웨어를 연계한 발전을 통해 향후 10년간 AI의 에너지 효율을 1000배 늘릴 수 있다고 주장했다.</p> <p contents-hash="b691aa0333fb978c5408925bca9869731edd4849c112037c9ac55d9e65d01bc2" dmcf-pid="q0npStfzGJ" dmcf-ptype="general">◇AI 최대 병목은 ‘메모리 장벽’</p> <p contents-hash="9af844070cc41d6856ddb1acf86a0055b7d4149c33621bd9794dd10af86f9101" dmcf-pid="BpLUvF4qYd" dmcf-ptype="general">보고서가 꼽은 현재 AI 산업의 가장 큰 문제는 ‘메모리 장벽’이다. 현재 AI 시스템은 GPU 등 연산 장치와 메모리가 분리된 구조로, 연산에 필요한 데이터를 메모리에서 GPU로 계속 이동시켜야 한다. 문제는 이 같은 데이터 이동이 연산보다 더 많은 전력을 소모한다는 점이다. 이 같은 메모리 장벽 문제는 AI 모델의 발전으로, 점차 처리하는 데이터가 많아지면서 더욱 심화하고 있다. 이로 인한 전력 문제도 심각하다. 연구팀은 5년 이내에 미국에서 전력 부족 사태가 발생하며 AI 도입에 제약을 줄 것이라고 예측하며, 미국은 전력 가용량 면에서 중국에 크게 뒤처져 있다고 지적했다.</p> <figure class="figure_frm origin_fig" contents-hash="2838f703e14a2837fe1d874f742cd3b8d4e34728169046c6020f9868d415e200" dmcf-pid="bUouT38BHe" dmcf-ptype="figure"> <p class="link_figure"><img alt="미국과 중국의 연도별 전력 생산량 비교. /AI+HW 2035 논문" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/24/chosun/20260324060306807kmyh.jpg" data-org-width="989" dmcf-mid="3KNqYUQ9GN" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/24/chosun/20260324060306807kmyh.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 미국과 중국의 연도별 전력 생산량 비교. /AI+HW 2035 논문 </figcaption> </figure> <p contents-hash="2389439bd0a3ee456b9b409677a2b36c0eef03de3980c7c18409195c22bd7d02" dmcf-pid="Kl9SNItWtR" dmcf-ptype="general">게다가 현재 AI 알고리즘과 반도체의 개발 주기가 맞지 않는 ‘미스매치’ 문제가 심화하고 있다. AI 모델은 몇 달마다 새 모델이 나오며 발전하는데, 이를 뒷받침할 하드웨어 칩을 설계하고 생산해 인프라를 구축하는 데는 수년이 걸린다는 것이다. 구식 하드웨어에 최신 AI 모델을 억지로 끼워 맞춰야 하는 셈이다. 보고서는 “실제 배포 환경에서 시스템은 5~20%의 활용률로만 작동한다”고 했다.</p> <p contents-hash="e8e967b8e4879d9b35d0034e423586be9507f29cc1f7537f37c6688374179d13" dmcf-pid="9S2vjCFYGM" dmcf-ptype="general">◇AI, 하드웨어와 함께 설계돼야</p> <p contents-hash="89471c551027b000c4cde848fa3265c3ae85c15588167dff49dada041955a612" dmcf-pid="2vVTAh3GYx" dmcf-ptype="general">보고서는 앞으로의 AI 확장은 무조건 컴퓨팅 성능을 높이는 것이 아니라, 컴퓨팅 효율을 높이는 방향으로 이뤄져야 한다고 지적한다. 에너지 1줄(Joule)당 발생하는 지능을 극대화해야 한다는 것이다. 이를 위해서는 AI와 하드웨어의 공동 설계가 필수적이라는 제언이 나왔다. 칩의 물리적 설계와 소프트웨어 알고리즘이 서로 피드백을 주며 톱니바퀴처럼 함께 진화하는 방향으로 기술이 개발돼야 한다는 것이다.</p> <p contents-hash="0a1c81ecd42a084b79ddc57807d1f4bf4949644f0b9c18ab6378f45339c08f9e" dmcf-pid="VTfycl0HtQ" dmcf-ptype="general">연구팀은 AI 구조가 현재의 연산 중심에서 메모리 중심으로 전환돼야 한다고 봤다. 메모리 자체가 연산 일부를 수행하는 ‘컴퓨팅 인 메모리(CIM)’ 구조로 바뀌어야 한다는 것이다. CIM은 연산부와 메모리를 물리적으로 밀착시켜 데이터 이동 비용을 줄인 기술이다. 지금은 창고(메모리)에서 물건(데이터)을 공장(프로세서)으로 트럭에 실어 보내서 조립하는 방식이지만, 창고 안에서 바로 조립을 하게 되면 물류 비용이 줄어든다는 것이다. GPU 등 연산 장치와 메모리 등을 3D로 쌓는 적층 방식 역시 해결 방안으로 제시됐다.</p> <p contents-hash="134841862f3eb2c56b4cd3b01b254b3f59beb9a38ca06f0a68cd6c625116c3aa" dmcf-pid="fy4WkSpXZP" dmcf-ptype="general">AI 모델 역시 지금처럼 ‘크기가 커지면 성능이 좋다’는 차원에서 벗어나, 작고 특화된 모델이 더 높은 정확도와 효율성을 보일 수 있다는 전망이다. 연구팀은 AI 알고리즘 최적화(10배), 하드웨어 발전(20배), 전력·냉각 등 시스템 발전(5배)의 결합을 통해 에너지 대비 AI 효율이 2035년까지 1000배 증가할 수 있다고 전망하고 있다.</p> <p contents-hash="d3e4d2d1bce8ac2bfb796e975558da1786fc9bd0ec003f616b35314ed4318b34" dmcf-pid="4W8YEvUZG6" dmcf-ptype="general">◇K-메모리 중요도 더 커져</p> <figure class="figure_frm origin_fig" contents-hash="041f00554bf98b4ae62eabeb1cb7005d943d9d4a2eb76a2308be17074a510f9f" dmcf-pid="8Y6GDTu518" dmcf-ptype="figure"> <p class="link_figure"><img alt="16일부터 19일(현지시간)까지 미국 새너제이에서 열리는 엔비디아 GTC에 전시된 삼성전자 HBM4E. /삼성전자" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/24/chosun/20260324060308123owss.jpg" data-org-width="1847" dmcf-mid="0W7siDGh5a" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/24/chosun/20260324060308123owss.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 16일부터 19일(현지시간)까지 미국 새너제이에서 열리는 엔비디아 GTC에 전시된 삼성전자 HBM4E. /삼성전자 </figcaption> </figure> <p contents-hash="b36df80040bd8e334da38e995a4e814691da3661623ed9d456aec9e30f50b535" dmcf-pid="6GPHwy7114" dmcf-ptype="general">결국 향후 10년의 AI 시스템 발전은 “데이터를 얼마나 적게 이동시키고, 메모리와 연산 장치를 얼마나 긴밀하게 하나로 융합할 수 있는가”에 달려 있다는 진단이다. 메모리와 연산을 결합하는 구조가 중요해지면서, 고대역폭 메모리(HBM) 등 AI 메모리에서 확고한 입지를 가진 삼성전자와 SK하이닉스가 앞으로도 주목을 받을 수 있는 것이다.</p> <p contents-hash="f8df34d355c04b996ff636b104814227b0279e7a2d63be6494d6c69028c5d674" dmcf-pid="PHQXrWzttf" dmcf-ptype="general">국내 메모리 기업들은 이미 연산 기능을 탑재한 메모리와 3D 적층 기술 개발에 나섰다. 삼성전자는 GPU와 같은 계산용 칩에 HBM을 3D 기술로 수직 적층해 연결하는 zHBM, 고객사 요구에 맞게 연산 능력을 베이스다이로 일부 옮기는 커스텀 HBM을 개발하고 있다. SK하이닉스 역시 커스텀 HBM과 함께 AI에 특화한 범용 D램과 낸드플래시를 개발하고 있다.</p> </section> </div> <p class="" data-translation="true">Copyright © 조선일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 "말 뒷다리가 3개네"...펄어비스, '붉은사막' AI 사용 미고지로 곤혹 [1일IT템] 03-24 다음 [비즈톡톡] AI 칩 다음은 ‘가상 공장’… 삼성·SK·현대차·LG가 꽂힌 엔비디아 옴니버스 03-24 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.