엔비디아·딥시크·화웨이도 ‘메모리 효율화’ 경쟁 작성일 03-28 37 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">외장하드처럼 외부에 놓고 쓰거나<br>데이터 중요도 따라 쪼개서 저장</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="W5rczOMVGf"> <figure class="figure_frm origin_fig" contents-hash="16a54a53d1846e53c5487b555e3f37227b34f74209e7956d5718f35c9ac5fb63" dmcf-pid="YFODbhd8HV" dmcf-ptype="figure"> <p class="link_figure"><img alt="지난해 10월서울 강남구 코엑스에서 열린 제27회 반도체 대전(SEDEX 2025)에 전시된 SK하이닉스의 6세대 고대역폭메모리(HBM4). /뉴스1" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202603/28/chosun/20260328005702867wnpb.jpg" data-org-width="4888" dmcf-mid="ybDjumQ9Z4" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202603/28/chosun/20260328005702867wnpb.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 지난해 10월서울 강남구 코엑스에서 열린 제27회 반도체 대전(SEDEX 2025)에 전시된 SK하이닉스의 6세대 고대역폭메모리(HBM4). /뉴스1 </figcaption> </figure> <p contents-hash="4e8d36a3f75a4dba51b037734a04e84efa4d1fe19dc99bc4621d20cf9fac8089" dmcf-pid="G3IwKlJ6t2" dmcf-ptype="general">“현재 AI 인프라 확장의 최대 병목(bottleneck)은 메모리 칩 부족이다.”</p> <p contents-hash="e0348204a9cb0d9076aecc20c4e3e7d6c741ef6c45d2c298469bf22a0c4b8937" dmcf-pid="H0Cr9SiPX9" dmcf-ptype="general">브래드 라이트캡 오픈AI 최고운영책임자(COO)가 최근 한 포럼에서 “지난 2년간 AI 업계가 가장 우려했던 전력(電力) 부족 현상을 넘어섰다”며 한 말이다.</p> <p contents-hash="c1c372d4d16dc978484c390629d292d140f1f0bdca2c2ea002014baba8a96730" dmcf-pid="Xphm2vnQ1K" dmcf-ptype="general">인공지능(AI) 업계에서 공급 부족이 심각한 메모리 반도체의 효율을 높이기 위한 이른바 ‘AI 기억력 전쟁’이 치열하다. 초거대 AI 모델에는 연산력도 중요하지만 제한된 메모리 반도체를 얼마나 효율적으로 잘 쓰느냐가 성능과 비용을 좌우하는 핵심이기 때문이다. 미국 제재로 첨단 반도체를 구하기 어려운 중국 AI 업체에 효율 증대를 통한 ‘메모리 영끌’은 칩 부족의 한계를 극복하기 위한 생존 전략이다.</p> <p contents-hash="7d282160bafb5cf2661da92740e9a6d78b03be83ef5c50cfc6274287a58ae887" dmcf-pid="ZUlsVTLx1b" dmcf-ptype="general">메모리 효율화는 AI가 외부에 정보를 저장해 놓고 필요할 때 가져다 쓰거나 데이터를 압축해 메모리 사용량을 줄이는 방식 등 다양한 기술이 개발됐다. 올 초 엔비디아는 메모리를 외부로 빼 보관하는 AI 추론용 메모리 관리 플랫폼인 ICMSP를 공개했다. 메모리 용량이 꽉 차도 AI 연산이 멈추지 않도록 그래픽처리장치(GPU) 메모리 한계를 외부 저장 장치로 확장하는 방식이다. 당장 활용할 것 같지는 않지만, 곧 쓸 것 같은 기억들을 GPU에서 빼서 창고(ICMSP)에 임시 보관하는 것이다. AI 전용 외장 하드 겸 보조 기억 장치다. 비싼 GPU를 무한정 늘리는 대신 상대적으로 값이 싼 ICMSP 플랫폼을 섞어 AI 서비스 가격을 낮추는 것이다.</p> <p contents-hash="689d7b6c9df8cd7e587860eb559f1b16b624bb2bfb74d5c4d11cb8eae329e7f9" dmcf-pid="5uSOfyoM1B" dmcf-ptype="general">스탠퍼드대 연구진이 발표한 ‘ttt-e2e’(tEST-tIME tRAINING–eND-TO-eND)는 데이터를 보관하는 대신 필요한 핵심 정보를 요약해 머릿속에 기억하는 방식이다. 시험 공부할 때 모든 예상 문제를 별도 노트(기억 장치)에 메모해 두는 게 아니라 핵심 내용만 외워 버리는 식이다. 구글의 터보퀀트가 기억할 데이터 자체를 압축해 부피를 줄이는 방식이라면 엔비디아의 ICMSP는 데이터를 보관할 별도 창고를 만드는 인프라 구축 방식이다. ttt-e2e는 데이터를 보관하지 않고 기억하는 방식의 메모리 효율화다.</p> <p contents-hash="43e7fb3470d648f2313c9f3452ca7034a861a2e2bfb3cdab1abab2b2d5e80572" dmcf-pid="17vI4WgRtq" dmcf-ptype="general">중국의 화웨이도 메모리를 효과적으로 관리하는 기술인 ‘추론 메모리 데이터 관리자(UCM)’를 지난해 8월 공개했다. 데이터를 한곳에 두지 않고, 중요도에 따라 쪼개서 저장하는 방식이다. 비싸고 구하기 어려운 HBM은 조금만 쓰고 중국이 잘 만들 수 있는 SSD(대용량 저장장치)를 최대한 활용하는 것이다. 중국의 AI 스타트업 딥시크는 메모리를 외부로 빼거나 압축하는 대신 애초부터 작게 기억하도록 했다. 반도체 제재로 하드웨어가 부족한 환경에서도 고성능 AI를 돌릴 수 있도록 AI 모델 설계 자체를 바꾼 것이다.</p> </section> </div> <p class="" data-translation="true">Copyright © 조선일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 김용빈, 제1대 골든컵 안았다…'메기 싱어' 박강성 등장 ('금타는 금요일') [종합] 03-28 다음 메모리 6분의 1만 쓰는 ‘터보퀀트’… 반도체 시장 요동 03-28 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.