엔비디아가 공급하는 GPU 26만장, AI 데이터센터 5개 규모 작성일 11-06 49 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">인프라 부족 겪고 있는<br>국내 AI 생태계 큰 도움</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="YYnxmTiPHn"> <p contents-hash="3e6676c56702747e50b840f530d5459a5a86851997571153f04f7e54f2011e3d" dmcf-pid="GGLMsynQXi" dmcf-ptype="general">엔비디아가 한국 정부와 기업에 고성능 그래픽처리장치(GPU) 26만장을 공급하기로 하면서 ‘인공지능(AI) 동맹’을 구축했다. 정부와 삼성·SK·현대차는 각 5만장, 네이버는 6만장을 확보하게 됐다. 현재 국내에 있는 고성능 GPU 4만5000장의 5배 이상이 2030년까지 우선 공급되는 것으로, 인프라 부족에 허덕이던 국내 AI 생태계에 큰 보탬이 될 전망이다.</p> <p contents-hash="420054deb913772b389783e16c07f0c72fa1ba3f2dd8fe68850cd955edb80376" dmcf-pid="HHoROWLxZJ" dmcf-ptype="general">그렇다면 엔비디아가 공급하는 GPU의 종류는 무엇이고, 26만장은 우리 산업 생태계에 어떤 역할을 할까. 엔비디아와의 정확한 거래 내용은 밝혀지지 않았지만, 공개된 정보를 토대로 GPU 26만장의 의미를 분석했다.</p> <figure class="figure_frm origin_fig" contents-hash="55f362847c8c4758b166ebc08c96826c6e63443cddf4fda31398249f608bf131" dmcf-pid="XXgeIYoMYd" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202511/06/chosun/20251106003751326gobf.jpg" data-org-width="1000" dmcf-mid="WqscXUmj5L" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202511/06/chosun/20251106003751326gobf.jpg" width="658"></p> </figure> <p contents-hash="f2c5d77f8e4e46e01b5223f69f002597560a97ca45e4055f1cca20a934831a4a" dmcf-pid="ZZadCGgR5e" dmcf-ptype="general"><strong>◇어떤 GPU가 공급되나</strong></p> <p contents-hash="0afdd2efe6183f28dfdd25302c721c6e3ace6fe61bdce211265975729d19a53f" dmcf-pid="55NJhHaeZR" dmcf-ptype="general">엔비디아는 “26만장의 블랙웰 GPU 기반 인프라를 공급한다”고 했다. 블랙웰은 엔비디아가 2024년 공개한 최신 아키텍처(설계 구조)다. 블랙웰 GPU에 5세대 고대역폭 메모리(HBM3E) 8개를 붙인 AI 가속기가 B200이다. B200은 이전 제품인 H100 대비 AI 학습 성능은 3배, 추론 성능은 15배 향상됐다.</p> <p contents-hash="ece779eb4d65ff2b89ec58c9c671cbdc04aeaf0638843d3e8cce4bddbbddcae2" dmcf-pid="11jilXNdtM" dmcf-ptype="general">AI 가속기는 어떤 형태로 공급되느냐에 따라 제품명이 달라진다. 테크 업계에 따르면 한국에는 GB200과 전문가용 PC에 들어가는 ‘RTX 6000’ 시리즈 형태로 엔비디아 GPU가 들어올 전망이다. GB200은 AI 가속기 B200 2개에 그레이스(Grace)라는 엔비디아 중앙처리장치(CPU)를 결합한 AI 수퍼칩이다. 최근엔 GB200을 36개 연결한 랙(선반) 단위 서버 시스템 형태로 많이 공급된다. 한국에도 랙 단위로 들어올지는 정해진 것이 없다. 다만 향후 엔비디아의 차세대 GPU 설계인 루빈(Rubin), 파인만(Feynman) 등 새 제품군이 나오면 공급되는 GPU가 달라질 수 있다.</p> <p contents-hash="03b944cabe7c1969ff15c0454e3ae4b77948d4d92ae5e3d3efb97a7b4c27fad2" dmcf-pid="ttAnSZjJZx" dmcf-ptype="general"><strong>◇어느 정도 규모인가</strong></p> <p contents-hash="cf553ad99ddfdec534cc5bc503833802fb08828e3c9c8f009945882e6c398e9c" dmcf-pid="FFcLv5Ai1Q" dmcf-ptype="general">숫자적으로 보면, 한국에 공급되는 GPU 26만장은 영국(12만장), EU(10만장)보다 많은 숫자다. 보통 중대형 AI 데이터센터에 GPU 5만장이 탑재되는데, 26만장이라는 규모는 이런 중형 AI 데이터센터를 5개 짓고도 남는 양이다. B200의 가격이 3만~4만달러로 추정된다는 점에서, 26만장의 총 공급 금액은 104억달러(약 15조원)에 달한다.</p> <p contents-hash="3960617d23fe8a7faa011c3b0ca434823d80a2af1bb7809b8fd567c4a42c1f58" dmcf-pid="39lrFBhDHP" dmcf-ptype="general">추가로 GPU 26만장을 받게 되면 국내 보유 첨단 GPU 양은 30만장을 넘어서게 된다. 하정우 대통령실 AI미래기획수석은 “젠슨 황 엔비디아 최고경영자(CEO)가 미국에 GPU 2000만장 정도가 있다고 말했고, 중국이 그다음”이라며 “미국과 중국이 많이 앞서 있지만 확보되는 물량 기준으로는 3위권”이라고 했다.</p> <p contents-hash="88f2b8e7416d586854967e5437e2b25264ef06d2d80725c210ef17a4a863c002" dmcf-pid="02Sm3blwY6" dmcf-ptype="general">블랙웰 GPU 26만장에는 HBM3E 208만개가 탑재된다. 26만장의 GPU가 국내 AI 생태계에 활용되는 만큼, 이 물량은 전부 삼성전자와 SK하이닉스가 납품할 것으로 전망된다. HBM3E 8단 가격은 개당 200~300달러로, 26만장의 GPU에 들어가는 HBM 가격은 총 6000억~9000억원에 달할 것으로 추산된다. 젠슨 황 CEO는 “뛰어난 기술 역량을 가진 삼성전자도, SK하이닉스도 필요하다”며 “장기적인 파트너가 돼 HBM4, HBM5, HBM97까지 함께 개발할 것”이라고 했다.</p> <p contents-hash="88e9a423d0e19540cbed86831063ad293e1cfb1e9a57403cc43faf340f616858" dmcf-pid="pVvs0KSr18" dmcf-ptype="general"><strong>◇어디에 쓰이고, 남은 문제는</strong></p> <p contents-hash="2e025af2c75184ae36220449c7d37be16ffa45c6f1af9916d45ba25f7259fd56" dmcf-pid="UfTOp9vm54" dmcf-ptype="general">엔비디아 GPU는 한국 핵심 산업에 AI를 이식하는 데 활용된다. 삼성과 SK는 반도체 생산 공정 전반에 AI를 도입하고, 현대차는 차량 AI와 자율 주행에 GPU를 활용한다. 제조 전 과정에 AI를 도입하는 ‘AI 팩토리’가 구축되는 것이다. 김정호 카이스트 교수는 “우리나라가 강점을 가진 반도체, 제조, 자동차 등 산업에 AI를 결합시키는 것이 성공 방정식”이라며 “확보한 AI 인프라를 바탕으로 기존의 성숙한 산업의 경쟁력을 더욱 키우는 것이 한국이 갈 길이라고 생각한다”고 했다.</p> <p contents-hash="877bd1ac44c03d721e105ba20219d72ab2fcb9af7a1d5830cbb9c5c13412cef9" dmcf-pid="u4yIU2Ts1f" dmcf-ptype="general">GPU를 구동하는 데 드는 전력은 문제로 남아 있다. GB200 36개를 연결한 랙(선반) 단위 서버 시스템(NVL72)은 132kW(킬로와트)의 전력을 소모하는데, 26만장 기준으로는 약 480MW(메가와트)급이다. 냉각 등 부속 설비까지 적용하면 500~600MW의 전력이 소모될 전망이다. 중형 화력발전소나 대형 원전 절반급 전력이다. 이종환 상명대 시스템반도체공학과 교수는 “전력 인프라 구축이 절대적으로 시급한 상황”이라며 “GPU를 대량 확보했음에도 전력 부족이 병목으로 작용할 수 있다”고 했다.</p> </section> </div> <p class="" data-translation="true">Copyright © 조선일보. 무단전재 및 재배포 금지.</p> 관련자료 이전 '나는 솔로' 최초 임신, 28기 정숙이었다…'파국' 영수가 아빠? "다음 주 공개" [종합] 11-06 다음 AI·양자 기술 적용, 차세대 통신 네트워크 만든다 11-06 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.