SK하이닉스, 아마존 AI 투자 수혜…HBM3E 12단 공급 추진 작성일 06-17 75 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">AI 데이터센터 구축·자체 AI칩 개발…HBM 수요 견인 전망</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="fd6thYFOMj"> <p contents-hash="4b7d1a2f56f8453578e60935dbab409c1bfb0748c9ab0f09831fc8ac3f86cd63" dmcf-pid="4JPFlG3InN" dmcf-ptype="general">(지디넷코리아=장경윤 기자)AWS(아마존웹서비스)가 SK하이닉스 HBM(고대역폭메모리) 사업 핵심 고객사로 떠오르고 있다. 전 세계 AI 데이터센터 구축에 막대한 투자를 진행하는 한편, 국내에서도 SK그룹과의 협력 강화를 도모하고 있어서다.</p> <p contents-hash="f88f77e8dd94e9a9724de5018c71005e0fe37d347ef189ed9f36e6ad844225f7" dmcf-pid="8iQ3SH0Cia" dmcf-ptype="general"><span>나아가 AWS는 이르면 올해 말 자체 개발한 3세대 AI칩 출시를 계획하고 있다. 이에 SK하이닉스도 현재 HBM3E 12단 제품을 적기에 공급하기 위한 준비에 나선 것으로 파악됐다.</span></p> <p contents-hash="221f8dfd654045a9a5c4c30f165f44c4aec43d4e13c258f8e61f79ceff9a228f" dmcf-pid="67tmnAsdig" dmcf-ptype="general"><span>17일 업계에 따르면 SK하이닉스는 AWS의 AI 인프라 투자에 따라 HBM 사업 확장을 추진하고 있다.</span></p> <figure class="figure_frm origin_fig" contents-hash="8d51664d217b77e8f5302d13ed3ae5470f322f586e37d457d08020543b703e27" dmcf-pid="PzFsLcOJio" dmcf-ptype="figure"> <p class="link_figure"><img alt="AWS가 자체 개발한 AI 칩 '트레이니엄 2'(사진=AWS)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202506/17/ZDNetKorea/20250617140125390djxz.png" data-org-width="640" dmcf-mid="VyL6UKP3JD" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202506/17/ZDNetKorea/20250617140125390djxz.png" width="658"></p> <figcaption class="txt_caption default_figure"> AWS가 자체 개발한 AI 칩 '트레이니엄 2'(사진=AWS) </figcaption> </figure> <p contents-hash="52afe211959c9165cd3754e155d26cb0b9e7f61306a8123e51e9ebf915228c60" dmcf-pid="Qq3OokIidL" dmcf-ptype="general"><strong>AWS, 세계적 AI 인프라 투자</strong><span rgb51="rgb(51,">·</span><strong>SK와 협력 강화</strong></p> <p contents-hash="db0b66f66c12a674b95f950f4b34302b14e5ebb5ee6005662d1217b05bcb9671" dmcf-pid="xB0IgECnLn" dmcf-ptype="general">AWS는 SK하이닉스 HBM 사업에서 엔비디아의 뒤를 이을 핵심 고객사로 자리잡고 있다. 전 세계적으로 데이터센터 확장을 추진하고 있고, 차제 ASIC(주문형반도체) 개발로 HBM 수요량도 늘려가고 있기 때문이다.</p> <p contents-hash="f3e3ac8681376473ac50d6fd12246e0214634146d4623012b91f3d7410e47d14" dmcf-pid="ywNVFzf5Li" dmcf-ptype="general"><span>일례로 AWS는 지난 14일(현지시간) 올해부터 오는 2029년까지 호주 내 데이터센터 확충에 200억 호주달러(한화 약 17조6천억원)를 투자한다고 발표했다. 앞서 이 회사는 미국 노스캐롤라이나주에 100억 달러, 펜실베니아주에 200억 달러, 대만에 50억 달러 등을 투자하기로 한 바 있다. 올해 AI 인프라에 쏟는 투자금만 전년 대비 20%가량 증가한 1천억 달러에 달한다.</span></p> <p contents-hash="f71157d0926fc7e486f448c4716ed7f461316eedfba5159abc7f4d45e2cd3dd5" dmcf-pid="Wrjf3q41dJ" dmcf-ptype="general"><span>SK그룹과의 협력 강화도 기대된다. AWS는 SK그룹과 협력해 올해부터 울산 미포 국가산업단지 부지에 초대형 AI 데이터센터를 구축할 계획이다. 오는 2029년까지 총 103MW(메가와트) 규모를 가동하는 것이 목표다. AWS는 40억 달러를 투자할 것으로 알려졌다.</span></p> <p contents-hash="08426a1a346d9da8af9d5f717d36ee9103324d1ad99a045fe5476cc95c6c4d6b" dmcf-pid="YmA40B8tnd" dmcf-ptype="general"><span>AWS의 AI 데이터센터 투자는 HBM의 수요를 촉진할 것으로 기돼된다. HBM은 여러 개의 D램을 수직으로 적층해, 기존 D램 대비 데이터 처리 성능을 크게 끌어올린 메모리다. AI 데이터센터용 고성능 시스템반도체에 함께 집적된다.</span></p> <p contents-hash="51935e2210c3170b022186f31c2480d2fbcd7b225c72df7032e829e21368b91d" dmcf-pid="Gsc8pb6Fee" dmcf-ptype="general"><span>현재 AI용 시스템반도체는 엔비디아 GB200, GB300 등 '블랙웰' 칩이 시장을 주도하고 있다. 업계에 따르면 올해 AWS가 엔비디아의 GB200·GB300 전체 수요에서 차지하는 비중은 7%로 추산된다.</span></p> <p contents-hash="a4fd83d465b2ef0845f3ed8d528552790b947158d0d037a67b24991e2b6f47fa" dmcf-pid="HOk6UKP3RR" dmcf-ptype="general"><strong>자체 AI칩 '트레이니엄'에 HBM3E 12단 공급 추진 </strong></p> <p contents-hash="7f3316cefdb535e4c505ef086609ce38fb47ca10e7a0ac28d07ad80a71c0bb59" dmcf-pid="XIEPu9Q0eM" dmcf-ptype="general"><span>동시에 AWS는 머신러닝(ML)에 특화된</span><span> '트레이니엄(Trainium)' 칩을 자체 설계하고 있다. 해당 칩에도 HBM이 탑재된다. 지난해 하반기 출시된 '트레이니엄 2'의 경우, 버전에 따라 HBM3 및 HBM3E 8단 제품을 채택했다. 최대 용량은 96GB(기가바이트)다.</span></p> <p contents-hash="bab969204208043f8eeac2a4f5c5edeca6329d25d738614efdb2702887a2ccf1" dmcf-pid="ZCDQ72xpnx" dmcf-ptype="general"><span>이르면 올 연말, 혹은 내년에는 차세대 칩인 '트레이니엄 3'를 출시할 계획이다. 이전 세대 대비 연산 성능은 2배, 전력 효율성은 40%가량 향상됐다. 총 메모리 용량은 144GB(기가바이트)로, HBM3E 12단을 4개 집적하는 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중 가장 고도화된 제품이다.</span></p> <p contents-hash="51d34147827bed3a7bbaece419a473d7091ca67220b288b2196f9b793a36faac" dmcf-pid="5hwxzVMUnQ" dmcf-ptype="general"><span>SK하이닉스도 이에 맞춰 AWS향 HBM3E 12단 공급을 준비 중인 것으로 알려졌다.</span></p> <p contents-hash="45f5ac7a748b55e2f804868b99f1367a933f7abb0c8a4b72e91c3c4ec1563ff3" dmcf-pid="1lrMqfRuJP" dmcf-ptype="general"><span>반도체 업계 관계자는 "아마존이 자체 AI 반도체 생산량 확대에 본격 나서면서 HBM3E에 대한 관심도 크게 높아졌다"며 "SK하이닉스는 지난해에도 AWS에 HBM을 상당량 공급해 왔고, 현재 트레이니엄 3 대응에도 적극적으로 나서는 분위기"라고 말했다.</span></p> <p contents-hash="f6718f3afe8b7f2bebaeee0e8a62d1455aac86c04f3b99aebbddb43e9ba22a6d" dmcf-pid="tSmRB4e7i6" dmcf-ptype="general">장경윤 기자(jkyoon@zdnet.co.kr)</p> </section> </div> <p class="" data-translation="true">Copyright © 지디넷코리아. 무단전재 및 재배포 금지.</p> 관련자료 이전 윤승호 워트인텔리전스 "초경쟁시대 살아남으려면…기존 질서 엎어야" 06-17 다음 ‘누적 처방 100억’ 자큐보, 위궤양 치료까지 영역 확장 06-17 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.