퀄컴, AI 추론칩 참전…“내년부터 순차 출시” 작성일 10-28 15 목록 <div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="ZQQdIM0Hlt"> <figure class="figure_frm origin_fig" contents-hash="539c90749e2268f4d6d29243120b78e27e505206db5a7a0246e53fe5cc75b45d" dmcf-pid="5xxJCRpXl1" dmcf-ptype="figure"> <p class="link_figure"><img alt="퀄컴 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202510/28/dt/20251028150650308vedu.png" data-org-width="640" dmcf-mid="HZs7JpIkT3" dmcf-mtype="image" height="auto" src="https://img4.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202510/28/dt/20251028150650308vedu.png" width="658"></p> <figcaption class="txt_caption default_figure"> 퀄컴 제공 </figcaption> </figure> <p contents-hash="df663850df09821463f492fe2f6a640060c4ce68b314555380353a34839e75b2" dmcf-pid="1MMiheUZW5" dmcf-ptype="general"><br> 퀄컴이 데이터센터용 인공지능(AI) 반도체 출시를 공식화하면서 미래 먹거리 확보에 나섰다.</p> <p contents-hash="e6178d82f685dddce84c6c4de4c994eca739b24645769f445ada9a7ac1695418" dmcf-pid="tRRnldu5CZ" dmcf-ptype="general">퀄컴은 데이터센터용 차세대 AI 추론 최적화 솔루션인 퀄컴 AI200 및 퀄컴 AI250 칩 기반 가속 카드와 랙을 28일 공개했다. 퀄컴AI200과 AI250은 각각 2026년, 2027년 상용 출시될 예정이다.</p> <p contents-hash="8c73fe0d9faaea054786060aa7641489d183bb976368f942e77789cf4df9ac9e" dmcf-pid="FeeLSJ71TX" dmcf-ptype="general">퀄컴의 신경망처리장치(NPU) 기술을 기반으로 개발된 이번 솔루션은 랙 스케일 성능과 우수한 메모리 용량을 제공해 와트당 비용 대비 성능 측면에서 뛰어난 생성형 AI의 추론을 가능하게 한다고 회사 측은 설명했다</p> <p contents-hash="060c84c9b3cb1d3fd78c2aa1fea2a1736367a2bd558e631abfbc15fce3ba4cb2" dmcf-pid="3ddoviztCH" dmcf-ptype="general">퀄컴AI200은 대규모언어모델(LLM) 및 멀티모달 모델(LMM) 추론을 비롯한 다양한 AI 워크로드를 위해 총소유비용(TCO)을 최소화하고 성능을 최적화하도록 설계된 랙 수준 AI 추론 전용 솔루션이다. AI200은 카드당 768GB LPDDR 메모리를 지원해 더 높은 메모리 용량과 비용 효율성을 실현한다. 대규모 AI 추론 환경에서 탁월한 확장성과 유연성을 제공한다.</p> <p contents-hash="2ec4fa3407f8928f8f25ed4588035f994956f106daf9ac6ce2837841c36aebd3" dmcf-pid="0JJgTnqFhG" dmcf-ptype="general">퀄컴AI250은 근접 메모리 컴퓨팅 기반의 메모리 아키텍처를 새롭게 도입해, 메모리 대역폭을 10배 이상 향상시키고 전력 소모를 획기적으로 절감해 AI 추론 워크로드의 효율성과 성능을 끌어올렸다. 이 솔루션은 하드웨어 자원을 효율적으로 활용할 수 있는 분리형 방식의 추론 구조를 지원한다.</p> <p contents-hash="a7889ea04a49491368e7ec385267caac3f9afd63ff92cdcddb0cd66c262f258e" dmcf-pid="piiayLB3SY" dmcf-ptype="general">퀄컴 AI200 및 AI250 솔루션은 열 효율성을 위한 직접 액체 냉각 방식, 확장성을 위한PCle 및 이더넷을 지원한다. 또한 보안이 강화된 AI 워크로드 처리를 위한 기밀 컴퓨팅을 탑재했으며, 랙 단위 전력 소비는 160kW 수준이다.</p> <p contents-hash="f5505fe576f0b16ce8c2d4e4992ef4826f23da0a7994a7da285117f9225632ae" dmcf-pid="UnnNWob0hW" dmcf-ptype="general">두르가 말라디 퀄컴 수석 부사장 겸 기술 기획, 엣지 솔루션 및 데이터 센터 본부장은 “이번 AI 인프라 솔루션은 뛰어난 총소유비용 (TCO)으로 생성형 AI를배포할 수 있도록 지원하며, 데이터센터가 필요로 하는 유연성과 보안성을 동시에 보장한다”며 “퀄컴의 소프트웨어 스택과 개방형 생태계 지원을 통해 개발자와 기업은 이미 학습된 AI 모델을 최적화된 AI 추론 솔루션을 통해 손쉽게 통합·관리·확장할 수 있다”고 말했다.</p> <figure class="figure_frm origin_fig" contents-hash="dcdbd22723b131e7a43dea883075ba09c2f8e2ab9a98d3f04897daea571eb746" dmcf-pid="uMMiheUZSy" dmcf-ptype="figure"> <p class="link_figure"><img alt="퀄컴 제공" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202510/28/dt/20251028150651610kzbq.png" data-org-width="640" dmcf-mid="XJfQw85ThF" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202510/28/dt/20251028150651610kzbq.png" width="658"></p> <figcaption class="txt_caption default_figure"> 퀄컴 제공 </figcaption> </figure> <p contents-hash="8cbbc492873e9ec9a5845012674d376bdd090967995c04216b57cda21c10cbbe" dmcf-pid="7RRnldu5lT" dmcf-ptype="general"><br> 김나인 기자 silkni@dt.co.kr</p> </section> </div> <p class="" data-translation="true">Copyright © 디지털타임스. 무단전재 및 재배포 금지.</p> 관련자료 이전 “韓 음방 1위 목표” 앤팀, 드디어 한국 데뷔.. K팝 본진에서 새 도전 (종합)[Oh!쎈 현장] 10-28 다음 이정재, '오징어게임' 이후 '얄미운 사랑' 택한 이유 10-28 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.