AI 반도체 분업 시대… 韓 팹리스, ‘포스트 GPU’ 시장서 기회 노린다 작성일 12-03 39 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">생성형 AI 확산으로 클라우드·GPU 중심 구조 한계<br>국내 팹리스, 온디바이스 등 다양한 분업형 연산 전략 제시<br>‘GPU 이후’ 다층 연산 체계 확산<br>NPU 기업들 성장 창구 열려</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="PJ3D0dPKjH"> <p contents-hash="da93027e00c6bd15ebebd211a0902ca6440e3ac7ed60628a6c27bf93a14c8f99" dmcf-pid="QQXNZP2uAG" dmcf-ptype="general">국내 인공지능(AI) 팹리스(반도체 설계) 업계가 생성형 AI 확산으로 드러난 데이터센터 한계와 그래픽처리장치(GPU) 중심 구조의 병목을 해소하기 위해 새로운 연산 구조를 제시하고 나섰다. 기존 방식으로는 폭증하는 AI 수요를 감당하기가 어려워지면서, 연산을 디바이스·추론·대규모언어모델(LLM) 특화 구조로 분산하는 전략이 부상하고 있다. 이러한 변화는 GPU 외에도 다양한 연산 방식이 요구되는 국면을 열어, 국내 NPU(신경망처리장치) 기반 팹리스 기업들에게 새로운 진입 기회를 제공하고 있다.</p> <p contents-hash="fe3c24ae6d0f3af9ecb3ef5ac70cbd68fadabb41738714675f4e9fb23a2258a9" dmcf-pid="xxZj5QV7aY" dmcf-ptype="general">생성형 AI 모델의 크기와 연산량이 빠르게 증가하면서 서버 증설만으로는 전력·열·비용 문제를 해결하기가 어렵다는 판단이다. 이에 AI를 단일 장비에서 처리하는 방식에서 벗어나, 여러 종류의 칩과 레이어로 연산을 분산시키는 방향으로 구조의 전환이 이뤄지고 있다.</p> <figure class="figure_frm origin_fig" contents-hash="e2881850f3399d93b3051fe55d738bb290ca1c2514a0f5cdaf1e205821162dfd" dmcf-pid="yyipnTIkgW" dmcf-ptype="figure"> <p class="link_figure"><img alt="3일 서울 코엑스에서 열린 코리아테크페스티벌에서 김녹원 딥엑스 대표가 강연하고 있다./최효정 기자" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202512/03/chosunbiz/20251203164740485ghxi.jpg" data-org-width="4000" dmcf-mid="6sM1RCwaNX" dmcf-mtype="image" height="auto" src="https://img1.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202512/03/chosunbiz/20251203164740485ghxi.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 3일 서울 코엑스에서 열린 코리아테크페스티벌에서 김녹원 딥엑스 대표가 강연하고 있다./최효정 기자 </figcaption> </figure> <p contents-hash="42490097825737a81066d8d65ef202ed8d5dccea53162d179e2d59cbc9f3f4a2" dmcf-pid="WWnULyCENy" dmcf-ptype="general">3일 산업통상자원부 주관 ‘2025 코리아 테크 페스티벌’ AI 팹리스 특별관 발표에서 국내 기업들은 ▲스마트폰·로봇·가전 등 디바이스에서 일부 연산을 처리하는 온디바이스 전략 ▲국가·기업 단위 추론 인프라 구축 ▲LLM 전용 아키텍처 개발 등 세 갈래 접근법을 제시했다. 이는 범용 GPU에 의존하던 1세대 AI 연산 구조에서 벗어나, 용도별 특화 칩이 역할을 분담하는 ‘AI 반도체 분업 구조’가 본격화되고 있음을 시사한다.</p> <p contents-hash="4e36b2ae3fab6c2ac35d554c52511e3018a0b6f1a650b67db4889acc600f3720" dmcf-pid="YYLuoWhDjT" dmcf-ptype="general">전력효율(전성비)도 핵심 경쟁 지표로 떠오르고 있다. 생성형 AI 시대에는 칩의 속도보다 적은 전력으로 얼마나 많은 연산을 수행하느냐가 경쟁력을 좌우한다. 국내 기업들은 삼성전자의 2나노·4나노·고대역폭메모리(HBM) 기반 공정을 적용하며 전성비 개선에 속도를 내고 있다. 최신 삼성 파운드리 공정을 활용한 협업은 국내 팹리스가 제품 경쟁력을 확보하는 동시에, 파운드리–팹리스 간 반도체 생태계가 실제로 연결되기 시작했다는 점에서도 의미가 크다.</p> <p contents-hash="369a07885625f0ea935d11f838c44aebe51e8b8a8249e9a043c2a37aacbe767b" dmcf-pid="GGo7gYlwAv" dmcf-ptype="general">온디바이스 AI 기업 딥엑스는 생성형 AI의 중심이 클라우드에서 디바이스로 이동할 것으로 전망했다. 김녹원 대표는 “1000억 파라미터 모델을 5와트(W) 이하에서 구동하면 데이터센터 트래픽의 80% 이상을 줄일 수 있다”며 “온디바이스 AI는 ‘피지컬 AI’ 시대의 핵심 인프라가 될 것”이라고 말했다. 그는 “3000달러 GPU급 연산을 50달러 미만 칩으로 구현했다”며 초저전력 NPU의 경쟁력을 강조했다. 딥엑스는 삼성전자 2나노 기반 생성형 AI 칩을 개발 중이며 “테슬라와 함께 2나노 첫 고객군으로 참여하고 있다”고 밝혔다.</p> <p contents-hash="27fd49a44debf22a8019a76a250044a702538f5e1c492b3b25be6717e786c6e5" dmcf-pid="HHgzaGSrgS" dmcf-ptype="general">추론 전용 아키텍처 기업 리벨리온은 국가·기업 단위의 소버린(주권형) AI 수요 확대를 핵심 기회로 제시했다. 김광정 사업총괄은 “파운데이션 모델을 만드는 국가는 소수지만, 이를 운영하는 추론 인프라는 전 세계 모든 기업과 정부에 필요하다”며 “효율적 추론 인프라가 국가 경쟁력을 좌우한다”고 말했다. 그는 “HBM 기반 차세대 칩으로 70억개 모델을 단일 칩에서 구동하는 성능을 시연했다”며 “VLLM 기반 SDK를 통해 쿠다와 유사한 개발 환경을 제공하고 있다”고 설명했다.</p> <p contents-hash="f261ca8e8e6e44d3a65717e0b8aa421728cec6f4eef36821776f0769d68cb246" dmcf-pid="XXaqNHvmgl" dmcf-ptype="general">LLM 연산 병목을 해결하겠다는 하이퍼엑셀은 LLM 전용 아키텍처(LPU)를 내세웠다. 김주영 대표는 “트랜스포머 모델은 메모리 병목이 극심해 GPU로는 추론 단가를 감당하기가 어렵다”며 “LLM만을 위한 전용 아키텍처가 필요한 시점”이라고 말했다. 그는 “D램→로직 이동 경로를 줄인 구조와 단일 대형 코어 설계를 적용해 LLM 성능을 GPU 대비 2배 이상 높였다”며 “네이버와 공동 설계한 삼성 4나노 칩을 내년 샘플링하고, LG와 온디바이스 LLM 칩도 개발 중”이라고 설명했다.</p> <p contents-hash="6e958ba78bd5dec1ccda17d397c2e995449d437985606e8b8ab359b9835cd873" dmcf-pid="ZZNBjXTsch" dmcf-ptype="general">아날로그 기반 AI 반도체 기업 아날로그AI는 디지털 방식의 전력 한계를 근본적으로 보완하는 ‘아날로그 인-메모리 컴퓨팅(Analog In-Memory Computing)’ 전략을 제시했다. 이재준 대표는 “현재 AI 모델 성장은 지수적으로 빠른데 반해, 기존 방식은 메모리와 프로세서를 오가며 데이터를 이동시키는 과정에서 막대한 전력을 소모한다”며 “메모리 셀 자체에서 연산을 수행하는 아날로그 방식은 전력 효율을 획기적으로 개선할 수 있다”고 말했다.</p> <p contents-hash="fb239900b86f4a74b86efd135638b22e55f0831b77546289631f0d6fa66a93d5" dmcf-pid="55jbAZyOAC" dmcf-ptype="general">그는 “기존 대비 100배에서 최대 1만배까지 개선 가능성이 열려 있다”며 “2027년 증강현실(AR) 글라스·휴머노이드 로봇 등 하이 애플리케이션 시장을 겨냥한 첫 칩을 출시할 것”이라고 밝혔다.</p> <p contents-hash="cd3f3ed825ffd0f52e53700450878e4ee8d4c55041a4a3619d82f2dee13a650c" dmcf-pid="11AKc5WIjI" dmcf-ptype="general">국내 팹리스들의 전략은 초저전력·추론 인프라·LLM 특화·아날로그 연산 등 각기 다른 기술 축을 따라가지만, 공통적으로 ‘포스트 GPU 시대’를 대비한다는 점에서 방향성이 겹친다. 반도체 업계 관계자는 “AI 반도체 시장이 범용 GPU 중심 구조에서 벗어나 용도별 최적화 구조로 재편되는 흐름 속에서, 국내 NPU 팹리스가 존재감을 확대할 수 있는 기술적·산업적 창구가 본격적으로 열리고 있다”고 말했다.</p> <p contents-hash="7b353773dfded0b4ff3b6aa5f84818216992849724e23e825e93c89d497fd25e" dmcf-pid="ttc9k1YCjO" dmcf-ptype="general">- Copyright ⓒ 조선비즈 & Chosun.com -</p> </section> </div> <p class="" data-translation="true">Copyright © 조선비즈. 무단전재 및 재배포 금지.</p> 관련자료 이전 ‘입대’ NCT 도영, 新 예능 뜬다…갓세븐 진영→블랙핑크 지수 초대 12-03 다음 "美 MHGA 정책 대응해야 K콘텐츠 살 수 있다” 12-03 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.