"AI는 누구나 쓸 수 있어야"…레드햇이 제시하는 인프라 장벽 해결방안은? 작성일 07-02 14 목록 <div id="layerTranslateNotice" style="display:none;"></div> <strong class="summary_view" data-translation="true">레드햇 브라이언 스티븐스 CTO "VLM으로 AI 더 쉽고 유연해질 것"</strong> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="5n59QA41iZ"> <p contents-hash="a8ed288f77f5c0dee789c34848bb84d209aa19daf490dfcfc6ee0d2bb4f4ef70" dmcf-pid="1L12xc8tRX" dmcf-ptype="general">(지디넷코리아=남혁우 기자)인공지능(AI)은 이제 산업 전체를 바꾸는 거대한 흐름으로 자리잡고 있다. 하지만 많은 기업들은 아직 그 속도를 따라가지 못하고 있는 상황이다.</p> <p contents-hash="ef10b337189d263f4e5d0f9f899a371907c397d24ce8731080aeffd3b29f1ef0" dmcf-pid="totVMk6FiH" dmcf-ptype="general">AI 학습과 활용을 위한 그래픽처리장치(GPU)는 비싸고 전문 인력은 부족하다. 복잡한 모델과 배포 환경은 기술력을 갖춘 일부 기업만의 영역처럼 여겨지고 있다.</p> <p contents-hash="cb9d64299539f5530913a319263b225b51f5578eb294699d3042fa9da7a71648" dmcf-pid="FAUPimRueG" dmcf-ptype="general">레드햇(Red Hat)은 이러한 문제를 해결하기 위한 방안으로 가상언어모델(VLM)을 제시했다.</p> <p contents-hash="ec381701b512936a643bdff4d5c10dbc65b4e19d2a49e14b6026d5dc36229ec3" dmcf-pid="3cuQnse7iY" dmcf-ptype="general">레드햇 브라이언 스티븐스 최고기술책임자(CTO)는 2일 여의도 레드햇코리아 사옥에서 "AI는 모든 기업이 활용해야 할 기술이지 일부 빅테크 기업의 전유물이 돼선 안 된다"며 "레드햇은 인프라 부담을 없애는 방식으로 AI의 대중화를 실현하려 한다"고 강조했다.</p> <figure class="figure_frm origin_fig" contents-hash="331167aa2785ecbd0cb66e29431615602b9d5b0b5af391aac0b29f9c15e83cc0" dmcf-pid="0k7xLOdzdW" dmcf-ptype="figure"> <p class="link_figure"><img alt="레드햇 브라이언 스티븐스 CTO(이미지=레드햇)" class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202507/02/ZDNetKorea/20250702110048272obdu.jpg" data-org-width="640" dmcf-mid="ZrRECtmeJ5" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202507/02/ZDNetKorea/20250702110048272obdu.jpg" width="658"></p> <figcaption class="txt_caption default_figure"> 레드햇 브라이언 스티븐스 CTO(이미지=레드햇) </figcaption> </figure> <p contents-hash="365847abdba2414c9fd5be3caa8c86f19914bf999008f2e5943ca3358c10a735" dmcf-pid="pEzMoIJqdy" dmcf-ptype="general"><strong>복잡한 인프라 없이도 AI활용… 오픈소스 기반 AI 플랫폼 'VLM'</strong></p> <p contents-hash="86a8e24aca5b734a42af8bcd35fe7b85229377da272e1f361e2d97cefa23c2ca" dmcf-pid="UDqRgCiBnT" dmcf-ptype="general">지난달 한국산업기술진흥협회가 연구개발(R&D) 조직을 보유한 국내 기업 1천479곳을 대상으로 '기업 AI 활용 실태'를 조사한 결과 전체 응답 기업의 76.9%가 'AI 도입이 필요하다'고 응답했다. 하지만 실제 업무에 활용하거나 도입을 검토하는 기업은 절반에도 못 미치고 있는 것으로 나타났다.</p> <p contents-hash="47e45e0c5ae7c03bf3b9512ea34ea12c89d6cb26cdb08541850a8d355ffc892a" dmcf-pid="uwBeahnbev" dmcf-ptype="general">브라이언 스티븐스 CTO는 기업에 AI 도입이 어려운 이유로 그들이 처한 현실을 지적했다. 기술보다 환경의 문제라는 것이다.</p> <p contents-hash="3fa7747491af3c4020afb42005a439bb3fc951ae83fa1d25247203f2dd26fd71" dmcf-pid="7rbdNlLKLS" dmcf-ptype="general">그는 "많은 기업들이 AI를 써보려는 생각은 하지만 현실적인 장벽이 너무 많다"며 "GPU 가격은 너무 비싸고 엔비디아 스택은 배우기 어려우며 AI 엔지니어 확보 경쟁은 치열하다"고 설명했다.</p> <p contents-hash="7d94b3c7a44f3a5c7e501493bd7c795103fa88eaac525ad6370f2dc5e626bc61" dmcf-pid="zmKJjSo9nl" dmcf-ptype="general">이어 "지속되는 불황으로 투자 여유가 없는 상황에서 'AI는 각 기업에게 상관없는 기술'처럼 느껴지게 된다"고 밝혔다.</p> <p contents-hash="e0c5a70ea848620a572d26a9bbb6e10034aa804da63bfbb72e517b6f99cdc79b" dmcf-pid="qs9iAvg2Lh" dmcf-ptype="general">레드햇은 AI 활용을 위한 여러 장벽 중 가장 문제로 지적되는 인프라를 해결하기 위한 방안으로 VLM을 선보이고 있다. VLM은 오픈소스 기반의 AI 추론 서버 플랫폼이다. GPT 같은 대규모 언어모델(LLM)을 기업 내부 서버나 클라우드에서 구동할 수 있게 도와주는 소프트웨어(SW)다.</p> <p contents-hash="f0544dbc3561ab55bc77221098dee1b74036f50c1ad368f67ed72545807b416d" dmcf-pid="BO2ncTaVeC" dmcf-ptype="general">스티븐스 CTO는 VLM을 서버나 클라우드를 운영하기 위한 핵심 운영체제(OS)인 리눅스(Linux)에 비유했다.</p> <p contents-hash="72fc4957e595ad672f83c989398d58ad77c385ce3f127e8c912639e31030a4ae" dmcf-pid="bIVLkyNfnI" dmcf-ptype="general">그는 "VLM은 특정 하드웨어에 종속되지 않고 복잡한 설정 없이 모델을 실행할 수 있다"며 "엔비디아, AMD, 인텔 등 어떤 GPU든 상관을 뿐 아니라 AI 엔지니어가 아니어도 명령어 하나만 입력하면 모델을 구축하고 운영할 수 있다"고 설명했다.</p> <p contents-hash="2ff26537ea6ab1fef04d127d0e0500b0237b564065deebd3691bda26279c5c9a" dmcf-pid="KCfoEWj4RO" dmcf-ptype="general">VLM은 오픈소스 플랫폼 허깅페이스와 연동되며 사용자 친화적인 API와 관리 인터페이스도 제공한다. 중소기업도 서버 한두 대만 있으면 최신 AI 모델을 실행할 수 있으며 대기업은 데이터센터 단위로 확장 가능한 구조다.</p> <p contents-hash="1e7bd82645f4efc65ad85f7d55a59e790dfda86230b161c74f4a68723e0923d5" dmcf-pid="9h4gDYA8is" dmcf-ptype="general"><strong>"GPU는 줄이고 속도는 4배로"…레드햇의 경량화 기법</strong></p> <p contents-hash="77025b412a2e9665cc597454c8d14b448368915e8d1c5b74e1a4e2a71c564436" dmcf-pid="2l8awGc6dm" dmcf-ptype="general">레드햇이 VLM을 통해 해결하고자 한 또 하나의 과제는 바로 AI 운영 효율성이다. 최근 LLM의 규모는 갈수록 커지고 있다. 자연어를 이해하고 생성하는 능력이 향상되면서 모델이 처리해야 할 데이터 양도 함께 늘어나고 있기 때문이다.</p> <p contents-hash="c3e067fde68b934b0b6bfa6e386a6c98e4800a4658077e50a48a3abedc949d24" dmcf-pid="VCfoEWj4Mr" dmcf-ptype="general">이렇게 모델이 커질수록 이를 실제로 돌리기 위해서는 고성능의 GPU가 더 많이 필요하고 메모리도 많이 차지한다는 점이다. 이로 인해 전력 소비와 장비 비용이 눈덩이처럼 커진다.</p> <p contents-hash="e11825a007819f4e0380851c1c3e3eb61afdd9fb03c823b43b5ec14b003130d2" dmcf-pid="fh4gDYA8Jw" dmcf-ptype="general">레드햇은 이 문제에 대한 해법으로 모델 경량화 기술인 '양자화(Quantization)'를 제시했다. 이는 AI 모델이 계산에 사용하는 숫자의 표현 단위를 줄여 연산 부담은 낮추면서도 결과의 정확도는 유지할 수 있도록 돕는 기술이다.</p> <p contents-hash="98416c5461686f5f35ea4d5326351baf12a2c9969495a11d5607a5dcd0dc3f6f" dmcf-pid="4l8awGc6RD" dmcf-ptype="general">그는 "기존 AI 모델은 계산을 위해 소수점 네 자리 정도까지 표현할 수 있는 숫자 형식인 FP16을 사용한다"며 "이 방식은 GPU 메모리를 많이 차지하고 처리 속도도 느리다는 단점이 있다"고 지적했다.</p> <p contents-hash="6044c4b0aac3c43d2b3eee4837400a59928b68de73d10562d134170d293ea937" dmcf-pid="8S6NrHkPLE" dmcf-ptype="general">이어 "레드햇은 이를 FP8이나 FP4처럼 절반 이하 수준의 더 간단한 형식으로 바꾸는 기술을 갖추고 있다"고 설명하며 "덕분에 모델 크기는 작아지고 연산 속도는 빨라진다. 실제로 처리 속도는 최대 4배까지 향상됐고 GPU 메모리 사용량도 크게 줄었다"고 소개했다.</p> <p contents-hash="668daee7e2e3bc8c590595c38808ab284a61cfe37f8769c4ba01879f3c4a98ca" dmcf-pid="6vPjmXEQJk" dmcf-ptype="general">레드햇은 'LM 컴프레서'라는 자체 기술을 통해 이 양자화를 오픈소스로 공개했다. 이 덕분에 정확도는 99% 이상 유지하면서도 모델 경량화가 가능하다. 실제로 허깅페이스에서 매달 100만 건 이상 관련 모델이 다운로드되고 있다.</p> <p contents-hash="e4aa925978ca61cf35948197197b91f29abbe8b99b441f8d030f5a9d4e569429" dmcf-pid="PTQAsZDxLc" dmcf-ptype="general"><strong>"설정 없이 바로 쓴다"…기업을 위한 '완성형 AI 인프라'</strong></p> <p contents-hash="f9da4c73416d8a94937e3324da42232a053dd6622298ca720f382ccd2eadd941" dmcf-pid="QyxcO5wMRA" dmcf-ptype="general">이와 함께 레드햇은 오픈소스 기반의 VLM과 양자화 기술을 한데 묶은 상용 서비스인 레드햇 AI 인퍼런스 서버도 출시했다.</p> <p contents-hash="ef7a7375a74648dadee889763d939d931ab340420f1a068b58665097e3c2cb57" dmcf-pid="xWMkI1rRej" dmcf-ptype="general">이 제품은 AI 추론 서버를 기업이 실제 환경에서 바로 쓸 수 있도록 구성했다. VLM 기반으로 기업에 최적화된 AI 모델, 양자화 도구, 보안 업데이트, 기업용 기술지원이 함께 제공된다.</p> <p contents-hash="09fb4ab4252b258edae57e15e76accaeb436c514c1e3caa71deb4a30549a4bcb" dmcf-pid="yMW7VLbYLN" dmcf-ptype="general">레드햇 엔터프라이즈 리눅스(RHEL), 오픈시프트(OpenShift) 등 레드햇이 제공하는 서비스와 모두 호환되며 기술지원을 위한 서비스수준협약(SLA)도 제공한다.</p> <p contents-hash="df807e2392afaac3fbfc63f6b3e141f38d3278b03321dc8e7bc680c30ed0c5b4" dmcf-pid="WRYzfoKGJa" dmcf-ptype="general">그는 "오픈소스 VLM이 개발자들을 위한 도구라면 인퍼런스 서버는 기업을 위한 완성된 제품"이라며 "컨테이너 형태로 제공돼 누구나 바로 배포하고 운영할 수 있는 것이 강점"이라고 강조했다.</p> <p contents-hash="4c549c1a72a881925e525ebd26e6087700a046f3b7c2ddd517b7135ddedc8ebf" dmcf-pid="YeGq4g9Heg" dmcf-ptype="general">이어 "AI는 더 이상 선택이 아닌 생존의 조건으로 지금은 복잡한 기술을 공부할 때가 아니라 우리 기업의 어디에 AI를 적용할지 고민해야 할 때"라며 "레드햇은 그 진입 장벽을 최대한 낮추기 위해 노력할 것"이라고 덧붙였다.</p> <p contents-hash="d9ae956145ab7e356de3aadbe1e28f363de4e172a3c8e05d866832f873274ce8" dmcf-pid="GdHB8a2XMo" dmcf-ptype="general">남혁우 기자(firstblood@zdnet.co.kr)</p> </section> </div> <p class="" data-translation="true">Copyright © 지디넷코리아. 무단전재 및 재배포 금지.</p> 관련자료 이전 풋옵션 불확실성 해소한 위메이드…"게임 사업에 집중" 07-02 다음 ‘두 체급 챔피언’ 토푸리아 향한 사루키안의 ‘역대급’ 도발 “올리베이라보다 쉽다, 테이크다운 1000번도 할 수 있어” [UFC] 07-02 댓글 0 등록된 댓글이 없습니다. 로그인한 회원만 댓글 등록이 가능합니다.