엔비디아, 韓에 26만장 '블랙웰' 공급…삼성·SK '수혜'

  • 등록 2025.10.31 16:19:15
크게보기

국산 HBM3E 208만개 투입…AI 인프라 자립 기반 구축
삼성·SK, HBM4 양산 경쟁 본격화…AI 반도체 패권 격돌

 

 

경제타임스 김은국 기자 |   엔비디아최신 GPU ‘블랙웰(GB200)’ 26만 장을 한국에 공급하기로 하면서 국내 반도체 업계가 대규모 수혜를 입게 됐다. 특히 고대역폭메모리(HBM)를 납품하는 삼성전자 SK하이닉스가 나란히 핵심 파트너로 참여하면서, 글로벌 AI 반도체 시장의 ‘HBM 주도권 경쟁’이 본격화되고 있다.

 

 


■ 블랙웰 26만장 투입…HBM3E 208만개, 9천억원 시장 형성

 

10월31일 업계에 따르면, 엔비디아는 정부 및 민간 대기업과 함께 추진 중인 ‘소버린 AI(Sovereign AI)’ 인프라 확충 프로젝트의 일환으로 한국에 블랙웰 GPU 26만 장을 공급한다.

 

공급처는 △삼성전자 5만 장 △SK그룹 5만 장 △과학기술정보통신부 5만 장 △현대차그룹 5만 장 △네이버클라우드 6만 장 등이다. 블랙웰 GPU 1개에는 HBM3E(5세대) 12단이 8개씩 탑재돼 있어, 총 26만 장에는 HBM3E 약 208만 개가 필요하다.

 

HBM3E 12단의 단가는 약 300달러 수준으로, 전체 물량의 시장 규모는 약 9천억 원대로 추산된다. 이번 공급분은 전량 국내 AI 인프라 구축에 투입되며, 업계는 “삼성전자와 SK하이닉스가 주요 공급사로 낙점될 가능성이 높다”고 보고 있다.

 

과학기술정보통신부는 이 GPU를 국가 AI 컴퓨팅센터 및 민간 클라우드 기업에 우선 배치해, AI 인프라의 자립 기반을 마련할 계획이다. 배경훈 부총리 겸 과기부 장관은 “AI는 더 이상 혁신의 수단이 아니라 산업의 근간이 됐다”며 “엔비디아와의 협력은 한국이 세계 3대 AI 강국으로 도약하기 위한 핵심 투자”라고 말했다.

 

■ 삼성·SK, 각각 5만장 ‘AI 팩토리’ 구축…HBM4 주도권 경쟁 가열

 

삼성전자와 SK그룹은 각각 5만 장 규모의 AI 팩토리 구축을 통해 엔비디아와의 협력 관계를 강화하고 있다. 삼성전자는 반도체 AI 팩토리를 중심으로 엔비디아의 Omniverse·cuLitho·Isaac Sim·Cosmos 등의 기술을 접목해 지능형 반도체 제조 및 로봇 개발을 추진한다. 공정 설계부터 품질 검증까지 AI 기반 디지털 트윈 환경을 구현함으로써 반도체 생산 효율을 높이는 것이 목표다.

 

SK그룹은 5만 장의 GPU를 활용해 아시아 최초의 산업용 AI 클라우드를 구축한다. SK텔레콤은 RTX PRO 6000 블랙웰 서버 GPU 기반 인프라를 운영하며, 제조·로보틱스 스타트업과 공공기관에도 개방형 AI 개발 환경을 제공할 예정이다.

 

현대차그룹도 엔비디아 및 정부와 협력해 5만 장 규모의 블랙웰 GPU를 도입, 자율주행 및 스마트 제조 분야의 AI 모델 학습과 검증에 투입한다. 투자 규모는 약 30억 달러(한화 약 4조 원)에 달한다.

 

네이버클라우드는 6만 장 이상의 GPU를 확보해 초거대언어모델(LLM) 연구와 산업 맞춤형 AI 모델 개발을 본격화하고 있다.

 

■ HBM4 양산 체제 돌입…삼성·SK ‘2강 체제’ 확립

 

이번 공급을 계기로 HBM 시장의 주도권 경쟁은 SK하이닉스와 삼성전자 중심의 ‘2강 체제’로 굳어지고 있다.

 

SK하이닉스는 현재 글로벌 HBM 시장 점유율 50% 이상으로 압도적 1위를 유지 중이며, 지난 9월 업계 최초로 HBM4 양산 체제를 구축해 4분기부터 출하를 시작했다. 젠슨 황 엔비디아 CEO는 지난 5월 ‘컴퓨텍스 2025’ 현장에서 직접 SK하이닉스 부스를 찾아 “HBM4를 잘 지원해 달라”고 언급하며 긴밀한 협력을 재확인했다.

 

삼성전자 역시 빠른 속도로 추격 중이다. 삼성은 최근 실적 발표에서 “HBM3E를 전 고객사 대상으로 양산 중”이라고 공식화했으며, 엔비디아향 12단 제품 공급도 개시했다. 또한 HBM4 샘플을 주요 고객사에 이미 출하했으며, 최종 협의가 마무리되는 대로 본격적인 양산에 돌입할 예정이다.

 

엔비디아는 “삼성과는 20년 넘는 협업 관계를 이어오고 있으며, 현재 HBM3E와 HBM4 모두 핵심 공급 협력을 진행 중”이라고 밝혔다.

 

■ “한국은 지능 수출국”…AI 산업 중심지로 부상

 

젠슨 황 엔비디아 CEO는 “한국은 기술과 제조의 리더로서, 가속 컴퓨팅 인프라가 전력망과 브로드밴드만큼 중요한 시대의 중심에 서 있다”며 “한국은 이제 ‘지능(Intelligence)’을 새로운 수출품으로 만들 수 있는 국가가 됐다”고 평가했다.

 

이번 협력은 단순한 GPU 공급에 그치지 않는다. 엔비디아는 삼성전자, SK텔레콤, KT, LG유플러스, ETRI, 연세대 등과 함께 AI-RAN(지능형 무선망) 및 6G 통신 기술 공동 개발에도 착수했다. 또한 네이버클라우드·LG AI리서치·SK텔레콤·NC AI 등과 협력해 ‘소버린 AI 파운데이션 모델 프로젝트’를 진행, 엔비디아의 NeMo 및 Nemotron 데이터셋을 기반으로 한국어 특화 초거대언어모델(LLM)을 개발 중이다.

 

이번 프로젝트는 한국이 AI 반도체–클라우드–언어모델–통신망까지 AI 전주기 산업의 허브로 부상하고 있음을 보여준다.

 



■ 용어 설명 

 

 · HBM(High Bandwidth Memory·고대역폭 메모리) = AI와 초고속 데이터처리 시대를 견인하는 차세대 반도체 메모리다. 기존 D램보다 데이터 전송 속도는 최대 8배 이상 빠르고, 전력 소모는 절반 수준에 불과하다. 고성능 AI 연산, 3D 그래픽, 슈퍼컴퓨팅, 데이터센터 서버 등에서 대규모 데이터를 초고속으로 처리해야 하는 환경에 최적화돼 있다. HBM은 단일 칩을 수평으로 배열하는 기존 구조(DIMM)와 달리, D램 칩을 여러 층으로 수직 적층(Stacking)한 뒤 초정밀 미세 연결공정(TSV, Through-Silicon Via)을 통해 신호를 주고받는다. 이 덕분에 단위 면적당 데이터 처리량(대역폭)이 대폭 확대되고, 고성능 프로세서(GPU·CPU)와의 연결 효율이 획기적으로 향상됐다.
AI 산업에서 HBM은 ‘AI 반도체의 심장’으로 불린다. AI 모델 학습에는 수백억 개의 파라미터를 실시간으로 처리해야 하는데, 이때 HBM이 GPU(그래픽처리장치) 옆에 탑재돼 초고속으로 데이터를 공급하는 역할을 한다. 즉, GPU가 엔진이라면 HBM은 ‘연료공급장치’에 해당한다. 현재 글로벌 AI GPU 시장을 주도하는 엔비디아(NVIDIA)의 주력 제품인 ‘H100·B200’에는 모두 HBM3 또는 HBM3E가 탑재되어 있다. 공급의 대부분은 SK하이닉스와 삼성전자, 그리고 일부 마이크론(Micron)이 담당한다. 특히 SK하이닉스는 HBM3E 양산을 세계 최초로 성공하며 시장 점유율 60% 이상을 차지, AI 반도체 공급망의 중심으로 부상했다.
HBM의 가장 큰 특징은 첨단 공정 기술의 집약체라는 점이다. 수십억 개의 미세 전극을 실리콘 웨이퍼를 관통해 연결하는 TSV 공정과, 적층 칩 간 열(heat)과 전력 효율을 정밀하게 제어해야 하는 3D 패키징 기술이 핵심이다. 이 때문에 수율(양품 비율)을 유지하기 어렵고, 생산 공정 시간과 비용이 일반 D램보다 월등히 높다. 시장에서는 “HBM은 기술력 없이는 양산이 불가능한 ‘초격차 메모리’”로 불린다. 이 같은 기술 진입 장벽 덕분에 한국 기업들이 글로벌 AI 반도체 경쟁에서 압도적 우위를 점하고 있다.
전문가들은 HBM을 “미래 반도체 산업의 원유”라고 표현한다. AI 학습 데이터가 폭발적으로 늘어날수록 HBM 수요도 기하급수적으로 증가하기 때문이다. 2023년 이후 엔비디아, 구글, 마이크로소프트, 아마존 등 글로벌 빅테크 기업들이 AI 데이터센터 구축을 가속화하면서 HBM 수급이 ‘전략물자급’ 이슈로 부상했다. 시장조사업체 트렌드포스(TrendForce)에 따르면 HBM 시장 규모는 2023년 24억 달러에서 2027년 210억 달러로 8배 이상 성장할 전망이다. 향후 2~3년 내 글로벌 반도체 경쟁의 핵심은 “누가 더 많은 HBM을 안정적으로 공급할 수 있느냐”로 귀결될 가능성이 높다.

 

김은국 기자 misterk@hanmail.net
Copyright @경제타임스 Corp. All rights reserved.