경제타임스 김은국 기자 | 차세대 고대역폭메모리(HBM, High Bandwidth Memory, 대역폭을 극단적으로 높인 3D 적층 메모리 기술)에 그래픽처리장치(GPU, Graphics Processing Unit, 그래픽·병렬 연산 처리에 특화된 연산장치) 코어를 직접 탑재하는 기술이 글로벌 빅테크를 중심으로 현실화 단계에 들어섰다. AI 성능 향상을 위해 메모리와 연산 기능을 하나의 아키텍처로 통합하는 시도가 본격화되면서, 메모리 기업과 시스템 반도체 기업 간 경계가 빠르게 허물어지고 있다는 분석이다. 최근 업계에 따르면 메타와 엔비디아가 HBM 하단의 ‘베이스다이(Base Die or Base Layer Die, HBM 적층 구조의 가장 아래 위치한 기저 칩)’에 GPU 코어를 내장하는 구조를 검토하고 있으며, 이 기술 구현을 위해 SK하이닉스와 삼성전자에 협력 방안을 타진한 것으로 알려졌다. 복수의 반도체 관계자는 “차세대 맞춤형 HBM 아키텍처 논의가 진행 중이며, 그중 GPU 코어의 직접 통합이 핵심 기술 과제로 부상했다”고 설명했다. HBM은 여러 장의 D램을 수직 적층해 만든 고성능 메모리로, 방대한 데이터를 실시간 처리해야 하는 생성형 A
경제타임스 김은국 기자 | HBM(High Bandwidth Memory·고대역폭 메모리)은 AI와 초고속 데이터처리 시대를 견인하는 차세대 반도체 메모리다. 기존 D램보다 데이터 전송 속도는 최대 8배 이상 빠르고, 전력 소모는 절반 수준에 불과하다. 고성능 AI 연산, 3D 그래픽, 슈퍼컴퓨팅, 데이터센터 서버 등에서 대규모 데이터를 초고속으로 처리해야 하는 환경에 최적화돼 있다. HBM은 단일 칩을 수평으로 배열하는 기존 구조(DIMM)와 달리, D램 칩을 여러 층으로 수직 적층(Stacking)한 뒤 초정밀 미세 연결공정(TSV, Through-Silicon Via)을 통해 신호를 주고받는다. 이 덕분에 단위 면적당 데이터 처리량(대역폭)이 대폭 확대되고, 고성능 프로세서(GPU·CPU)와의 연결 효율이 획기적으로 향상됐다. AI 산업에서 HBM은 ‘AI 반도체의 심장’으로 불린다. AI 모델 학습에는 수백억 개의 파라미터를 실시간으로 처리해야 하는데, 이때 HBM이 GPU(그래픽처리장치) 옆에 탑재돼 초고속으로 데이터를 공급하는 역할을 한다. 즉, GPU가 엔진이라면 HBM은 ‘연료공급장치’에 해당한다. 현재 글로벌 AI GPU 시장을 주도하는 엔비
경제타임스 김은국 기자 | 삼성전자와 SK하이닉스가 나란히 ‘어닝 서프라이즈’를 기록하며 반도체 경기 반등의 신호탄을 쏘아올렸다. AI(인공지능) 수요 급증에 따라 HBM(고대역폭메모리)·DDR5 등 고부가 메모리 시장이 폭발적으로 성장하면서, 두 회사의 영업이익이 동반 급증했다. 14일 DS투자증권에 따르면 삼성전자는 2025년 3분기 매출 85조9000억원(+15% QoQ(Quarter-on-Quarter), +9% YoY(Year-on-Year)), 영업이익 12조1000억원(+159% QoQ, +32% YoY)을 기록하며 시장 컨센서스(10.1조 원)를 크게 웃돌았다 SK하이닉스 역시 3분기 영업이익이 6조원 안팎으로 추정되며, 전년 동기 대비 250% 이상 증가할 것으로 전망된다. 양사는 모두 2022년 하반기 이후 약 2년 만에 ‘반도체 호황기’에 재진입했다는 평가다. ■ 삼성전자, DRAM·NAND 동반 호조…비메모리 적자 축소도 기여 삼성전자의 실적 호조는 DS(반도체) 부문이 이끌었다. 3분기 DS 부문 영업이익은 6.7조 원으로 추정되며, DRAM 6.8조 원, NAND 0.5조 원, LSI/파운드리 -0.5조 원으로 세부 구성됐다 특히 H