[초점] "1.4년이면 본전 뽑는다"…AI데이터센터 수익
경제타임스 김은국 기자 | 전 세계 AI 산업의 지형도가 '성능 경쟁'을 넘어 '수익성 확보'의 단계로 급격히 전환되고 있다. 엔비디아(NVIDIA)의 H100 한 장이 고급 세단 가격과 맞먹는 고가에 거래되는 상황 속에서, 이를 기반으로 한 인프라 구축이 실제 어느 정도의 수익을 창출하는지에 대한 구체적인 분석 결과가 도출되어 업계의 이목을 끈다. 엔비디아의 H100은 차세대 AI·고성능컴퓨팅(HPC) 수요에 대응하기 위해 개발된 데이터센터용 GPU로, ‘Hopper’ 아키텍처를 기반으로 초대형 언어모델(LLM) 학습과 추론 성능을 대폭 끌어올린 것이 특징이다. 특히 4세대 텐서코어와 고대역폭 메모리(HBM)를 탑재해 대규모 병렬 연산 효율을 극대화했으며, 글로벌 빅테크 기업들의 AI 인프라 구축 경쟁 속에서 핵심 가속기로 자리매김하고 있다. ■ 서버 한 대당 5억 투자…'시간당 10만 원'의 마법 AI 데이터센터의 핵심 수익 모델은 이른바 'GPU 서비스(GPUaaS)'다. 이는 고객에게 서버 자체를 판매하는 것이 아니라, 컴퓨팅 파워를 필요에 따라 시간 단위로 쪼개 임대하는 방식이다. AI 데이터센터는 대규모 인공지능 연산을 처리하기 위해 GPU 서버를