[초점] "1.4년이면 본전 뽑는다"…AI데이터센터 수익

  • 등록 2026.03.23 09:09:27
크게보기

서버 1대 5억 투자해 연 6억 매출…GPU 임대 '황금알' 실체
전기료·냉각비 빼도 순익 60%…빅테크가 GPU 싹쓸이한 이유

 

 

 

 

경제타임스 김은국 기자 |  전 세계 AI 산업의 지형도가 '성능 경쟁'을 넘어 '수익성 확보'의 단계로 급격히 전환되고 있다. 엔비디아(NVIDIA)의 H100 한 장이 고급 세단 가격과 맞먹는 고가에 거래되는 상황 속에서, 이를 기반으로 한 인프라 구축이 실제 어느 정도의 수익을 창출하는지에 대한 구체적인 분석 결과가 도출되어 업계의 이목을 끈다.

 

엔비디아의 H100은 차세대 AI·고성능컴퓨팅(HPC) 수요에 대응하기 위해 개발된 데이터센터용 GPU로, ‘Hopper’ 아키텍처를 기반으로 초대형 언어모델(LLM) 학습과 추론 성능을 대폭 끌어올린 것이 특징이다. 특히 4세대 텐서코어와 고대역폭 메모리(HBM)를 탑재해 대규모 병렬 연산 효율을 극대화했으며, 글로벌 빅테크 기업들의 AI 인프라 구축 경쟁 속에서 핵심 가속기로 자리매김하고 있다.

 

■ 서버 한 대당 5억 투자…'시간당 10만 원'의 마법

 

AI 데이터센터의 핵심 수익 모델은 이른바 'GPU 서비스(GPUaaS)'다. 이는 고객에게 서버 자체를 판매하는 것이 아니라, 컴퓨팅 파워를 필요에 따라 시간 단위로 쪼개 임대하는 방식이다. AI 데이터센터는 대규모 인공지능 연산을 처리하기 위해 GPU 서버를 고밀도로 집적한 인프라로, 기존 데이터센터 대비 전력·냉각·네트워크 요구사항이 크게 강화된 것이 특징이다. 특히 서버 랙당 전력 소모가 급격히 증가하고 액체 냉각 등 첨단 열관리 기술이 적용되면서 설계 구조 자체가 변화하고 있다.

 

업계 시뮬레이션에 따르면, GPU 8장을 탑재한 서버 한 대의 총 투자비(CAPEX, Capital Expenditures)는 약 5억원으로 산출된다. 구체적으로는 GPU 가격만 3.2억원(장당 4,000만원)에 달하며, 이를 수용하는 서버 본체, 랙(Rack), 초고속 네트워크 장비 및 전력 인프라 구축 등에 추가로 1.8억원이 투입된다.

 

수익의 핵심은 '가동률'에 있다. 연간 가동률을 70%로 가정할 경우, 서버 한 대가 벌어들이는 시간당 이용료 10만원(장당 약 1.25만원)은 연간 약 6.13억원의 매출로 이어진다.

 

■ 숨은 비용 OPEX…전기료와 감가상각이 성패 갈라

 

매출액이 곧바로 순이익이 되는 것은 아니다. 데이터센터는 막대한 전력을 소모하며 이를 식히기 위한 냉각 설비 유지비 또한 만만치 않다. 운영비용(OPEX, Operating Expenses)에는 전력비 외에도 전문 인건비, 건물 유지비, 그리고 장비 가치 하락에 따른 감가상각비가 포함된다.

 

일반적으로 운영비 비중을 매출의 40%로 설정할 경우, 연간 순영업이익(EBITDA, Earnings Before Interest, Taxes, Depreciation, and Amortization)은 약 3.68억원으로 집계된다. 이를 초기 투자비 5억원과 대조하면, 투자 원금을 전액 회수하는 데 걸리는 시간은 약 1.36년(약 16개월)에 불과하다. 이는 일반적인 제조업이나 부동산 투자가 원금 회수에 수년에서 수십 년이 소요되는 것과 비교하면 경이적인 수익성이다.

 

■ '치킨 게임'의 서막…가격 하락 압박은 변수

 

다만 장밋빛 전망만 존재하는 것은 아니다. Vast.ai, RunPod 등 GPU 마켓플레이스가 활성화되면서 공급업체간 가격 경쟁이 격화되는 양상이다.

 

최근 시장에서는 H100 임대 가격이 시간당 1.49달러~2.5달러 수준까지 거래되는 사례가 관측되고 있다. 공급자가 남는 자원을 놀리느니 저렴하게라도 돌리려는 '스팟(Spot) 가격' 성격이 강하기 때문이다. 일부 공격적인 업체들은 장기 약정을 조건으로 시간당 1달러(약 1,300원) 미만의 파격적인 가격을 제시하며 시장 점유율 확대를 꾀하고 있다. 이는 시간당 장당 1.25만 원을 상정했던 기존 수익 모델의 기대 수익치를 낮추는 요인이 된다.

 

또한 엔비디아의 차세대 칩 출시 주기가 짧아지면서 기존 장비의 기술적 노후화 속도가 빨라지고 있다는 점도 리스크다. 전문가들은 GPU 투자가 사실상 '속도전'이며, 감가상각이 완료되기 전인 초기 1~2년 내에 최대 가동률을 확보하는 것이 사업의 성패를 가를 것이라고 진단한다.

 

■ '규모의 경제'와 '전력 효율' 싸움

 

AI 데이터센터 비즈니스는 높은 진입 장벽을 빠른 회수 기간으로 극복하는 '고위험 고수익' 모델의 전형이다. GPU를 대량으로 보유하는 것을 넘어, 전력 사용 효율(PUE, Power Usage Effectiveness, 값이 1에 가까울수록 에너지 효율이 높다)을 얼마나 낮출 수 있는지와 유휴 자원을 최소화할 수 있는 안정적인 대형 고객사를 선점하느냐가 향후 AI 인프라 전쟁의 승부처가 될 전망이다.

 

김은국 기자 misterk@hanmail.net
Copyright @경제타임스 Corp. All rights reserved.