경제타임스 김은국 기자 | 인공지능(AI) 인프라 시장을 지탱하던 ‘메모리 무용론’이 다시 고개를 들었다. 구글이 소프트웨어 혁신을 통해 하드웨어의 한계를 뛰어넘는 압축 기술을 공개하자, 견고하던 삼성전자와 SK하이닉스의 주가가 맥없이 주저앉았다. 하지만 시장 일각에서는 이번 하락이 오히려 AI 대중화를 앞당기는 ‘역설적 기회’가 될 것이라는 분석도 팽팽하게 맞서고 있다.
■ 구글발 ‘터보퀀트’ 쇼크, 여의도를 덮치다
지난 3월27일 오전, 유가증권시장은 그야말로 ‘블랙 프라이데이’를 방불케 하는 하락세로 시작했다. 국내 반도체 산업의 기둥인 삼성전자와 SK하이닉스가 나란히 3~4%대 급락세를 보이며 지수를 끌어내리고 있다. 삼성전자는 전 거래일 대비 3.61% 내린 17만3,600원에, SK하이닉스는 4.39% 하락한 89만2,000원에 거래되며 투자자들의 심리를 위축시켰다.
이번 폭락의 진원지는 태평양 건너 구글이 발표한 AI 압축 알고리즘 ‘터보퀀트(TurboQuant)’다. 이 기술은 AI 모델이 답변을 생성할 때 필수적인 데이터 저장 공간인 ‘KV 캐시’의 메모리 사용량을 기존 대비 최소 6분의 1 수준으로 줄여준다. 이론적으로는 똑같은 성능의 AI를 구현하는 데 필요한 메모리 반도체가 6배나 적게 든다는 의미다.
이미 간밤 미 증시에서는 마이크론(-7.0%)과 샌디스크(-11.0%) 등 글로벌 메모리 거물들이 일제히 폭락하며 예방주사를 맞았지만, 국내 ‘반도체 투톱’이 받는 타격은 예상보다 뼈아픈 모습이다.
KV(Key-Value) 캐시는 생성형 AI가 사용자와 대화를 나눌 때, 앞서 주고받은 문맥과 정보를 일시적으로 보관하는 ‘단기 기억 저장소’다. AI가 답변을 생성할 때마다 처음부터 모든 문장을 다시 읽는 비효율을 줄이기 위해, 이미 계산된 대화 데이터(Key와 Value값)를 메모리에 미리 담아두는 방식을 취한다. 질문이 길어지거나 대화가 이어질수록 이 캐시의 크기는 기하급수적으로 커지며, 이는 곧 GPU(그래픽처리장치)의 메모리 점유율 상승으로 이어진다.
KV 캐시는 AI의 답변 속도를 결정하는 핵심 요소인 동시에, 시스템 전체의 비용과 효율성을 좌우하는 메모리 병목 현상의 주원인으로 꼽힌다. 이번 구글의 '터보퀀트' 기술은 바로 이 저장 용량을 혁신적으로 압축해 AI 운영 비용을 낮추는 데 초점이 맞춰져 있다.
■ ‘KV 캐시’ 압축의 공포…메모리 수요 절벽 오나?
시장이 이토록 민감하게 반응하는 이유는 AI 반도체 투자의 핵심 논리가 ‘다다익선(多多益善)’에 있었기 때문이다. 그동안 AI 모델이 거대화될수록 더 많은 HBM(고대역폭메모리)과 D램이 필요하다는 믿음이 주가를 견인해 왔다.
하지만 터보퀀트는 소프트웨어 최적화만으로 하드웨어 수요를 상쇄할 수 있음을 증명했다. 기존 AI는 ‘HBM 확장’에 의존했다면, TurboQuant은 ‘데이터 자체를 줄이는 방식’으로 병목을 해소한다. 특히 답변 정확도를 유지하면서도 메모리 병목 현상을 해결했다는 점이 치명적이다. 투자자들은 "반도체를 덜 쓰고도 AI가 잘 돌아간다면, 삼성과 하이닉스가 공들여 쌓아온 HBM 성벽이 무너지는 것 아니냐"는 근본적인 의구심을 갖기 시작한 것이다.
< GPU·HBM 메모리 vs TurboQuant >
| 구분 | 기존 GPU+HBM 구조 | TurboQuant 적용 |
|---|---|---|
| 메모리 사용량 | 매우 큼 (HBM 의존) | 대폭 감소 (최대 6배 절감) |
| 병목 현상 | HBM 대역폭·용량 제한 | 병목 완화 |
| 연산 효율 | GPU 수 증가 필요 | 동일 GPU로 효율 상승 |
| 인프라 비용 | 고가 (HBM 중심) | 비용 절감 가능 |
| 산업 영향 | HBM 수요 급증 | 메모리 수요 구조 변화 |
■ 증권가의 반박 “제번스의 역설을 기억하라”
공포가 시장을 지배하고 있지만, AI 전문가와 증권가 분석가들은 차분한 대응을 주문하고 있다. 이번 사태가 작년 초 시장을 흔들었던 ‘딥시크(DeepSeek) 쇼크’의 재판(再版)이 될 가능성이 높다는 것이다.
한지영 키움증권 연구원은 "딥시크 공개 당시에도 엔비디아 등 AI 하드웨어주가 폭락했지만 충격은 한 달을 넘기지 않았다"며 "AI 모델의 효율성이 좋아진다는 것은 곧 서비스 비용의 하락을 의미하며, 이는 더 많은 기업과 개인이 AI를 사용하게 만드는 총수요 확장으로 이어진다"고 진단했다.
김현지 DS투자증권 연구원은 이를 ‘제번스의 역설(Jevons Paradox)’로 설명했다. ‘제번스의 역설(Jevons Paradox)’이란 특정 자원의 이용 효율이 높아져 단위당 소비량이 줄어들었음에도 불구하고, 오히려 해당 자원의 전체 소비량은 장기적으로 늘어나는 현상을 일컫는다.
이 이론은 1865년 영국의 경제학자 윌리엄 스탠리 제번스(William Stanley Jevons)가 그의 저서 <석탄 문제(The Coal Question)>에서 처음 제시했다. 당시 영국은 제임스 와트의 증기기관 개량으로 석탄 이용 효율이 비약적으로 향상되었다. 상식적으로는 효율이 좋아진 만큼 석탄 소비가 줄어야 했으나, 실제로는 석탄을 활용한 산업 공정이 저렴해지고 활용 범위가 전 산업군으로 확대되면서 전체 석탄 수요가 폭증하는 결과가 나타났다.
제번스의 역설이 발생하는 핵심 기제는 ‘비용 하락에 따른 수요 탄력성’에 있다. 효율 개선은 곧 생산 단가 하락으로 이어지고, 이는 다시 해당 자원을 사용하는 서비스의 문턱을 낮추어 새로운 시장을 창출하기 때문이다.
최근 이 이론은 인공지능(AI)과 반도체 산업에서 다시금 주목받고 있다. 구글의 ‘터보퀀트’처럼 AI 모델의 메모리 사용량을 6분의 1로 줄이는 기술이 등장하면, 단기적으로는 메모리 반도체 수요가 줄어드는 것처럼 보일 수 있다. 하지만 추론 비용이 저렴해짐에 따라 전 세계적으로 AI 서비스 도입이 가속화되고, 그간 비용 문제로 포기했던 복잡한 연산 수요가 몰리면서 결국 전체 메모리 반도체 사용량은 이전보다 훨씬 커질 수 있다는 분석이다.
경제 전문가들은 "제번스의 역설은 기술 혁신이 자원 절약을 넘어 산업 생태계의 파이를 키우는 강력한 동력이 될 수 있음을 시사한다"며, AI 효율화 기술을 반도체 업계의 위기가 아닌 시장 확장 단계의 필연적 과정으로 해석하고 있다.
■ 유가·환율·금리…엎친 데 덮친 매크로 악재
주가 발목을 잡는 것은 기술적 요인뿐만이 아니다. 대외 경제 여건도 최악의 시나리오로 흐르고 있다. 미-이란 협상 난항으로 유가가 급등하며 인플레이션 우려를 자극했고, 미 국채 금리는 4.4%선을 위협하며 기술주에 부담을 주고 있다.
특히 달러-원 환율이 마지노선으로 여겨지는 1,500원대를 지속하면서 외국인 투자자들의 ‘셀 코리아(Sell Korea)’를 부추기고 있다. 터보퀀트라는 불씨에 매크로라는 기름이 부어진 형국이다.
■ 단기 노이즈인가, 패러다임 변화인가
관건은 ‘효율화의 속도’보다 ‘수요 창출의 속도’가 빠를 것인가에 달려 있다. 전문가들은 현재 S&P500 테크 업종의 밸류에이션이 이미 상당 부분 조정을 거친 만큼, 과도한 비중 축소보다는 장기적인 관점에서 AI 대중화 수혜주를 선별해야 한다고 조언한다.
구글의 터보퀀트 습격은 메모리 업계에 분명한 경고장을 날렸다. 반도체 기업들은 용량 경쟁을 넘어, 소프트웨어 최적화 기술과 공생하며 새로운 AI 인프라 표준을 제시해야 하는 숙제를 떠안게 됐다.
































