본문으로 건너뛰기
피드

AI 산업, 대체 왜 아직도 이러고 있는 건가 — 구독 모델의 구조적 파산과 데이터센터 거품

ai-ml 약 7분

AI 부스터들의 미래 시제 남용을 비판하며 Anthropic과 OpenAI의 처참한 경제 구조, 구독 모델의 근본적 한계, 데이터센터 부채가 만들 수 있는 다음 금융위기를 상세히 분석한 글.

  • 1

    Anthropic은 총 매출 50억 달러에 추론+훈련 비용 100억 달러 이상 지출

  • 2

    Claude 월 20달러 구독자가 실제 163달러어치 컴퓨트를 소비할 수 있는 구조적 문제

  • 3

    AI 스타트업들은 전부 수억 달러를 투자받아 수천만 달러를 버는 동일한 패턴

  • 4

    Nebius, Nscale 등 데이터센터 회사들이 현재 용량 대비 수십 배 규모의 계약을 체결하고 부채를 일으키는 구조

  • 5

    대기업 AI 매출은 전체 매출의 1-3% 수준에 불과

AI 산업, 대체 왜 아직도 이러고 있는 건가

  • "Where's Your Ed At" 뉴스레터의 Ed Zitron이 AI 산업의 경제 구조를 정면으로 해부한 글임. 핵심 요구: AI 부스터들이여, 이제 미래 시제를 쓰지 마라. "될 것이다", "가능성이 있다", "추세가 보인다" 같은 표현은 더 이상 받아들이지 않겠다는 거임
  • Anthropic은 전체 존재 기간 동안 매출 50억 달러를 올렸는데, 추론과 훈련에만 100억 달러 이상을 썼음. 300억 달러 투자받아서 50억 달러 벌었다는 건 그냥 나쁜 장사임
  • OpenAI도 상황이 비슷함. 2025년 매출 131억 달러를 주장하지만, 2025년 9월까지 매출 43억 달러에 추론 비용만 86.7억 달러였던 걸 감안하면 숫자가 안 맞음

구독 모델은 구조적으로 망했음

  • Claude 월 20달러 구독자가 실제로는 163달러어치의 컴퓨트를 태울 수 있음. Anthropic의 그로스 마진이 38%라고 가정하면, 163달러 컴퓨트의 원가는 101달러임
  • 이걸 해결하려면 구독료를 최소 3배 이상 올려야 하는데, 월 80달러짜리 AI 구독은 소비자 대부분을 날려버림. 월 400~800달러면 자동차 할부금 수준임
  • 100명의 엔지니어 팀이 Claude Max 5x를 쓰면 연 48만 달러임. API로 전환하면? 엔지니어당 하루 25달러만 태워도 연 91만 2,500달러. 하루 40달러면 연봉 총액의 10%가 컴퓨트 비용으로 나감

중요

> 레딧의 한 유저는 API 비용으로 하루 200300달러를 쓰다가, Lambda에서 GPU 클러스터를 하루 4050달러에 빌려서 오픈소스 모델(Qwen 3.5)을 돌리는 쪽으로 전환했음. 그래도 연 1만 4,600달러임.

  • 구독 사용자는 "토큰"이나 "컴퓨트"를 직접적으로 의식하지 않음. 월 정액제니까 비용 감각이 없는 거임. 마치 우버가 월 20달러 무제한 탑승을 제공하다가 갑자기 갤런당 250달러짜리 기름값을 청구하는 격임
  • API 전환 시 예산 편성이 불가능함. 프롬프트 하나가 얼마나 토큰을 태울지 예측할 수 없고, 결과가 마음에 안 들면 다시 돌려야 하는데 그 비용도 예측 불가임

"우버랑 비교하지 마라"

  • 우버는 운전기사의 차량도, 기름값도 안 냄. PP&E(유형자산)가 15~21억 달러 수준. AI 회사와 비용 구조가 근본적으로 다름
  • 우버는 건당 과금이라 가격 인상 시 사용자가 습관을 바꿀 필요가 없었음. AI 회사는 정액제에서 종량제로 전환해야 하는데, 이건 사용자 행동을 완전히 뒤집는 거임

AI 스타트업은 전부 같은 패턴임

  • Cursor: 연간화 매출 20억 달러 (월 1.66억)인데, 2025년에만 30억 달러를 투자받음
  • Harvey: 2억 달러 투자에 110억 달러 밸류에이션, ARR은 겨우 1.9억 달러
  • Lovable: ARR 4억 달러인데, 총 5.45억 달러를 투자받음
  • 패턴이 동일함: 수억 달러를 받아서 수천만 달러를 벌고, 마진은 전혀 개선되지 않음

데이터센터 거품이 다음 금융위기를 만들 수 있음

  • Nebius가 Meta와 270억 달러 규모의 컴퓨트 딜을 체결했는데, Nebius의 현재 가용 전력은 170MW뿐임. 이 딜에 필요한 용량을 어떻게 확보할 건지 아무도 설명 못 함
  • Nscale은 NVIDIA, Lenovo 등으로부터 20억 달러를 투자받고 Microsoft와 1.35GW 딜을 맺었는데, 가디언이 UK 데이터센터 예정 부지를 방문해보니 전봇대와 고철이 쌓인 창고였음
  • 이런 회사들이 거대 계약을 맺는 이유는 그 계약서를 담보로 부채를 일으켜 NVIDIA GPU를 사려는 것임

⚠️주의

> 데이터센터 부채에 연금과 보험 자금이 유입되고 있음. Blackstone은 Oracle 데이터센터 380억 달러 투자의 일부를 보험 자금으로 충당함. 2008년 금융위기의 "주택"이 2026~27년에는 "데이터센터"로 바뀔 수 있다는 경고임.

  • CoreWeave 2025년 매출의 77%가 Microsoft와 NVIDIA에서 나옴. NVIDIA는 향후 5년간 260억 달러를 자사 GPU 재임대에 쓸 계획인데, 이건 실제 유기적 수요가 거의 없다는 뜻임

대기업 AI 매출도 허상에 가까움

  • Adobe "AI 퍼스트" 매출: ARR 3.75억 달러 → 분기당 최대 6천만 달러 (분기 매출 60억 달러 대비)
  • Salesforce Agentforce: 연 8억 달러 → 월 6,600만 달러 (연 매출 110억 달러 대비)
  • ServiceNow: "연간 계약 가치 6억 달러" (연 매출 100억 달러 이상 대비)
  • Shopify: AI 매출 비공개. Workday: AI 제품 ARR 4억 달러 → 월 3,300만 달러 (분기 매출 25억 달러 대비)
  • 4년이 지났는데 여전히 AI 매출을 수수께끼 같은 숫자로 포장하고 있음

바이브 코딩과 코드를 안 읽는 개발자들

  • AWS가 자사 AI 코딩 도구 Kiro 사용 후 여러 차례 장애를 겪었고, 이제 주니어/미드 레벨 엔지니어의 AI 생성 코드 변경에 상급자 승인을 요구함
  • Spotify CEO가 "톱 개발자들이 기본적으로 코드를 안 쓴다"고 말한 건 상당히 우려스러운 대목임
  • LLM이 모든 코드를 작성할 수는 있지만, 그게 좋은 코드라는 보장은 없고, 사람이 의도를 이해한다는 보장도 없음. "돌아가니까 됐지"는 위험한 태도임
  • 결론: ROI가 어디에도 없음. AI 기업도, AI 스타트업도, AI를 도입한 대기업도 실제 수익을 보여주지 못하고 있음. 1조 달러 가까이 태워놓고 "곧 좋아질 것"만 반복하는 건 거대한 사기극에 가깝다는 주장임

AI 경제에 대한 가장 공격적이면서도 수치 근거가 탄탄한 비판. 특히 구독 모델의 토큰 비용 불일치와 데이터센터 부채 구조는 개발자도 알아둬야 할 현실임.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.