본문으로 건너뛰기
0
r/jeffnews HN 약 7분

AI 산업, 대체 왜 아직도 이러고 있는 건가 — 구독 모델의 구조적 파산과 데이터센터 거품

ai-ml

요약

AI 부스터들의 미래 시제 남용을 비판하며 Anthropic과 OpenAI의 처참한 경제 구조, 구독 모델의 근본적 한계, 데이터센터 부채가 만들 수 있는 다음 금융위기를 상세히 분석한 글.

기사 전체 정리

AI 산업, 대체 왜 아직도 이러고 있는 건가

  • "Where's Your Ed At" 뉴스레터의 Ed Zitron이 AI 산업의 경제 구조를 정면으로 해부한 글임. 핵심 요구: AI 부스터들이여, 이제 미래 시제를 쓰지 마라. "될 것이다", "가능성이 있다", "추세가 보인다" 같은 표현은 더 이상 받아들이지 않겠다는 거임
  • Anthropic은 전체 존재 기간 동안 매출 50억 달러를 올렸는데, 추론과 훈련에만 100억 달러 이상을 썼음. 300억 달러 투자받아서 50억 달러 벌었다는 건 그냥 나쁜 장사임
  • OpenAI도 상황이 비슷함. 2025년 매출 131억 달러를 주장하지만, 2025년 9월까지 매출 43억 달러에 추론 비용만 86.7억 달러였던 걸 감안하면 숫자가 안 맞음

구독 모델은 구조적으로 망했음

  • Claude 월 20달러 구독자가 실제로는 163달러어치의 컴퓨트를 태울 수 있음. Anthropic의 그로스 마진이 38%라고 가정하면, 163달러 컴퓨트의 원가는 101달러임
  • 이걸 해결하려면 구독료를 최소 3배 이상 올려야 하는데, 월 80달러짜리 AI 구독은 소비자 대부분을 날려버림. 월 400~800달러면 자동차 할부금 수준임
  • 100명의 엔지니어 팀이 Claude Max 5x를 쓰면 연 48만 달러임. API로 전환하면? 엔지니어당 하루 25달러만 태워도 연 91만 2,500달러. 하루 40달러면 연봉 총액의 10%가 컴퓨트 비용으로 나감

중요

> 레딧의 한 유저는 API 비용으로 하루 200300달러를 쓰다가, Lambda에서 GPU 클러스터를 하루 4050달러에 빌려서 오픈소스 모델(Qwen 3.5)을 돌리는 쪽으로 전환했음. 그래도 연 1만 4,600달러임.

  • 구독 사용자는 "토큰"이나 "컴퓨트"를 직접적으로 의식하지 않음. 월 정액제니까 비용 감각이 없는 거임. 마치 우버가 월 20달러 무제한 탑승을 제공하다가 갑자기 갤런당 250달러짜리 기름값을 청구하는 격임
  • API 전환 시 예산 편성이 불가능함. 프롬프트 하나가 얼마나 토큰을 태울지 예측할 수 없고, 결과가 마음에 안 들면 다시 돌려야 하는데 그 비용도 예측 불가임

"우버랑 비교하지 마라"

  • 우버는 운전기사의 차량도, 기름값도 안 냄. PP&E(유형자산)가 15~21억 달러 수준. AI 회사와 비용 구조가 근본적으로 다름
  • 우버는 건당 과금이라 가격 인상 시 사용자가 습관을 바꿀 필요가 없었음. AI 회사는 정액제에서 종량제로 전환해야 하는데, 이건 사용자 행동을 완전히 뒤집는 거임

AI 스타트업은 전부 같은 패턴임

  • Cursor: 연간화 매출 20억 달러 (월 1.66억)인데, 2025년에만 30억 달러를 투자받음
  • Harvey: 2억 달러 투자에 110억 달러 밸류에이션, ARR은 겨우 1.9억 달러
  • Lovable: ARR 4억 달러인데, 총 5.45억 달러를 투자받음
  • 패턴이 동일함: 수억 달러를 받아서 수천만 달러를 벌고, 마진은 전혀 개선되지 않음

데이터센터 거품이 다음 금융위기를 만들 수 있음

  • Nebius가 Meta와 270억 달러 규모의 컴퓨트 딜을 체결했는데, Nebius의 현재 가용 전력은 170MW뿐임. 이 딜에 필요한 용량을 어떻게 확보할 건지 아무도 설명 못 함
  • Nscale은 NVIDIA, Lenovo 등으로부터 20억 달러를 투자받고 Microsoft와 1.35GW 딜을 맺었는데, 가디언이 UK 데이터센터 예정 부지를 방문해보니 전봇대와 고철이 쌓인 창고였음
  • 이런 회사들이 거대 계약을 맺는 이유는 그 계약서를 담보로 부채를 일으켜 NVIDIA GPU를 사려는 것임

⚠️주의

> 데이터센터 부채에 연금과 보험 자금이 유입되고 있음. Blackstone은 Oracle 데이터센터 380억 달러 투자의 일부를 보험 자금으로 충당함. 2008년 금융위기의 "주택"이 2026~27년에는 "데이터센터"로 바뀔 수 있다는 경고임.

  • CoreWeave 2025년 매출의 77%가 Microsoft와 NVIDIA에서 나옴. NVIDIA는 향후 5년간 260억 달러를 자사 GPU 재임대에 쓸 계획인데, 이건 실제 유기적 수요가 거의 없다는 뜻임

대기업 AI 매출도 허상에 가까움

  • Adobe "AI 퍼스트" 매출: ARR 3.75억 달러 → 분기당 최대 6천만 달러 (분기 매출 60억 달러 대비)
  • Salesforce Agentforce: 연 8억 달러 → 월 6,600만 달러 (연 매출 110억 달러 대비)
  • ServiceNow: "연간 계약 가치 6억 달러" (연 매출 100억 달러 이상 대비)
  • Shopify: AI 매출 비공개. Workday: AI 제품 ARR 4억 달러 → 월 3,300만 달러 (분기 매출 25억 달러 대비)
  • 4년이 지났는데 여전히 AI 매출을 수수께끼 같은 숫자로 포장하고 있음

바이브 코딩과 코드를 안 읽는 개발자들

  • AWS가 자사 AI 코딩 도구 Kiro 사용 후 여러 차례 장애를 겪었고, 이제 주니어/미드 레벨 엔지니어의 AI 생성 코드 변경에 상급자 승인을 요구함
  • Spotify CEO가 "톱 개발자들이 기본적으로 코드를 안 쓴다"고 말한 건 상당히 우려스러운 대목임
  • LLM이 모든 코드를 작성할 수는 있지만, 그게 좋은 코드라는 보장은 없고, 사람이 의도를 이해한다는 보장도 없음. "돌아가니까 됐지"는 위험한 태도임
  • 결론: ROI가 어디에도 없음. AI 기업도, AI 스타트업도, AI를 도입한 대기업도 실제 수익을 보여주지 못하고 있음. 1조 달러 가까이 태워놓고 "곧 좋아질 것"만 반복하는 건 거대한 사기극에 가깝다는 주장임

핵심 포인트

  • Anthropic은 총 매출 50억 달러에 추론+훈련 비용 100억 달러 이상 지출
  • Claude 월 20달러 구독자가 실제 163달러어치 컴퓨트를 소비할 수 있는 구조적 문제
  • AI 스타트업들은 전부 수억 달러를 투자받아 수천만 달러를 버는 동일한 패턴
  • Nebius, Nscale 등 데이터센터 회사들이 현재 용량 대비 수십 배 규모의 계약을 체결하고 부채를 일으키는 구조
  • 대기업 AI 매출은 전체 매출의 1-3% 수준에 불과

인사이트

AI 경제에 대한 가장 공격적이면서도 수치 근거가 탄탄한 비판. 특히 구독 모델의 토큰 비용 불일치와 데이터센터 부채 구조는 개발자도 알아둬야 할 현실임.

댓글

댓글

댓글을 불러오는 중...

ai-ml

ARC-AGI-3 등장: AI가 진짜 AGI인지 측정하는 새 벤치마크 나왔다

ARC Prize 팀이 ARC-AGI-3를 공개했는데, 기존 정적 퍼즐 풀기가 아니라 AI가 새로운 환경을 탐색하고 즉석에서 목표를 파악하는 '적응형 추론' 능력을 측정함. 인간 수준으로 게임을 클리어하면 100점인데, 아직 AI와 인간 사이에 격차가 있는 한 AGI가 아니라는 기준을 제시하는 거임.

ai-ml

구글 TurboQuant: AI 모델 압축의 판도를 바꾸는 기술 등장 (ICLR 2026)

구글 리서치가 AI 모델의 핵심 병목인 키-값 캐시(KV Cache) 문제를 해결하는 압축 알고리즘 TurboQuant를 공개했음. 학습 없이 KV 캐시를 3비트까지 줄이면서도 모델 정확도 손실 제로, H100 GPU에서 최대 8배 속도 향상이라는 미친 성능을 보여줌. PolarQuant, QJL과 함께 ICLR 2026에서 발표 예정.

ai-ml

Claude Code에 가장 잘 맞는 프로그래밍 언어는? — 15개 언어 벤치마크 실험

Ruby 커미터가 Claude Code로 간이 Git 구현을 15개 언어로 시켜본 벤치마크. Ruby, Python, JavaScript가 가장 빠르고 저렴하며 안정적이었고, 정적 타입 언어는 1.4~2.6배 느리고 비쌌다. 600회 실행 중 실패는 Rust 2건, Haskell 1건뿐.

ai-ml

llama.cpp, 드디어 리눅스에서도 시스템 RAM 통합 오프로딩 지원

llama.cpp가 리눅스 커널 업데이트, NVIDIA 오픈 드라이버, CUDA 13의 조합으로 리눅스에서도 macOS 수준의 통합 메모리 관리를 지원하게 됐다. 게이밍 PC급 하드웨어로 로컬 AI 추론이 가능해진 셈.

ai-ml

PyTorch 2.11 릴리스

PyTorch 2.11이 2,723개 커밋, 432명 기여자 규모로 릴리스됨. FlashAttention-4 백엔드로 Hopper/Blackwell GPU에서 최대 3.2배 속도 향상, 분산 학습용 Differentiable Collectives, CUDA 13 기본 전환, TorchScript 공식 deprecated 등이 주요 변경사항임.