본문으로 건너뛰기
피드

AI는 쓰레기이고, 거품임 (2025)

ai-ml 약 6분

LLM 기반 AI가 생산성을 오히려 떨어뜨리고, AI 버블이 닷컴의 17배 규모로 경제를 붕괴시킬 것이라는 강경한 주장. MIT, METR, Gartner 등의 연구 데이터를 인용하며 진짜 AI는 모델 구축 경로를 따라야 한다고 주장함.

  • 1

    AI 파일럿 95% 실패(MIT), 코딩 도구 사용 시 개발자 19% 느려짐(METR), AI 에이전트 70% 업무 미완수(Gartner)

  • 2

    AI 버블이 닷컴 버블의 17배, 서브프라임의 4배 규모

  • 3

    42% 기업이 AI 프로젝트 포기 중

  • 4

    진짜 AI는 LLM이 아닌 공간→인과→메타인지→자기모델의 모델 구축 경로 필요

Richard Carrier라는 저자가 "현재 AI는 사기이고, 곧 경제를 박살낼 것"이라는 꽤 과격한 주장을 펼친 장문의 글임. 감정적인 톤이 강하지만, 인용하는 연구 데이터들은 한번 짚어볼 만함.

핵심 주장: AI는 생산성을 오히려 떨어뜨림

  • MIT 연구에 따르면 AI 파일럿 프로젝트의 95%가 실패함. 기업의 수익이나 생산성 향상에 기여하지 못했다는 거임
  • METR 연구 결과가 재밌는데, AI 코딩 도구를 쓴 개발자들이 실제로는 19% 느려졌는데, 본인들은 20% 빨라졌다고 착각했다는 거임. 프롬프트 작성하고, 응답 기다리고, 결과물 검토하고, 안 되면 다시 프롬프트 치는 오버헤드가 원인
  • Gartner 조사에선 AI 에이전트가 사무 업무를 70% 확률로 완수하지 못함
  • 결국 42%의 기업이 AI 프로젝트를 포기하고 있다는 통계도 있음

저자의 비유가 인상적인데, AI를 쓰는 건 "최저임금도 안 되는 고등학교 중퇴자를 고용하는 것"과 같다는 거임. 기업들이 원래 그런 인력을 안 쓰는 데는 이유가 있다는 논리.

전문 분야에서의 제한적 활용

  • 저자도 AI가 완전히 쓸모없다고 하진 않음. 손상된 파피루스 해독(AENEAS 프로젝트) 같은 초전문 분야에서 전문가를 보조하는 역할은 가능
  • 다만 핵심은 "보조"지 "대체"가 아니라는 거임. 동일한 수의 전문가가 필요하고, AI는 사람이 놓치는 것을 찾아주는 정도
  • 영상/음성 AI 도구도 마찬가지로, 원래 사람을 고용할 여력이 없던 사람들이 쓰는 거지 기존 인력을 대체하는 게 아니라는 주장임
  • 결국 로봇이 제조업에, 컴퓨터가 사무직에 한 것과 같은 "점진적 생산성 도구"일 뿐이라는 거임

AI 도구의 가격 문제

  • 현재 AI 도구들은 시장 점유를 위해 원가 이하로 판매되고 있음
  • 제대로 가격을 매기면 4배~100배까지 오를 수 있고, 그때 되면 사람 고용하는 게 더 쌀 수도 있다는 분석
  • 오디오북이나 AI 아트 같은 시장도 결국 "원래 살 여력이 없던 사람들"에게 새 시장을 만든 것이지, 기존 일자리를 뺏은 게 아니라는 논리
  • Goldman Sachs, Deutsche Bank 등도 이미 비슷한 우려를 표명했다고 함

AI 버블은 역대급 규모

  • 저자가 인용한 수치가 꽤 충격적인데, AI 버블이 닷컴 버블의 17배, 서브프라임 버블의 4배 규모라는 거임
  • 미국 경제 성장의 상당 부분이 AI 투자를 빼면 실질적으로 성장이 없다는 주장
  • 전체 AI 경제가 "순환 사기(circularity scheme)"라는 과격한 표현도 씀 — AI 기업이 서로의 제품을 사고, 그걸 매출로 잡는 구조
  • 주식시장 지수의 1/3이 사라질 수 있고, 1929년 대공황보다 심각할 수 있다는 예측까지 함
  • 다만 차이점도 있다고 봄: 붕괴가 더 느리게 올 수 있고, 부자들이 더 크게 맞을 가능성이 있으며, 데이터센터 등 실물 자산은 남음

진짜 AI로 가는 길은 완전히 다름

  • 현재 LLM 방식은 "수영을 열심히 해서 집을 짓겠다"는 것과 같다는 비유를 씀. 수영 실력이 아무리 늘어도 집은 안 지어진다는 거임
  • 진짜 AI는 모델 구축(model-building) 경로를 따라야 한다고 주장:
    • 1단계: 공간 모델링 — 센서 데이터로 환경의 모델을 구축하고 탐색 (Waymo의 World Model이 이 단계)
    • 2단계: 상상의 환경 모델 생성 — 고양이가 꿈에서 가상의 쥐를 쫓으며 사냥 훈련하는 것처럼
    • 3단계: 인과 시스템 모델링 — 원인과 결과를 이해하는 단계
    • 4단계: 메타인지 — 자기 자신의 사고 과정을 모델링
    • 5단계: 완전한 자기 모델 — 자기 자신의 감정, 추론, 욕구를 통합적으로 이해
  • Yann LeCun도 비슷한 말을 했는데, "단어 예측이 아니라 물리 법칙을 이해하고, 지속적 기억을 유지하며, 복잡한 행동을 계획할 수 있는 월드 모델이 필요하다"고 함

결론

저자는 12년 내에 AI 버블이 터져 대규모 경제 위기가 올 것이라 예측하고, AI를 위키피디아처럼 "대충 방향 잡는 용도"로만 쓰라고 권고함. 톤이 매우 공격적이고 종말론적이긴 한데, 인용된 연구 데이터들 자체는 실제로 존재하는 것들이라 무시하기 어려운 부분도 있음. 다만 "17배 버블" 같은 수치의 산출 근거나, "12년 내 붕괴" 같은 예측은 저자 개인의 해석이 강하게 들어가 있다는 점은 감안해야 함.

인용된 연구 데이터 자체는 실재하지만, 1~2년 내 경제 붕괴 같은 예측은 저자 개인의 해석이 강하게 반영된 것임. 톤은 과격하지만 AI 생산성에 대한 의문 제기는 진지하게 받아들일 만함.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.