본문으로 건너뛰기
피드

빅테크 AI 투자, 지금은 흑자처럼 보여도 감가상각 폭탄이 온다

ai-ml 약 6분

빅테크 클라우드 사업은 지금 마진 개선을 즐기고 있지만, AI 하드웨어에 투입된 3640억~4000억 달러 규모의 자본 지출이 감가상각비로 반영되기 시작하면 재무 압박이 커질 수 있다는 지적이다. 특히 현재 AI 제품 수익은 450억 달러 수준인데, 베인앤컴퍼니는 2030년까지 연간 2조 달러의 AI 수익이 필요하다고 본다.

  • 1

    빅테크가 AI 하드웨어에 3640억~4000억 달러를 투입 중

  • 2

    1998~2000년 통신사들의 광섬유 투자 버블과 비교되는 상황

  • 3

    현재 AI 제품 수익은 450억 달러 수준이나 2030년 필요 수익 추정치는 연 2조 달러

  • 4

    AI 칩은 기술 변화가 빨라 감가상각 부담이 더 빠르게 커질 수 있음

  • 빅테크 클라우드가 지금은 달콤한 흑자처럼 보이지만, 뒤쪽에 감가상각 리스크가 쌓이고 있다는 문제 제기임

    • 핵심은 “AI 인프라 투자 규모가 너무 빠르게 커지고 있다”는 것
    • 빅테크들은 AI 하드웨어에 3640억~4000억 달러를 투입하는 중으로 언급됨
    • 돈을 못 버는 회사들이 무리하는 상황은 아니지만, 비용이 손익계산서에 반영되는 속도가 관건임
  • 비교 대상으로 나온 건 닷컴 버블 시절 통신사들의 광섬유 투자임

    • 1998~2000년 통신사들은 광섬유에 1000억 달러를 쏟아부었다가 파산 위기를 맞았음
    • 지금 빅테크는 현금 창출력과 실제 비즈니스 모델이 있으니 완전히 같은 상황은 아님
    • 그래도 “미래 수요를 믿고 인프라를 먼저 깐다”는 구조 자체는 꽤 닮아 있음

중요

> 기사에서 가장 세게 던지는 숫자는 4000억 달러 투자와 450억 달러 수익의 간극임. AI 열풍이 계속되려면 인프라 지출을 감당할 만큼의 실제 매출이 훨씬 더 커져야 함.

  • 메타 사례가 특히 민감하게 다뤄짐

    • 메타는 오픈소스 전략인 라마(Llama)로 간접 수익화를 노리는 쪽
    • 2025년 지출 규모로 600억~650억 달러를 예고함
    • 반면 마이크로소프트는 800억 달러 투자와 함께 기업용 AI 매출을 직접 꽂아 넣는 구조로 비교됨
  • 메타의 영업 마진 1%p 하락이 시장에 꽤 크게 받아들여졌음

    • 숫자만 보면 1%p라 작아 보일 수 있음
    • 하지만 AI 투자가 커지는 상황에서 마진이 흔들리면 “이거 진짜 회수 가능함?”이라는 질문이 바로 나옴
    • 기사에서는 이 여파로 주가가 급락했다고 설명함
  • 수익과 비용의 불균형도 꽤 노골적임

    • 베인앤컴퍼니는 2030년까지 연간 2조 달러의 AI 수익이 필요하다고 추정
    • 현재 AI 제품 수익은 450억 달러 수준으로 제시됨
    • 필요한 수익 규모와 현재 수익 사이의 간극이 너무 커서, 지금의 투자 속도를 정당화하려면 AI 매출이 폭발적으로 커져야 함
  • 진짜 무서운 포인트는 감가상각임

    • 구글 CFO 아나트 아슈케나지는 지출이 본격 반영되면 감가상각 수준이 급증할 것이라고 경고함
    • AI 칩은 과거 광섬유보다 기술 발전 속도가 훨씬 빠름
    • 즉, 비싸게 산 칩이 생각보다 빨리 구형 자산이 될 수 있음
  • AI 하드웨어는 “한 번 깔아두면 오래 쓰는 인프라”라는 가정이 약함

    • 최신 칩 성능 경쟁이 빠르게 진행되면 기존 장비의 경제적 가치가 빨리 떨어짐
    • 회계상 감가상각비가 커지면 클라우드 사업 마진이 눌릴 수 있음
    • 지금 좋아 보이는 클라우드 흑자가 몇 년 뒤 비용 폭탄을 맞을 수 있다는 얘기임
  • 개발자 입장에서도 이건 남의 재무 뉴스가 아님

    • 클라우드 사업자의 AI 인프라 비용 구조는 결국 GPU 인스턴스 가격, 예약 정책, 모델 API 가격에 영향을 줄 수 있음
    • 기업 고객 입장에서는 “AI를 어디에 얼마나 써야 경제성이 맞는가”를 더 따지게 될 가능성이 큼
    • AI 도입이 PoC에서 운영 단계로 넘어갈수록 기술 성능만큼 비용 회수 논리가 중요해짐

기술 맥락

  • 빅테크가 AI 칩과 데이터센터에 거액을 쓰는 이유는 모델 경쟁이 결국 인프라 경쟁으로 이어지기 때문이에요. 더 큰 모델을 학습하고 더 많은 추론 요청을 처리하려면 GPU, 전력, 냉각, 네트워크를 먼저 확보해야 하거든요.

  • 문제는 이 투자가 CapEx로 잡힌 뒤 시간이 지나며 감가상각비로 내려온다는 점이에요. 처음에는 현금이 많은 회사라 버틸 수 있어 보여도, 장비 가치가 비용으로 반영되기 시작하면 영업이익률이 바로 압박을 받아요.

  • AI 칩은 광섬유보다 더 까다로운 자산이에요. 광섬유는 오래 깔아두고 쓸 수 있지만, AI 가속기는 세대 교체가 빠르고 성능 차이도 크게 나요. 그래서 몇 년 전에 산 장비가 생각보다 빨리 경쟁력을 잃을 수 있어요.

  • 메타와 마이크로소프트의 차이도 여기서 나와요. 마이크로소프트는 기업용 AI 매출로 투자 회수 경로를 비교적 직접적으로 보여줄 수 있지만, 메타의 라마 전략은 생태계 확장과 간접 수익화에 기대는 면이 커요. 같은 AI 투자라도 시장이 다르게 보는 이유예요.

AI 인프라 경쟁은 기술 뉴스처럼 보이지만 결국 손익계산서 싸움이다. GPU와 AI 칩을 얼마나 많이 깔았느냐보다, 그 자산이 비용으로 떨어지기 전에 충분한 매출을 만들 수 있느냐가 진짜 관전 포인트다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

LG CNS, 1분기 영업익 19.4% 증가…AI·클라우드가 실적 끌었다

LG CNS가 1분기에 매출 1조3150억 원, 영업이익 942억 원을 기록하며 전년 대비 각각 8.6%, 19.4% 성장했다. AI·클라우드 매출만 7654억 원으로 전체의 약 58%를 차지했고, 데이터센터 DBO와 피지컬 AI까지 사업 축을 넓히는 중이다.

ai-ml

오픈AI, 아마존 베드록으로 모델 공급 확대…AI 전쟁은 이제 인프라 싸움

오픈AI가 최신 AI 모델과 코딩 시스템을 아마존 클라우드 플랫폼 베드록을 통해 제공하기 시작했다. 특정 클라우드 사업자 중심 구조에서 벗어나 멀티 클라우드로 공급망을 넓히려는 움직임이고, 장기적으로 약 1,000억 달러 규모의 인프라 투자까지 거론된다.

ai-ml

네이버랩스의 3D 비전 모델 더스터, 로봇판 ‘챗GPT 모먼트’ 노린다

네이버랩스 유럽이 개발한 3D 비전 파운데이션 모델 ‘더스터’가 사진 몇 장만으로 공간을 3차원으로 재구성하는 기술로 주목받고 있다. 네이버는 이 모델을 오픈소스로 공개했고, 2년 만에 논문 피인용 1418건을 기록하며 메타·구글·엔비디아 후속 연구에도 활용되고 있다.

ai-ml

젠슨 황, “AI는 기술 자체보다 쓰이는 분야별로 규제해야 한다”

젠슨 황 엔비디아 CEO가 의료·자동차·국방처럼 안전과 생명이 걸린 분야에서는 AI를 기존 산업 규제 틀 안에서 다뤄야 한다고 말했다. 동시에 AI가 일자리를 없애기만 하는 게 아니라 칩 공장, AI 팩토리, 의료 현장 등에서 새 일자리를 만든다는 주장도 내놨다.

ai-ml

정부, 연세대·고려대 등 7곳을 AI중심대학으로 선정

정부가 고려대, 연세대 등 7개 대학을 AI중심대학으로 먼저 선정하고, 대학 교육체계를 AI 중심으로 바꾸는 사업을 시작했어. 각 대학은 최장 8년간 연 30억 원씩, 최대 240억 원을 지원받고 AI 전문인재와 AX 융합인재 양성에 나서게 돼.