---
title: "아카마이, 앤트로픽 추정 고객과 18억 달러 AI 클라우드 계약"
published: 2026-05-10T05:05:04.324Z
canonical: https://jeff.news/article/2486
---
# 아카마이, 앤트로픽 추정 고객과 18억 달러 AI 클라우드 계약

아카마이가 이름을 공개하지 않은 최첨단 파운데이션 모델 제공업체와 7년간 18억 달러 규모의 클라우드 인프라 계약을 맺었다고 밝혔다. 블룸버그는 이 고객사가 앤트로픽이라고 보도했고, 배경에는 클로드 사용량 증가와 AI 추론 인프라 수요 확대가 있다. 콘텐츠 전송망과 보안으로 유명한 아카마이가 AI 인프라 업체로 포지션을 바꾸려는 흐름도 같이 보인다.

- 아카마이가 AI 기업과 7년간 18억 달러, 약 2조6000억 원 규모의 클라우드 인프라 계약을 맺었다고 밝힘
  - 아카마이는 고객 이름을 공개하지 않았고, “최첨단 파운데이션 모델 제공업체”라고만 설명함
  - 블룸버그는 사안에 정통한 소식통을 인용해 계약 상대가 앤트로픽이라고 보도함
  - 요즘 클로드(Claude)가 코딩과 업무 자동화 수요로 많이 쓰이면서 인프라 사용량이 급증한 게 배경으로 언급됨

- 이 뉴스가 재밌는 이유는 아카마이가 원래 “AI 클라우드 회사” 이미지가 강한 곳은 아니었다는 점임
  - 아카마이는 콘텐츠 전송, 사이버보안, 클라우드 인프라를 3대 축으로 설명함
  - 그중 클라우드 인프라는 비교적 최근 사업이지만 가장 빠르게 성장 중이라고 밝힘
  - 1분기 클라우드 인프라 매출은 전년 대비 40% 증가한 9500만 달러였음

- 아카마이가 내세우는 카드는 “분산된 인프라”임
  - 톰 레이튼 최고경영자는 아카마이가 130개국 700개 도시, 4300곳에 인프라를 보유하고 있다고 말함
  - 기존에는 이 인프라를 콘텐츠 전송과 보안에 활용해왔음
  - 이제는 AI 애플리케이션이 사용자와 가까운 곳에서 더 빠르게 작동하도록 지원하겠다는 전략임

> [!IMPORTANT]
> AI 인프라 경쟁이 거대한 중앙 데이터센터만의 문제가 아니라, 사용자 가까운 곳에서 추론을 얼마나 빠르게 처리하느냐의 싸움으로 넓어지고 있음.

- 앤트로픽으로 추정되는 고객사 입장에서는 인프라 조합을 계속 넓히는 그림임
  - 기사에 따르면 앤트로픽은 이미 구글과 스페이스X의 칩 및 클라우드 서비스를 활용하고 있음
  - 여기에 아카마이의 분산 클라우드까지 붙으면, 특정 벤더 하나에만 기대지 않는 구조를 만들 수 있음
  - 모델 사용량이 늘어날수록 컴퓨팅 파워, 저장소, 추론 지연 시간, 지역별 처리 위치가 전부 비용과 품질로 이어짐

- 아카마이 실적도 “AI 인프라 전환” 서사를 뒷받침하는 숫자를 보여줌
  - 1분기 전체 매출은 전년 대비 6% 증가한 약 10억 달러였음
  - 보안 부문 매출은 11% 증가한 5억9000만 달러였음
  - 반면 콘텐츠 전송 및 기타 클라우드 애플리케이션 매출은 7% 감소한 3억8900만 달러였음
  - 즉, 예전 주력 사업은 둔화되고 보안과 클라우드 인프라가 성장축이 되는 모습임

- 시장도 이미 반응 중임
  - 지난 12개월 동안 아카마이 주가는 65% 상승함
  - 회사는 2분기 매출을 10억8000만~11억 달러로 전망함
  - 조정 주당순이익(EPS)은 1.45~1.65달러로 예상함

- 개발자 입장에서는 “AI 서비스 운영 인프라가 어디로 가는가”를 보여주는 사례임
  - 모델 성능만큼이나 추론 위치, 지연 시간, 비용, 보안, 멀티 클라우드 전략이 중요해지고 있음
  - 특히 전 세계 사용자를 상대하는 AI 제품은 중앙 리전 하나로 모든 걸 처리하기보다 엣지와 분산 인프라를 섞는 방향을 고민하게 될 가능성이 큼

---

## 기술 맥락

- 이 계약의 핵심은 아카마이가 콘텐츠 전송망 회사에서 AI 추론 인프라 회사로 영역을 넓히고 있다는 점이에요. 파운데이션 모델 서비스는 사용자가 요청할 때마다 모델을 실행해야 해서, 학습 인프라만큼이나 추론 인프라가 계속 중요해지거든요.

- 앤트로픽으로 추정되는 고객사가 여러 클라우드와 칩 공급자를 함께 쓰는 이유도 단순해요. 클로드 사용량이 늘면 특정 공급자 하나에만 기대는 구조는 비용, 용량, 장애 대응에서 부담이 커져요. 그래서 구글, 스페이스X, 아카마이 같은 조합이 나오는 거예요.

- 아카마이가 강조한 130개국 700개 도시 4300곳 인프라는 지연 시간과 관련이 깊어요. AI 응답은 모델 계산 시간도 중요하지만, 사용자가 있는 위치와 서버 사이 거리도 체감 속도에 영향을 주거든요.

- 그래서 이번 뉴스는 “누가 더 큰 모델을 만들었나”보다 “그 모델을 전 세계 사용자에게 어떻게 빠르고 안정적으로 서빙하나”에 가까워요. AI 제품을 운영하는 팀이라면 모델 API 가격표만 볼 게 아니라 추론 위치와 분산 전략까지 같이 봐야 하는 이유예요.

## 핵심 포인트

- 아카마이가 7년간 18억 달러 규모의 클라우드 인프라 계약 공개
- 블룸버그는 계약 상대가 앤트로픽이라고 보도
- 아카마이는 130개국 700개 도시 4300곳의 분산 인프라를 AI 애플리케이션에 활용하려 함
- 1분기 클라우드 인프라 매출은 전년 대비 40% 증가한 9500만 달러

## 인사이트

AI 인프라 경쟁이 GPU 데이터센터만의 싸움이 아니라 사용자 가까운 곳에서 추론을 처리하는 분산 클라우드 경쟁으로 번지는 중임. 아카마이 같은 엣지 인프라 회사가 다시 주목받는 이유도 여기에 있음.
