---
title: "구글, 에이전트는 오픈AI에·칩은 엔비디아에 동시 선전포고"
published: 2026-04-22T18:05:01.866Z
canonical: https://jeff.news/article/1874
---
# 구글, 에이전트는 오픈AI에·칩은 엔비디아에 동시 선전포고

구글 클라우드가 Next 2026에서 기업용 에이전트 플랫폼과 8세대 TPU(훈련용 8t, 추론용 8i)를 동시 공개하며 오픈AI와 엔비디아를 동시에 타깃했다. 칩부터 에이전트까지 풀스택 수직계열화를 완성했고, 앤트로픽 클로드까지 플랫폼에서 돌릴 수 있게 열어놨다.

- 구글이 Cloud Next 2026에서 작정하고 양면전쟁을 선포함 — 에이전트는 오픈AI/앤트로픽에, 칩은 엔비디아에 정면으로 붙는 구도
  - 기업용 에이전트 플랫폼 '제미나이 엔터프라이즈 에이전트 플랫폼' 공개
  - 8세대 AI칩 TPU 8t(훈련용), TPU 8i(추론용)로 훈련/추론 분리 전략

### 에이전트 전쟁, 구글도 참전

- 기업용 AI에서 현재 제일 확실한 매출원은 개발자 코딩 시장 — 오픈AI 코덱스, 앤트로픽 클로드 코드가 꽉 잡고 있음
- 구글은 이 싸움에서 존재감이 없었는데, 이번엔 대상 확장 전략으로 판을 뒤집으려 함
  - 코딩 지식 없이도 에이전트를 만들 수 있게 해서 일반 업무직까지 고객층을 넓힘
  - "코딩 시장 너머, 에이전트 시장 전체 주도권을 쥐겠다"는 포석
- 재미있는 건 경쟁사 앤트로픽의 클로드 모델까지 플랫폼 안에서 돌릴 수 있게 해줌 — 생태계로 먹고 들어가겠다는 의도
- 토마스 쿠리안 구글 클라우드 CEO 왈: "단편 서비스를 엮는 게 아니라 혁신을 위한 포괄적 기반을 제공하는 것"

### 칩 분리 전략 — 엔비디아 전략을 그대로 따라감

- TPU 8세대부터 훈련용(8t)과 추론용(8i)을 분리함
  - TPU 8t — 연산량이 필요한 파운데이션 모델 훈련용
  - TPU 8i — 추론 속도에 특화, 에이전트 대량 운영에 최적화
- 이 분리 전략, 엔비디아가 먼저 한 것과 똑같음
  - 엔비디아는 베라 루빈 AI 슈퍼컴퓨터에 루빈 GPU + 우회 인수한 그록(Groq)의 추론 전용 LPU를 같이 넣음
  - 구글 TPU 8t ↔ 루빈 GPU, TPU 8i ↔ 그록 LPU로 맞불
- 구조적으로도 TPU 8i와 그록 LPU 둘 다 S램 의존 공통점
  - 비용 크고 면적 많이 차지하지만 데이터 전송 속도가 빠름
  - 연산부와 저장부 사이 데이터 이동이 추론 병목이라 이걸 해소하는 게 핵심

> [!IMPORTANT]
> 훈련용/추론용 칩 분리는 이제 AI 인프라의 표준 — 에이전트가 대량으로 돌면 훈련보다 추론 수요가 훨씬 커지기 때문. 아민 바닷 구글 SVP: "AI 에이전트 부상으로 각각 특화한 칩이 도움 된다고 판단"

### 풀스택 수직계열화 완성

- 구글은 이번 발표로 칩-클라우드-AI모델-개발자도구-에이전트도구 전 레이어를 다 갖춤
  - 아마존(트레이니엄), MS(마이아)도 자체 칩 있지만, 구글은 2015년부터 TPU를 운영해온 짬이 있음
  - 앤트로픽도 구글 TPU를 대규모 사용하기로 계약한 수준
- 제미나이는 챗GPT, 클로드와 함께 3강 체제 선두권 유지
- 개발자/에이전트 도구 쪽에선 기존 클라우드 고객사를 영업·마케팅으로 장악할 수 있어서 오픈AI/앤트로픽보다 유리한 포인트
- 쿠리안 CEO: "에이전트형 기업으로의 전환은 모든 기업의 미래. 구글 클라우드의 기술적 준비는 끝났다"

---

## 기술 맥락

구글이 TPU 8t/8i를 둘로 쪼갠 이유는 훈련과 추론의 컴퓨트 특성이 완전히 달라서예요. 훈련은 대량 병렬 연산과 엄청난 메모리 대역폭이 필요하고, 추론은 지연 시간(latency)과 와트당 효율이 더 중요하거든요. 한 칩으로 둘 다 잘하려면 결국 어느 쪽도 최적화가 안 되는 상황이 되니까, 엔비디아도 구글도 쪼개는 쪽으로 수렴하고 있어요.

추론 전용 칩이 S램에 올인하는 것도 맥락이 있어요. 추론할 때는 모델 파라미터를 계속 읽어와야 하는데, 연산부-저장부 사이 데이터 이동이 병목이에요. HBM도 빠르긴 한데 S램은 아예 온칩에 붙여놔서 이동 거리 자체가 짧거든요. 비싸고 면적 많이 먹는 대신 에이전트 수천, 수만 개를 동시에 돌리는 시나리오에서 훨씬 유리해요.

구글이 앤트로픽 클로드까지 자기 플랫폼에서 돌릴 수 있게 한 건 흥미로운 포인트예요. 에이전트 플랫폼 시장에서 "모델 선택권"은 고객 입장에선 락인 리스크를 줄여주는 강력한 유인인데, 이걸 열어줌으로써 오히려 플랫폼으로 고객을 잡겠다는 전략이에요. AWS가 Bedrock에서 여러 모델 제공한 것과 같은 플레이북이죠.

## 핵심 포인트

- 제미나이 엔터프라이즈 에이전트 플랫폼 — 코딩 지식 없이도 에이전트 제작 가능
- TPU 8t(훈련용)/TPU 8i(추론용) 분리 전략으로 엔비디아 루빈 GPU+그록 LPU 조합에 대응
- 플랫폼 내에서 경쟁사 앤트로픽 클로드 모델도 사용 가능하게 개방
- 추론 전용 TPU 8i는 S램 의존 구조로 데이터 이동 병목 해소
- 칩-클라우드-모델-개발자도구-에이전트 전 레이어 풀스택 수직계열화 완성

## 인사이트

훈련용/추론용 칩 분리는 이제 AI 인프라의 표준 패턴. 에이전트 대량 운영 시대에는 추론 수요가 훈련을 압도하기 때문이고, 엔비디아와 구글이 독립적으로 같은 결론에 도달했다는 점이 특히 의미있다.
