---
title: "구글 내부 코드 75%가 AI 생성 — Cloud Next 2026 신규 발표 총정리"
published: 2026-04-22T20:19:05.764Z
canonical: https://jeff.news/article/1879
---
# 구글 내부 코드 75%가 AI 생성 — Cloud Next 2026 신규 발표 총정리

구글 클라우드가 Cloud Next 2026에서 8세대 TPU(훈련용 8t, 추론용 8i), 제미나이 엔터프라이즈 에이전트 플랫폼, 버고 네트워크를 공개했다. 분당 160억 토큰을 처리하고 내부 신규 코드의 75%가 AI로 생성되는 등 구글 내부 생산성 지표도 공개했다.

- 구글 클라우드가 라스베이거스에서 연례 행사 'Cloud Next 2026'을 열고 주요 성과와 신기술을 공개함
  - 순다르 피차이 CEO 발표: 구글 클라우드가 현재 **분당 160억 개 이상의 토큰**을 처리 중 (직전 분기 100억 개 → 60% 증가)
  - 2026년 전체 머신러닝 컴퓨팅 투자액의 **절반 이상을 클라우드 부문에 집중** 투입 예정

### 8세대 TPU — 훈련/추론 분리 아키텍처

- **TPU 8t (훈련용)**
  - 단일 슈퍼포드 내 최대 **9,600개 TPU 연결**
  - 2PB(페타바이트) 규모 고대역폭 메모리 지원
  - 이전 세대 '아이언우드' 대비 처리 능력 3배, 와트당 성능 최대 2배 향상

- **TPU 8i (추론용)**
  - 단일 포드에 1,152개 TPU 연결
  - **수백만 개 에이전트 동시 실행**에 최적화

### 제미나이 엔터프라이즈 에이전트 플랫폼

- 기술팀이 에이전트를 구축·확장·관리·최적화할 수 있는 개발자 플랫폼
- Vertex AI의 모델 구축·튜닝 + 에이전트 통합 + 보안 + DevOps 기능 결합
- 지원 모델 라인업이 구글 독점이 아님
  - 구글 모델: 제미나이 3.1 프로, 제미나이 3.1 플래시 이미지, 리리아 3
  - 앤트로픽 모델: 클로드 오퍼스, 소네트, 하이쿠도 같이 돌아감
- 제미나이 엔터프라이즈 앱의 1분기 유료 월간활성사용자 **전분기 대비 40% 증가**

### 에이전트 보안 — Wiz 인수 시너지

- 위즈(Wiz)의 클라우드·AI 보안 플랫폼 + 구글 위협 인텔리전스 = 에이전트형 사이버 보안 솔루션 공개
- 이 솔루션 적용으로 보안 운영 센터(SOC) **위협 대응 시간 90% 이상 단축**

### 구글 내부 생산성 수치가 충격

> [!IMPORTANT]
> 구글 신규 코드의 **75%가 AI로 생성**된 후 엔지니어 승인을 거치는 중 (지난 가을 50%에서 증가). 에이전트+엔지니어 협업 코드 마이그레이션은 엔지니어만 투입했을 때보다 **6배 빠름**.

- 마케팅 부문도 AI로 광고 제작 기간 70% 단축, 전환율은 20% 상승

### 버고 네트워크 — 데이터센터 네트워크도 AI 전용으로

- AI 워크로드 확대로 기존 범용 네트워크가 한계에 도달했다는 판단
- **평면형 2계층 논블로킹(non-blocking) 토폴로지** 채택 — 네트워크 계층 줄여 지연 시간 낮춤
- 단일 패브릭 내에서 최대 **13만 4천 개 TPU 8t 칩 연결**
- 비차단 양방향 대역폭 최대 **47Pbps**
- 이전 세대 대비 칩당 대역폭 최대 4배, 비부하 패브릭 지연 시간 40% 단축
- 수십만 개 칩 규모에서도 **국부적 하드웨어 장애가 전체 클러스터 성능에 영향을 미치지 않도록** 설계

---

## 기술 맥락

TPU 8t와 8i로 훈련/추론을 분리한 건 AI 워크로드 특성 차이 때문이에요. 훈련은 대량 병렬 연산과 메모리 대역폭이 핵심이라 고대역폭 메모리(HBM)가 2PB 붙어야 하고, 추론은 레이턴시와 와트당 효율이 관건이라 포드당 칩 수를 늘려 수백만 에이전트 동시 서빙에 최적화한 거예요. 엔비디아도 이미 루빈 GPU + 추론 전용 LPU로 같은 분리 전략을 쓰고 있어서, 이 패턴이 업계 표준이 되어가는 중이에요.

버고 네트워크의 '논블로킹 2계층 토폴로지'가 인상적이에요. 기존 3계층 스파인-리프 구조는 계층을 올라갈수록 오버서브스크립션 때문에 대역폭이 부족해지는데, 논블로킹은 어떤 장치가 풀 라인레이트로 통신해도 다른 통신이 막히지 않게 설계하는 방식이에요. AI 훈련은 all-reduce 같은 콜렉티브 통신이 핵심인데, 여기서 한 링크만 느려도 전체 학습이 느려지니까 이런 구조가 필요해요.

제미나이 플랫폼에 앤트로픽 클로드를 같이 얹은 건 전략적 모순처럼 보이지만 실은 AWS Bedrock 플레이북이에요. 기업 고객은 모델 락인을 싫어하니까 "우리 플랫폼에서 경쟁 모델도 쓸 수 있다"는 메시지로 고객을 먼저 잡고, 실제 워크로드는 자연스럽게 구글 인프라에 묶어두는 전략이에요. 75% AI 생성 코드 수치는 구글 내부 워크플로우가 이미 에이전트 중심으로 재편됐다는 증거로, 이를 상품화해 팔겠다는 큰 그림이 깔려 있어요.

## 핵심 포인트

- 구글 클라우드 분당 160억 개 이상 토큰 처리 (전분기 100억 → 60% 증가)
- TPU 8t는 단일 슈퍼포드당 9,600개 연결 + 2PB HBM, 이전 세대 대비 처리 3배
- TPU 8i는 수백만 에이전트 동시 실행 최적화, 포드당 1,152개 연결
- 제미나이 엔터프라이즈 플랫폼에 앤트로픽 클로드 오퍼스·소네트·하이쿠도 지원
- 구글 신규 코드의 75%가 AI 생성 (가을 50%→75%), 코드 마이그레이션 속도 6배
- 버고 네트워크 — 논블로킹 2계층 토폴로지로 13만4천 TPU 연결, 47Pbps 대역폭

## 인사이트

AWS Bedrock처럼 경쟁 모델까지 열어두며 플랫폼으로 고객을 가두는 전략. 75% AI 생성 코드는 구글 내부 워크플로우가 이미 에이전트 중심으로 재편됐다는 증거이고, 이를 상품화해 기업에 팔겠다는 큰 그림이 드러났다.
