본문으로 건너뛰기
피드

구글 내부 코드 75%가 AI 생성 — Cloud Next 2026 신규 발표 총정리

ai-ml 약 6분

구글 클라우드가 Cloud Next 2026에서 8세대 TPU(훈련용 8t, 추론용 8i), 제미나이 엔터프라이즈 에이전트 플랫폼, 버고 네트워크를 공개했다. 분당 160억 토큰을 처리하고 내부 신규 코드의 75%가 AI로 생성되는 등 구글 내부 생산성 지표도 공개했다.

  • 1

    구글 클라우드 분당 160억 개 이상 토큰 처리 (전분기 100억 → 60% 증가)

  • 2

    TPU 8t는 단일 슈퍼포드당 9,600개 연결 + 2PB HBM, 이전 세대 대비 처리 3배

  • 3

    TPU 8i는 수백만 에이전트 동시 실행 최적화, 포드당 1,152개 연결

  • 4

    제미나이 엔터프라이즈 플랫폼에 앤트로픽 클로드 오퍼스·소네트·하이쿠도 지원

  • 5

    구글 신규 코드의 75%가 AI 생성 (가을 50%→75%), 코드 마이그레이션 속도 6배

  • 6

    버고 네트워크 — 논블로킹 2계층 토폴로지로 13만4천 TPU 연결, 47Pbps 대역폭

  • 구글 클라우드가 라스베이거스에서 연례 행사 'Cloud Next 2026'을 열고 주요 성과와 신기술을 공개함
    • 순다르 피차이 CEO 발표: 구글 클라우드가 현재 분당 160억 개 이상의 토큰을 처리 중 (직전 분기 100억 개 → 60% 증가)
    • 2026년 전체 머신러닝 컴퓨팅 투자액의 절반 이상을 클라우드 부문에 집중 투입 예정

8세대 TPU — 훈련/추론 분리 아키텍처

  • TPU 8t (훈련용)

    • 단일 슈퍼포드 내 최대 9,600개 TPU 연결
    • 2PB(페타바이트) 규모 고대역폭 메모리 지원
    • 이전 세대 '아이언우드' 대비 처리 능력 3배, 와트당 성능 최대 2배 향상
  • TPU 8i (추론용)

    • 단일 포드에 1,152개 TPU 연결
    • 수백만 개 에이전트 동시 실행에 최적화

제미나이 엔터프라이즈 에이전트 플랫폼

  • 기술팀이 에이전트를 구축·확장·관리·최적화할 수 있는 개발자 플랫폼
  • Vertex AI의 모델 구축·튜닝 + 에이전트 통합 + 보안 + DevOps 기능 결합
  • 지원 모델 라인업이 구글 독점이 아님
    • 구글 모델: 제미나이 3.1 프로, 제미나이 3.1 플래시 이미지, 리리아 3
    • 앤트로픽 모델: 클로드 오퍼스, 소네트, 하이쿠도 같이 돌아감
  • 제미나이 엔터프라이즈 앱의 1분기 유료 월간활성사용자 전분기 대비 40% 증가

에이전트 보안 — Wiz 인수 시너지

  • 위즈(Wiz)의 클라우드·AI 보안 플랫폼 + 구글 위협 인텔리전스 = 에이전트형 사이버 보안 솔루션 공개
  • 이 솔루션 적용으로 보안 운영 센터(SOC) 위협 대응 시간 90% 이상 단축

구글 내부 생산성 수치가 충격

중요

> 구글 신규 코드의 75%가 AI로 생성된 후 엔지니어 승인을 거치는 중 (지난 가을 50%에서 증가). 에이전트+엔지니어 협업 코드 마이그레이션은 엔지니어만 투입했을 때보다 6배 빠름.

  • 마케팅 부문도 AI로 광고 제작 기간 70% 단축, 전환율은 20% 상승

버고 네트워크 — 데이터센터 네트워크도 AI 전용으로

  • AI 워크로드 확대로 기존 범용 네트워크가 한계에 도달했다는 판단
  • 평면형 2계층 논블로킹(non-blocking) 토폴로지 채택 — 네트워크 계층 줄여 지연 시간 낮춤
  • 단일 패브릭 내에서 최대 13만 4천 개 TPU 8t 칩 연결
  • 비차단 양방향 대역폭 최대 47Pbps
  • 이전 세대 대비 칩당 대역폭 최대 4배, 비부하 패브릭 지연 시간 40% 단축
  • 수십만 개 칩 규모에서도 국부적 하드웨어 장애가 전체 클러스터 성능에 영향을 미치지 않도록 설계

기술 맥락

TPU 8t와 8i로 훈련/추론을 분리한 건 AI 워크로드 특성 차이 때문이에요. 훈련은 대량 병렬 연산과 메모리 대역폭이 핵심이라 고대역폭 메모리(HBM)가 2PB 붙어야 하고, 추론은 레이턴시와 와트당 효율이 관건이라 포드당 칩 수를 늘려 수백만 에이전트 동시 서빙에 최적화한 거예요. 엔비디아도 이미 루빈 GPU + 추론 전용 LPU로 같은 분리 전략을 쓰고 있어서, 이 패턴이 업계 표준이 되어가는 중이에요.

버고 네트워크의 '논블로킹 2계층 토폴로지'가 인상적이에요. 기존 3계층 스파인-리프 구조는 계층을 올라갈수록 오버서브스크립션 때문에 대역폭이 부족해지는데, 논블로킹은 어떤 장치가 풀 라인레이트로 통신해도 다른 통신이 막히지 않게 설계하는 방식이에요. AI 훈련은 all-reduce 같은 콜렉티브 통신이 핵심인데, 여기서 한 링크만 느려도 전체 학습이 느려지니까 이런 구조가 필요해요.

제미나이 플랫폼에 앤트로픽 클로드를 같이 얹은 건 전략적 모순처럼 보이지만 실은 AWS Bedrock 플레이북이에요. 기업 고객은 모델 락인을 싫어하니까 "우리 플랫폼에서 경쟁 모델도 쓸 수 있다"는 메시지로 고객을 먼저 잡고, 실제 워크로드는 자연스럽게 구글 인프라에 묶어두는 전략이에요. 75% AI 생성 코드 수치는 구글 내부 워크플로우가 이미 에이전트 중심으로 재편됐다는 증거로, 이를 상품화해 팔겠다는 큰 그림이 깔려 있어요.

AWS Bedrock처럼 경쟁 모델까지 열어두며 플랫폼으로 고객을 가두는 전략. 75% AI 생성 코드는 구글 내부 워크플로우가 이미 에이전트 중심으로 재편됐다는 증거이고, 이를 상품화해 기업에 팔겠다는 큰 그림이 드러났다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

애플 차세대 AI, 구글 제미나이 기반으로 올해 말 공개

구글 클라우드 CEO 토마스 쿠리안이 Next 2026에서 애플의 차세대 AI 파운데이션 모델이 제미나이 기반으로 올해 말 공개된다고 밝혔다. 이 모델이 시리와 애플 인텔리전스 전반을 구동하며, 구글은 칩-모델-에이전트까지 통합된 풀스택 인프라를 애플에 공급한다.

ai-ml

카카오톡에 AI가 먼저 말 건다 — 에이전틱 '카나나' 정식 출시

카카오가 카카오톡에 온디바이스 에이전틱 AI '카나나'를 정식 출시했다. 대화 맥락을 실시간 감지해 먼저 제안하는 '선톡' 기능이 핵심이고, 외부 서비스 연동에는 MCP 방식의 '카카오툴즈'를 연결해 예약·구매·일정 등록까지 완결시킨다.

ai-ml

구글, 에이전트는 오픈AI에·칩은 엔비디아에 동시 선전포고

구글 클라우드가 Next 2026에서 기업용 에이전트 플랫폼과 8세대 TPU(훈련용 8t, 추론용 8i)를 동시 공개하며 오픈AI와 엔비디아를 동시에 타깃했다. 칩부터 에이전트까지 풀스택 수직계열화를 완성했고, 앤트로픽 클로드까지 플랫폼에서 돌릴 수 있게 열어놨다.

ai-ml

목암연·아주대의료원·콰트로, AI 기반 신약개발 3자 MOU

임상 데이터가 풍부한 아주대의료원과 콰트로 정밀의약 연구원, AI 연구 역량을 가진 목암생명과학연구소가 AI 기반 신약개발 협력 MOU를 체결함. 기초연구부터 임상·사업화·인허가까지 전주기 기술사업화를 목표로 다기관 협력 체계를 구축하려는 움직임임.

ai-ml

AI TECH 2026, PoC를 넘어 실질 성과로 가는 산업별 AX 성공 조건

5월 6일 코엑스에서 열리는 AI TECH 2026에서 바이브컴퍼니·슈퍼브에이아이·엠아이큐브·디플리 등이 제조·물류·건설 현장에서의 실질적 AX 사례를 공유함. Deep Agent 진화, Vision AI MLOps 선순환, 폐쇄 루프 디지털 트윈, Sound AI 기반 이상음 탐지 등 다양한 적용 방식이 다뤄짐.