본문으로 건너뛰기
피드

구글, 에이전트는 오픈AI에·칩은 엔비디아에 동시 선전포고

ai-ml 약 5분

구글 클라우드가 Next 2026에서 기업용 에이전트 플랫폼과 8세대 TPU(훈련용 8t, 추론용 8i)를 동시 공개하며 오픈AI와 엔비디아를 동시에 타깃했다. 칩부터 에이전트까지 풀스택 수직계열화를 완성했고, 앤트로픽 클로드까지 플랫폼에서 돌릴 수 있게 열어놨다.

  • 1

    제미나이 엔터프라이즈 에이전트 플랫폼 — 코딩 지식 없이도 에이전트 제작 가능

  • 2

    TPU 8t(훈련용)/TPU 8i(추론용) 분리 전략으로 엔비디아 루빈 GPU+그록 LPU 조합에 대응

  • 3

    플랫폼 내에서 경쟁사 앤트로픽 클로드 모델도 사용 가능하게 개방

  • 4

    추론 전용 TPU 8i는 S램 의존 구조로 데이터 이동 병목 해소

  • 5

    칩-클라우드-모델-개발자도구-에이전트 전 레이어 풀스택 수직계열화 완성

  • 구글이 Cloud Next 2026에서 작정하고 양면전쟁을 선포함 — 에이전트는 오픈AI/앤트로픽에, 칩은 엔비디아에 정면으로 붙는 구도
    • 기업용 에이전트 플랫폼 '제미나이 엔터프라이즈 에이전트 플랫폼' 공개
    • 8세대 AI칩 TPU 8t(훈련용), TPU 8i(추론용)로 훈련/추론 분리 전략

에이전트 전쟁, 구글도 참전

  • 기업용 AI에서 현재 제일 확실한 매출원은 개발자 코딩 시장 — 오픈AI 코덱스, 앤트로픽 클로드 코드가 꽉 잡고 있음
  • 구글은 이 싸움에서 존재감이 없었는데, 이번엔 대상 확장 전략으로 판을 뒤집으려 함
    • 코딩 지식 없이도 에이전트를 만들 수 있게 해서 일반 업무직까지 고객층을 넓힘
    • "코딩 시장 너머, 에이전트 시장 전체 주도권을 쥐겠다"는 포석
  • 재미있는 건 경쟁사 앤트로픽의 클로드 모델까지 플랫폼 안에서 돌릴 수 있게 해줌 — 생태계로 먹고 들어가겠다는 의도
  • 토마스 쿠리안 구글 클라우드 CEO 왈: "단편 서비스를 엮는 게 아니라 혁신을 위한 포괄적 기반을 제공하는 것"

칩 분리 전략 — 엔비디아 전략을 그대로 따라감

  • TPU 8세대부터 훈련용(8t)과 추론용(8i)을 분리함
    • TPU 8t — 연산량이 필요한 파운데이션 모델 훈련용
    • TPU 8i — 추론 속도에 특화, 에이전트 대량 운영에 최적화
  • 이 분리 전략, 엔비디아가 먼저 한 것과 똑같음
    • 엔비디아는 베라 루빈 AI 슈퍼컴퓨터에 루빈 GPU + 우회 인수한 그록(Groq)의 추론 전용 LPU를 같이 넣음
    • 구글 TPU 8t ↔ 루빈 GPU, TPU 8i ↔ 그록 LPU로 맞불
  • 구조적으로도 TPU 8i와 그록 LPU 둘 다 S램 의존 공통점
    • 비용 크고 면적 많이 차지하지만 데이터 전송 속도가 빠름
    • 연산부와 저장부 사이 데이터 이동이 추론 병목이라 이걸 해소하는 게 핵심

중요

> 훈련용/추론용 칩 분리는 이제 AI 인프라의 표준 — 에이전트가 대량으로 돌면 훈련보다 추론 수요가 훨씬 커지기 때문. 아민 바닷 구글 SVP: "AI 에이전트 부상으로 각각 특화한 칩이 도움 된다고 판단"

풀스택 수직계열화 완성

  • 구글은 이번 발표로 칩-클라우드-AI모델-개발자도구-에이전트도구 전 레이어를 다 갖춤
    • 아마존(트레이니엄), MS(마이아)도 자체 칩 있지만, 구글은 2015년부터 TPU를 운영해온 짬이 있음
    • 앤트로픽도 구글 TPU를 대규모 사용하기로 계약한 수준
  • 제미나이는 챗GPT, 클로드와 함께 3강 체제 선두권 유지
  • 개발자/에이전트 도구 쪽에선 기존 클라우드 고객사를 영업·마케팅으로 장악할 수 있어서 오픈AI/앤트로픽보다 유리한 포인트
  • 쿠리안 CEO: "에이전트형 기업으로의 전환은 모든 기업의 미래. 구글 클라우드의 기술적 준비는 끝났다"

기술 맥락

구글이 TPU 8t/8i를 둘로 쪼갠 이유는 훈련과 추론의 컴퓨트 특성이 완전히 달라서예요. 훈련은 대량 병렬 연산과 엄청난 메모리 대역폭이 필요하고, 추론은 지연 시간(latency)과 와트당 효율이 더 중요하거든요. 한 칩으로 둘 다 잘하려면 결국 어느 쪽도 최적화가 안 되는 상황이 되니까, 엔비디아도 구글도 쪼개는 쪽으로 수렴하고 있어요.

추론 전용 칩이 S램에 올인하는 것도 맥락이 있어요. 추론할 때는 모델 파라미터를 계속 읽어와야 하는데, 연산부-저장부 사이 데이터 이동이 병목이에요. HBM도 빠르긴 한데 S램은 아예 온칩에 붙여놔서 이동 거리 자체가 짧거든요. 비싸고 면적 많이 먹는 대신 에이전트 수천, 수만 개를 동시에 돌리는 시나리오에서 훨씬 유리해요.

구글이 앤트로픽 클로드까지 자기 플랫폼에서 돌릴 수 있게 한 건 흥미로운 포인트예요. 에이전트 플랫폼 시장에서 "모델 선택권"은 고객 입장에선 락인 리스크를 줄여주는 강력한 유인인데, 이걸 열어줌으로써 오히려 플랫폼으로 고객을 잡겠다는 전략이에요. AWS가 Bedrock에서 여러 모델 제공한 것과 같은 플레이북이죠.

훈련용/추론용 칩 분리는 이제 AI 인프라의 표준 패턴. 에이전트 대량 운영 시대에는 추론 수요가 훈련을 압도하기 때문이고, 엔비디아와 구글이 독립적으로 같은 결론에 도달했다는 점이 특히 의미있다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

애플 차세대 AI, 구글 제미나이 기반으로 올해 말 공개

구글 클라우드 CEO 토마스 쿠리안이 Next 2026에서 애플의 차세대 AI 파운데이션 모델이 제미나이 기반으로 올해 말 공개된다고 밝혔다. 이 모델이 시리와 애플 인텔리전스 전반을 구동하며, 구글은 칩-모델-에이전트까지 통합된 풀스택 인프라를 애플에 공급한다.

ai-ml

구글 내부 코드 75%가 AI 생성 — Cloud Next 2026 신규 발표 총정리

구글 클라우드가 Cloud Next 2026에서 8세대 TPU(훈련용 8t, 추론용 8i), 제미나이 엔터프라이즈 에이전트 플랫폼, 버고 네트워크를 공개했다. 분당 160억 토큰을 처리하고 내부 신규 코드의 75%가 AI로 생성되는 등 구글 내부 생산성 지표도 공개했다.

ai-ml

카카오톡에 AI가 먼저 말 건다 — 에이전틱 '카나나' 정식 출시

카카오가 카카오톡에 온디바이스 에이전틱 AI '카나나'를 정식 출시했다. 대화 맥락을 실시간 감지해 먼저 제안하는 '선톡' 기능이 핵심이고, 외부 서비스 연동에는 MCP 방식의 '카카오툴즈'를 연결해 예약·구매·일정 등록까지 완결시킨다.

ai-ml

목암연·아주대의료원·콰트로, AI 기반 신약개발 3자 MOU

임상 데이터가 풍부한 아주대의료원과 콰트로 정밀의약 연구원, AI 연구 역량을 가진 목암생명과학연구소가 AI 기반 신약개발 협력 MOU를 체결함. 기초연구부터 임상·사업화·인허가까지 전주기 기술사업화를 목표로 다기관 협력 체계를 구축하려는 움직임임.

ai-ml

AI TECH 2026, PoC를 넘어 실질 성과로 가는 산업별 AX 성공 조건

5월 6일 코엑스에서 열리는 AI TECH 2026에서 바이브컴퍼니·슈퍼브에이아이·엠아이큐브·디플리 등이 제조·물류·건설 현장에서의 실질적 AX 사례를 공유함. Deep Agent 진화, Vision AI MLOps 선순환, 폐쇄 루프 디지털 트윈, Sound AI 기반 이상음 탐지 등 다양한 적용 방식이 다뤄짐.