본문으로 건너뛰기
피드

AI 에이전트 때문에 CPU가 다시 주목받는 이유

ai-ml 약 4분

AI 인프라의 주인공은 그동안 GPU였지만, AI 에이전트가 늘어나면 작업을 조율하는 CPU 수요가 크게 늘 수 있다는 전망이 나왔다. UBS는 GPU당 필요한 CPU 코어 수가 기존보다 3~5배 증가하고, 인프라용 CPU 시장이 2025년 300억 달러에서 2030년 1700억 달러 이상으로 커질 수 있다고 봤다.

  • 1

    AI 에이전트 시대에는 모델 계산뿐 아니라 작업 조율이 중요해짐

  • 2

    UBS는 GPU당 필요한 CPU 코어 수가 3~5배 늘 수 있다고 전망

  • 3

    인프라용 CPU 시장 규모가 2030년 1700억 달러 이상으로 확대될 가능성

  • 4

    ARM은 전력 효율을 앞세워 주요 수혜 기업으로 거론됨

  • 월가에서 갑자기 CPU 이야기가 다시 나오는 중임. 이유는 AI 에이전트 때문임

    • 지금까지 AI 인프라의 주인공은 거의 GPU였음. 학습이든 추론이든 대량 계산을 병렬로 밀어붙이는 게 핵심이었기 때문임
    • 그런데 AI 에이전트는 단순히 계산만 하는 게 아니라, 여러 작업을 계획하고 순서를 정하고 도구를 호출하는 식으로 굴러감
  • CPU와 GPU의 역할 차이를 보면 왜 이런 얘기가 나오는지 감이 옴

    • CPU는 복잡하고 순차적인 판단에 강한 쪽임. 컴퓨터의 두뇌에 가깝고, 입력된 명령을 순서대로 처리하는 데 특화돼 있음
    • GPU는 상대적으로 단순한 계산을 아주 많이, 동시에 처리하는 데 강함. 그래서 AI 모델 학습과 추론에서 압도적인 존재감을 가졌음
    • 문제는 에이전트 환경에서는 “계산을 얼마나 빨리 하냐”만큼 “일을 어떻게 나눠서 굴리냐”도 중요해진다는 점임

중요

> UBS는 AI 에이전트 환경에서 GPU 하나당 필요한 CPU 코어 수가 기존보다 약 3~5배 늘 수 있다고 봄. 이 정도면 보조 부품이 아니라 인프라 설계의 핵심 변수임.

  • UBS는 이 변화를 꽤 크게 보고 있음

    • 5월 5일 보고서에서 AI 에이전트 환경에서는 작업 조율을 맡는 CPU의 중요성이 계단식으로 커지고 있다고 분석함
    • 데이터센터 같은 인프라용 CPU 시장 규모가 2025년 약 300억 달러에서 2030년 1700억 달러 이상으로 커질 수 있다고 전망함
    • 5년 사이 5배 이상 커질 수 있다는 얘기라, 그냥 “CPU도 좀 팔리겠네” 수준이 아님
  • 수혜주로는 ARM이 콕 집혀 나옴

    • UBS는 신규 수요의 상당 부분을 ARM이 가져갈 가능성이 높다고 봄
    • 이유는 전력 효율 중심 아키텍처임. 데이터센터에서는 성능만큼 전력과 발열이 바로 비용이라 이 포인트가 꽤 큼
    • ARM은 지난 3월 AI 에이전트 인프라용 CPU인 Arm AGI CPU를 공개했음
  • ARM 쪽 분위기도 꽤 공격적임

    • 르네 하스 ARM 최고경영자는 최근 실적 발표에서 AGI CPU 수요가 기대 이상이라고 말함
    • 2027~2028 회계연도 합산 수요 전망은 20억 달러, 원화로 약 2조9000억 원 수준임
    • 3월 출시 당시 전망치가 10억 달러였으니, 불과 얼마 안 돼 기대치가 2배로 뛴 셈임
  • 결론은 AI 인프라가 GPU만으로 설명되는 시대에서 조금씩 벗어나고 있다는 것임

    • 모델이 커질수록 GPU가 중요하다는 사실은 그대로임
    • 다만 에이전트가 실제 업무를 실행하는 구조로 가면 CPU, 네트워크, 스케줄러, 오케스트레이션 계층까지 같이 봐야 함
    • 한국 기업도 AI 인프라를 검토할 때 “GPU 몇 장 확보했냐”만 보면 놓치는 비용과 병목이 생길 가능성이 큼

AI 인프라 논의가 GPU 확보전에서 끝나지 않는다는 신호다. 에이전트가 실제 업무 흐름을 맡기 시작하면, 누가 계산하느냐보다 누가 일을 잘 나눠주고 조율하느냐가 병목이 될 수 있다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.