본문으로 건너뛰기
피드

AMD ROCm 7.0, CUDA 락인 정면 돌파 — 추론 3.5배·오픈소스 100%·개발자 10만 명 돌파

ai-ml 약 7분

AMD가 ROCm 7.0과 개발자 생태계 공세로 엔비디아 CUDA 아성에 도전한다. 전작 대비 추론 3.5배, 훈련 3배 성능 향상을 주장하며 파이토치·vLLM 등 주요 프레임워크에서 코드 수정 없이 구동 가능하다는 호환성을 강조했다. 개발자 클라우드는 10개월 만에 주간 활성 사용자 3.2만 명을 확보했다.

  • 1

    ROCm 7.0이 ROCm 6 대비 추론 3.5배·훈련 3배 성능 향상 (MI300X 자체 측정)

  • 2

    HIP는 CUDA와 구문 호환, 기존 CUDA 코드를 거의 그대로 AMD GPU에서 실행 가능

  • 3

    AITER 커널로 MoE 연산 3배·MLA 디코딩 17배 향상, vLLM·SGLang에 이미 통합

  • 4

    MI355X가 SGLang DeepSeek R1 추론에서 엔비디아 B200 대비 1.3배 처리량 (AMD 테스트)

  • 5

    개발자 클라우드 주간 활성 사용자 3.2만 명·누적 GPU 사용 100만 시간, 아시아가 절반 이상

  • 6

    엔비디아 NIM 대응 상품 AIMs는 vLLM/SGLang 오픈소스 기반에 OpenAI 호환 API 제공

  • AMD가 ROCm 7.0과 개발자 생태계 전략으로 엔비디아 CUDA 아성에 정면 도전 — 핵심 무기는 '오픈소스 전면 개방 + 코드 수정 없는 호환성'
    • ROCm 7.0은 ROCm 6 대비 추론 성능 평균 3.5배, 훈련 성능 3배 향상 (MI300X 기준 AMD 자체 측정)
    • 주요 프레임워크(파이토치, JAX, vLLM, SGLang) 위에서 코드 수정 없이 AMD GPU 구동 가능
    • 개발자 클라우드 출범 10개월 만에 주간 활성 사용자 3.2만 명 확보, 누적 GPU 사용 시간 100만 시간 돌파

CUDA 락인을 깨는 HIP 전략

  • ROCm의 핵심 프로그래밍 인터페이스 HIP(Heterogeneous Compute Interface)은 CUDA와 구문 수준 호환
    • 엔비디아 환경에서 짠 AI 코드를 AMD 하드웨어에서 다시 안 짜도 되는 '번역기' 역할
    • CUDA 핵심 코드가 폐쇄형인 것과 달리 ROCm은 100% 오픈소스 유지
  • 업계 분석은 여전히 "ROCm이 CUDA 생태계를 따라잡는 단계"라는 시각이 주류
    • 다만 메모리 집약적/비용 민감 워크로드에서는 AMD가 현실적 대안으로 부상 중이라는 평가

추론 성능의 숨은 주역 — AITER

  • AITER(AI Tensor Engine for ROCm)는 고성능 커널 라이브러리로 ROCm 7.0 성능 향상의 실질적 동력
    • 행렬 연산 최대 2배, MoE 연산 최대 3배, MLA 디코딩 최대 17배 향상 (AMD 내부 테스트)
    • vLLM·SGLang에 이미 통합되어 별도 설정 없이 사용 가능
  • DeepSeek R1, GPT-OSS 등 MoE 구조 모델이 늘어나는 추세와 맞물려 AITER가 AMD GPU 추론 경쟁력의 핵심으로 부각

엔터프라이즈 패키지 — NIM에 대응하는 AIMs

  • AIMs(AMD Interface Microservice)는 파인튜닝된 모델을 담은 컨테이너
    • vLLM/SGLang 기반 추론 서빙 + OpenAI 호환 API 포함
    • 엔비디아 NIM과 유사하지만 ROCm 오픈소스 스택 위에 구축된 게 차별점
  • AMD 리소스 매니저(쿠버네티스·Slurm 오케스트레이션) + AMD AI 워크벤치(모델 배포·파인튜닝) 조합으로 엔터프라이즈 AI 스위트 구성
  • MI355X 플랫폼은 SGLang 기반 DeepSeek R1 추론에서 엔비디아 B200 대비 1.3배 처리량 달성 (AMD 자체 테스트)

개발자 생태계 공세

  • AMD 개발자 프로그램은 2025년 1월 출범 후 4개월 만에 등록 인원 10만 명 돌파
  • 개발자 클라우드는 MI300X GPU에 하드웨어 투자 없이 접근 가능, 사전 설치된 도커 컨테이너와 주피터 노트북 환경 제공
    • 아시아 지역이 전체 사용량의 절반 이상 차지
  • 100만 달러 규모 HIP 커널 해커톤으로 오픈소스 커널 대량 축적 — 라민 론 부사장은 "공개된 HIP 커널 수가 엔비디아 공개 CUDA 커널에 상응한다" 주장
    • 이 데이터가 GPT-OSS 등 LLM의 HIP 코드 생성 성능 개선에도 기여

데이터센터 너머 클라이언트 확장

  • ROCm 지원 범위가 라이젠 AI 300/400 시리즈 노트북, 라이젠 AI 맥스, 스레드리퍼+라데온 AI 워크스테이션까지 확대
  • 일본·프랑스·미국 로보틱 해커톤에서 '데이터센터 훈련 → 라이젠 AI 엣지 추론' 엔드투엔드 파이프라인 시연
  • 아시아 파트너십 핵심 — 삼성, 업스테이지, KT 클라우드, 네이버 등 한국 기업과 전략적 협업 진행 중
  • 4월 30일 샌프란시스코, 5월 19일 상하이 AMD 개발자 데이에서 추가 발표 예정

💡

> CUDA 종속 탈출을 고민하던 팀이라면 HIP가 현실적 해답에 가까워짐. 파이토치/vLLM 기반 코드면 수정 없이 돌아간다는 게 실제 현장에서 검증되는 중


기술 맥락

AMD가 노리는 건 '성능 1등'이 아니라 'CUDA 락인을 깨는 소프트웨어 이식성'이에요. AI 인프라 의사결정에서 하드웨어 스펙은 이미 AMD가 할 말이 많은데, 개발자들이 선뜻 갈아타지 못했던 이유가 수백만 개 커널 코드와 수십만 숙련 개발자가 만든 CUDA 소프트웨어 락인이었거든요. HIP는 이 락인을 해체하는 가장 중요한 도구예요. 기존 CUDA 커널을 거의 그대로 AMD GPU에서 돌릴 수 있게 해주는 번역 레이어니까요.

왜 지금 이 전략이 통할 여지가 생겼냐면, 최근 프론티어 모델들이 대부분 MoE 구조로 가고 있어서예요. MoE는 활성 전문가만 연산하는 구조라 메모리 대역폭이 병목이 되기 쉬운데, AMD MI300X 계열은 HBM 용량·대역폭에서 강점이 있거든요. AITER의 MoE 연산 최대 3배, MLA 디코딩 최대 17배 향상 같은 수치가 현실적 설득력을 갖는 이유가 여기 있어요.

엔비디아 NIM과 AMD AIMs의 대결 구도도 눈여겨볼 만해요. 둘 다 "모델+서빙+API를 컨테이너 하나로 패키징"하는 엔터프라이즈 배포 유닛인데, NIM은 폐쇄형 스택 위에, AIMs는 오픈소스 vLLM/SGLang 위에 올라가요. 벤더 락인을 두려워하는 엔터프라이즈라면 AIMs가 협상 카드가 되거든요. 한국 기업 중에도 삼성, 업스테이지, KT 클라우드, 네이버가 파트너로 언급된 걸 보면, 국내에서도 이 구도를 쓰는 플레이어가 늘고 있다는 신호예요.

AMD가 스펙 싸움 대신 '이식성'에 베팅한 전략이 본격적으로 먹히기 시작한 분위기. MoE 모델 확산으로 메모리 대역폭이 병목이 되면서 MI300X 계열의 HBM 강점이 현실적 설득력을 얻고 있다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

몬드리안에이아이, LG AI 아카데미에 프라이빗 AI 클라우드 '런유어 클라우드' 공급

몬드리안에이아이가 LG AI연구원의 교육 프로그램 LG AI 아카데미에 자체 AI 클라우드 솔루션 '런유어 클라우드'를 공급했다. 엔터프라이즈 포털 + 실시간 자원 모니터링 대시보드 + 하이브리드 기술 지원 체계가 수주 결정 요인이었다.

ai-ml

딥시크 V4 공개 — 1.6T 오픈소스 역대 최대, 가격은 클로드 오퍼스의 1/10

딥시크가 1.6조 파라미터 규모의 오픈소스 플래그십 모델 DeepSeek-V4를 허깅페이스에 프리뷰 공개했다. MoE 구조로 활성 파라미터는 490억. 컨텍스트 창은 100만 토큰으로 V3.2 대비 8배 확장됐고, API 가격은 클로드 오퍼스의 10~20% 수준을 유지한다. 다만 프론티어 모델에는 대부분 벤치에서 밀린다.

ai-ml

SKT, AI 3강 풀스택 선언 — 에이닷엑스 K1 5190억 파라미터·DC 병목 해소 전략

2026 월드IT쇼 AI·ICT 포럼에서 SK텔레콤이 AI 3강 도약을 풀스택 전략으로 뒷받침하겠다고 선언했다. 5190억 파라미터 규모의 A.X K1 모델이 스탠포드 AI 인덱스 2026에 이름을 올렸고, 데이터센터 병목 해소를 위해 수도권·경남·서부권까지 DC 사업을 확장하겠다고 밝혔다.

ai-ml

오픈AI GPT-5.5 공개 — 적은 자원으로 더 높은 성능, 그래도 앤스로픽 미토스엔 밀렸다

오픈AI가 GPT-5.5를 출시했다. 전작 대비 적은 컴퓨팅 자원으로 더 높은 성능을 낸다는 효율 중심 업그레이드다. 다만 Terminal-Bench 2.0에서 앤스로픽 미토스(92.1%)에 10%p 차이로 밀려 성능 1위 자리는 되찾지 못했다.

ai-ml

메타, 청소년 AI 대화 요약 보여주는 '인사이트' 탭 공개 — 원문은 안 보여주고 카테고리만

메타가 청소년 계정의 Meta AI 대화를 학부모가 카테고리별로 볼 수 있는 '인사이트' 탭을 출시했다. 대화 원문은 노출하지 않고 학교·건강·웰빙 등 주제만 요약해 프라이버시와 감독권 사이 균형을 시도했다. 자살·자해 등 고위험 주제에서는 능동적 알림 기능도 도입 예정이다.