AMD ROCm 7.0, CUDA 락인 정면 돌파 — 추론 3.5배·오픈소스 100%·개발자 10만 명 돌파
AMD가 ROCm 7.0과 개발자 생태계 공세로 엔비디아 CUDA 아성에 도전한다. 전작 대비 추론 3.5배, 훈련 3배 성능 향상을 주장하며 파이토치·vLLM 등 주요 프레임워크에서 코드 수정 없이 구동 가능하다는 호환성을 강조했다. 개발자 클라우드는 10개월 만에 주간 활성 사용자 3.2만 명을 확보했다.
- 1
ROCm 7.0이 ROCm 6 대비 추론 3.5배·훈련 3배 성능 향상 (MI300X 자체 측정)
- 2
HIP는 CUDA와 구문 호환, 기존 CUDA 코드를 거의 그대로 AMD GPU에서 실행 가능
- 3
AITER 커널로 MoE 연산 3배·MLA 디코딩 17배 향상, vLLM·SGLang에 이미 통합
- 4
MI355X가 SGLang DeepSeek R1 추론에서 엔비디아 B200 대비 1.3배 처리량 (AMD 테스트)
- 5
개발자 클라우드 주간 활성 사용자 3.2만 명·누적 GPU 사용 100만 시간, 아시아가 절반 이상
- 6
엔비디아 NIM 대응 상품 AIMs는 vLLM/SGLang 오픈소스 기반에 OpenAI 호환 API 제공
AMD가 스펙 싸움 대신 '이식성'에 베팅한 전략이 본격적으로 먹히기 시작한 분위기. MoE 모델 확산으로 메모리 대역폭이 병목이 되면서 MI300X 계열의 HBM 강점이 현실적 설득력을 얻고 있다.
관련 기사
몬드리안에이아이, LG AI 아카데미에 프라이빗 AI 클라우드 '런유어 클라우드' 공급
몬드리안에이아이가 LG AI연구원의 교육 프로그램 LG AI 아카데미에 자체 AI 클라우드 솔루션 '런유어 클라우드'를 공급했다. 엔터프라이즈 포털 + 실시간 자원 모니터링 대시보드 + 하이브리드 기술 지원 체계가 수주 결정 요인이었다.
딥시크 V4 공개 — 1.6T 오픈소스 역대 최대, 가격은 클로드 오퍼스의 1/10
딥시크가 1.6조 파라미터 규모의 오픈소스 플래그십 모델 DeepSeek-V4를 허깅페이스에 프리뷰 공개했다. MoE 구조로 활성 파라미터는 490억. 컨텍스트 창은 100만 토큰으로 V3.2 대비 8배 확장됐고, API 가격은 클로드 오퍼스의 10~20% 수준을 유지한다. 다만 프론티어 모델에는 대부분 벤치에서 밀린다.
SKT, AI 3강 풀스택 선언 — 에이닷엑스 K1 5190억 파라미터·DC 병목 해소 전략
2026 월드IT쇼 AI·ICT 포럼에서 SK텔레콤이 AI 3강 도약을 풀스택 전략으로 뒷받침하겠다고 선언했다. 5190억 파라미터 규모의 A.X K1 모델이 스탠포드 AI 인덱스 2026에 이름을 올렸고, 데이터센터 병목 해소를 위해 수도권·경남·서부권까지 DC 사업을 확장하겠다고 밝혔다.
오픈AI GPT-5.5 공개 — 적은 자원으로 더 높은 성능, 그래도 앤스로픽 미토스엔 밀렸다
오픈AI가 GPT-5.5를 출시했다. 전작 대비 적은 컴퓨팅 자원으로 더 높은 성능을 낸다는 효율 중심 업그레이드다. 다만 Terminal-Bench 2.0에서 앤스로픽 미토스(92.1%)에 10%p 차이로 밀려 성능 1위 자리는 되찾지 못했다.
메타, 청소년 AI 대화 요약 보여주는 '인사이트' 탭 공개 — 원문은 안 보여주고 카테고리만
메타가 청소년 계정의 Meta AI 대화를 학부모가 카테고리별로 볼 수 있는 '인사이트' 탭을 출시했다. 대화 원문은 노출하지 않고 학교·건강·웰빙 등 주제만 요약해 프라이버시와 감독권 사이 균형을 시도했다. 자살·자해 등 고위험 주제에서는 능동적 알림 기능도 도입 예정이다.
댓글
댓글
댓글을 불러오는 중...