본문으로 건너뛰기
피드

중국 AI 업계, 모델과 국산 칩을 한 몸처럼 묶기 시작함

ai-ml 약 4분

샤오미가 오픈소스 대규모 언어 모델(LLM) ‘미모 V2.5 프로’를 공개했고, 중국 GPU 업체들이 출시 당일 호환을 발표했다. 딥시크, 스텝펀, 즈푸, 알리바바, 바이두까지 중국산 AI 모델과 중국산 연산 칩의 결합이 빠르게 늘고 있다.

  • 1

    샤오미 미모 V2.5 프로가 공개되자 메타X와 엔플레임이 국산 GPU 호환을 발표함

  • 2

    딥시크 V4는 엔비디아 대신 화웨이 어센드 칩 시스템과 협력하는 사례로 주목받음

  • 3

    중국 정부의 2026~2030년 계획도 독립적이고 통제 가능한 소프트웨어·하드웨어 생태계 구축을 강조함

중국 AI, 이제 모델만이 아니라 칩까지 같이 묶는 흐름임

  • 샤오미가 오픈소스 대규모 언어 모델(LLM) ‘미모 V2.5 프로’를 공개하자마자 중국 칩 업체들이 바로 붙음

    • 중국 그래픽처리장치(GPU) 업체 메타X는 출시 당일 초고속으로 적용을 완료했고, 자사 GPU 플랫폼에서 부드럽게 구동된다고 밝힘
    • 또 다른 반도체 업체 엔플레임도 중국 연산력 협력업체 중 거의 최초로 호환성을 달성했다고 주장함
    • 한마디로 “우리 모델, 우리 칩에서 바로 돈다”는 메시지를 동시에 던진 셈임
  • 이게 샤오미 한 회사의 이벤트가 아니라 중국 AI 업계 전체 트렌드로 번지는 중임

    • 4월 24일 공개된 딥시크 V4는 미국 엔비디아 대신 중국 화웨이 어센드 칩 시스템과 협업하는 것으로 알려져 주목받음
    • 스텝펀의 ‘스텝 3.5 플래시’는 화웨이 어센드뿐 아니라 메타X, 비런테크 등 여러 중국 반도체 업체와 협력함
    • 즈푸의 GLM-5, 알리바바의 큐원, 바이두의 어니도 중국 내 플랫폼들과 넓은 호환성을 갖췄다는 평가가 나옴

중요

> 핵심은 중국 AI 업체들이 “모델은 좋은데 칩은 엔비디아에 의존”하는 구도를 깨려 한다는 점임. 모델과 국산 연산 인프라를 같이 키우는 방향으로 산업 전략이 움직이고 있음.

  • 중국 쪽 해석은 꽤 명확함 — 공급망 리스크를 줄이고 독자 생태계를 만들겠다는 것임

    • 베이징 중관춘 쪽 산업 관계자는 중국 최고 LLM들이 이제 완전히 국내 컴퓨팅 플랫폼에서 훈련할 수 있음을 보여준다고 평가함
    • 연산력 공급 위험을 줄이는 전략적 가치가 크고, 더 이상 “비전”이 아니라 현실이 되고 있다는 주장임
    • 산업 애널리스트도 중국산 컴퓨팅 칩 지원이 중국 LLM의 전반적 능력을 끌어올릴 기반이 될 거라고 봄
  • 중국 정부의 장기 계획과도 딱 맞물림

    • 중국은 제15차 5개년 계획(2026~2030년)에서 연산력, 알고리즘, 데이터의 효율적 공급 강화를 언급함
    • 독립적이고 통제 가능하며 협력적으로 작동하는 소프트웨어·하드웨어 생태계 구축에도 속도를 내겠다고 밝힘
    • 결국 AI 모델 경쟁이 논문이나 벤치마크만의 싸움이 아니라, 칩 공급망과 국가 산업 전략까지 얽힌 게임이 된 거임

기술 맥락

  • 이번 흐름에서 중요한 선택은 LLM을 특정 국산 GPU와 빠르게 맞추는 거예요. 모델만 공개하면 끝나는 게 아니라, 실제 기업이 돌릴 수 있는 연산 플랫폼까지 같이 보여줘야 생태계가 움직이거든요.

  • 중국 업체들이 엔비디아 대신 화웨이 어센드, 메타X, 엔플레임 같은 국내 칩을 강조하는 이유는 공급망 리스크 때문이에요. AI 인프라는 칩을 못 구하면 모델이 아무리 좋아도 학습과 추론을 안정적으로 운영하기 어렵거든요.

  • 여기서 호환성은 단순히 실행 성공을 뜻하지 않아요. 모델 가중치, 런타임, 드라이버, 컴파일러, 메모리 사용 방식이 맞아야 실제 서비스 비용과 성능이 나와요.

  • 한국 기업 입장에서도 시사점이 있어요. 특정 클라우드나 특정 GPU 벤더에 강하게 묶인 AI 전략은 빠르게 편하지만, 정책이나 수급 문제가 생기면 전체 AI 로드맵이 흔들릴 수 있거든요.

중국 AI의 방향은 ‘좋은 모델 하나’가 아니라 모델, 칩, 플랫폼을 묶은 자립형 생태계 쪽으로 가는 중임. 엔비디아 의존도를 줄이려는 흐름이라 한국 기업도 AI 인프라 공급망 리스크를 다시 봐야 할 타이밍임.

댓글

댓글

댓글을 불러오는 중...

ai-ml

네이버클라우드, K-AI 파트너십 공동의장사로 산·학·연 AI 연합 이끈다

네이버클라우드가 K-AI 파트너십 공동의장사로 선임됐고, 김유원 대표가 조준희 KOSA 회장과 함께 공동의장을 맡는다. 이 협력체는 과기부 지원 아래 산·학·연을 묶어 국내 AX 역량을 모으고, 실제 사업 매칭과 수출 성과까지 연결하는 실행형 AI 민관 협력체를 지향한다.

ai-ml

세일즈포스와 구글 클라우드, 슬랙·워크스페이스에 AI 에이전트 바로 꽂는다

세일즈포스와 구글 클라우드가 에이전트포스와 제미나이 엔터프라이즈 연동을 확대해 슬랙과 구글 워크스페이스 안에서 AI 에이전트를 바로 배포할 수 있게 했다. 핵심은 데이터 이동 없이 여러 시스템의 정보를 실시간으로 쓰는 제로 카피 구조와, 영업·문서·회의·고객 응대 흐름을 한 화면에서 이어가게 만드는 통합이다.

ai-ml

아이티센클로잇, 구글 클라우드 기반 기업용 AI 전환 플랫폼 시연

아이티센클로잇이 AI EXPO KOREA 2026에서 구글 클라우드 기반의 기업 맞춤형 AI 전환 전략을 공개한다. 제미나이 엔터프라이즈, 버텍스 AI, 자체 멀티 에이전트 관리 플랫폼, AI 영상 제작 솔루션을 묶어 엔드투엔드 기업 AI 도입 시나리오를 보여줄 예정이다.

ai-ml

머스크와 오픈AI, ‘안전한 AI’ 정체성 두고 법정 정면충돌

일론 머스크가 오픈AI 경영진을 상대로 낸 소송 첫 변론에서 오픈AI의 영리화가 초기 비영리 목적을 훼손했다고 주장했다. 오픈AI는 머스크가 경쟁사 xAI를 운영하는 이해관계자라며, 이번 소송을 경쟁사의 공격으로 보고 있다.

ai-ml

프렌들리AI, 코딩 에이전트 추론 속도 3배·비용 절반 내세운 서버리스 솔루션 공개

프렌들리AI가 국제인공지능대전에서 코딩 에이전트에 최적화된 추론 엔진과 서버리스 엔드포인트를 선보인다. Claude Code 같은 도구에서 환경 변수만 바꿔 오픈소스 모델로 연결하고, 기존 클로즈드 API 대비 50% 이상 비용 절감과 vLLM 대비 최대 3배 빠른 처리 속도를 강조한다.