본문으로 건너뛰기
피드

칭화대 교수가 만든 '즈푸AI' — 세계 최초 LLM 상장, GLM-4.7로 GPT에 도전

ai-ml 약 8분

칭화대 교수 탕제가 창업한 중국 AI 스타트업 즈푸AI가 2026년 1월 홍콩 증시에 1,159대 1 경쟁률로 상장 — 세계 최초 LLM 순수 스타트업 상장 사례. GLM-4.7은 LiveCodeBench 84.9%, SWE-bench 73.8% 기록하며 Claude API 대비 10분의 1 가격으로 시장 재편을 시도 중.

  • 1

    즈푸AI 홍콩 상장 청약 경쟁률 1,159대 1, 세계 최초 LLM 순수 스타트업 상장

  • 2

    GLM-4.7 (350B MoE, 200K 컨텍스트) LiveCodeBench 84.9% — Claude Sonnet 4.5 초과

  • 3

    API 가격 100만 토큰당 입력 0.6달러/출력 2.2달러 — GPT-4 Turbo 대비 1/10

  • 4

    미국 제재 이후 Claude API 엔드포인트 호환 설계로 중국 내 개발자 흡수

  • 5

    알리바바·텐센트·메이투안·중국정부 등 총 83억 위안 투자, '인내자본' 전략 전형

홍콩 증시 1,159대 1, 세계 최초 LLM 상장사의 등장

  • 2026년 1월, 즈푸AI(智谱AI, Zhipu AI) 가 홍콩 증시에 상장 — 세계 최초 LLM 순수 스타트업 상장 사례
    • 공모가 116.20 홍콩달러, 청약 경쟁률 1,159대 1
    • 상장 직후 주가 최대 8% 급등, 총 43억 4,000만 홍콩달러(약 5억 5,800만 달러) 조달
  • 재무적으로는 사실상 재앙
    • 2025년 상반기 매출 1억 6,178만 위안, 순손실 23억 6,000만 위안 — 손실이 매출의 15배
    • 그럼에도 시장은 열광. 이유는 중국 AI 전략 지도를 이해해야 보임

칭화대 연구실에서 시작된 불씨

  • 창업자는 탕제(唐杰)리쥐안쯔(李娟子) — 칭화대학교 컴퓨터공학과 교수들
    • 수십 년 지식 그래프·자연어 처리 연구 → 2019년 6월 칭화대 연구실에서 분사
    • 업계 반응은 "교수 두 명이 AI 모델 없이 비전만 갖고 시작한 회사"
  • 2022년 8월, GLM-130B 공개 — 1,300억 파라미터, 중국어·영어 동시 구사
    • 중국 스타트업 최초 자체 개발 사전훈련 LLM
    • 탕제의 전략 "칩이 막혀도 모델 설계와 훈련 효율로 극복한다. 오픈소스로 가되 성능으로 증명한다"

GLM-4.7, "월 3달러로 GPT를 이긴다"

  • 2025년 12월 22일, GLM-4.7 공개
    • 약 3,500억 파라미터 MoE 아키텍처
    • 최대 20만 토큰 컨텍스트 — 긴 코드베이스 전체를 한 번에 읽고 분석 가능
    • 오픈소스, 클라우드 이용 시 월 3달러 — OpenAI/앤트로픽 월 200달러 플랜과 성능 비견
  • 벤치마크 성적이 인상적
    • LiveCodeBench 84.9% — Claude Sonnet 4.5보다 높음
    • SWE-bench 73.8% — 오픈소스 모델 중 1위
    • AIME 2025 95.7% — 수학 경시대회 문제 풀이
  • 핵심 혁신은 Preserved Thinking
    • 멀티턴 대화 전반에서 추론 흐름 유지
    • 30시간짜리 장기 작업에서도 이전 단계 논리 기억
    • Claude Code, Cline, Roo Code 등 주요 툴과 직접 연동
  • 세 가지 사고 모드
    • Interleaved Thinking — 답변 전 반드시 먼저 생각
    • Preserved Thinking — 멀티턴 추론 연속
    • Turn-level Thinking — 요청 난이도에 따라 추론 깊이 자동 조절

중요

> API 요금이 100만 입력 토큰당 0.6달러, 출력 2.2달러. GPT-4 Turbo 대비 10분의 1 수준. 로컬 실행은 무료(단 데이터센터급 GPU 필요).

제재가 만든 해자 — 엔드포인트 전환 전략

  • 2025년 1월 미국이 즈푸AI를 수출 통제 명단에 올리면서 미국산 칩·클라우드 접근 차단
    • 동시에 중국 기업의 Claude API 접근도 제한됨
  • 즈푸AI의 대응 — "개발자들이 엔드포인트 하나만 바꿔도 Claude에서 GLM-4.7로 전환되도록 설계"
    • 제재가 오히려 내수 독점 기회로 전환됨
    • 중국산 칩 40여 종과 호환, 엔비디아 없이도 구동 가능
  • 챗봇 아레나 글로벌 리더보드에서 GLM-4.5는 세계 5위 기록 (2025년 9월 기준)

인내자본(耐心資本) — 적자를 투자로 읽는 중국

  • 2025년 상반기 R&D에 15억 9,500만 위안 — 전년 대비 85.7% 급증, 매출의 8배
  • 투자자 명단 — 알리바바, 텐센트, 메이투안, 샤오미, 앤트그룹 (총 83억 4,400만 위안)
    • 중국 정부도 세 차례 직접 투자. 청두시 최근 투자만 3억 위안
  • 중국의 논리 — "AI 기초 모델은 국가 인프라, 오픈AI 종속이면 디지털 주권 없음. 적자는 감수한다"
  • 상장 경로도 전략적
    • 본토 커촹반(科创板) 상장 시도 → 감독당국 회신 없음
    • 홍콩으로 전환 → 더 유연한 기준 + 글로벌 투자자 노출

동남아 우회 + 오픈소스로 세계 포위

  • 미국 시장이 막힌 대신 동남아 정부·대학을 전초기지로 활용
    • 자국 데이터 유출 꺼리는 신흥국 수요 + 즈푸AI '주권형 AI' 서사 매칭
  • 2억 5천만 명 ChatGLM 사용자가 데이터 해자
  • GPT-4 Turbo 가격 대비 10배 이상 저렴한 GLM-4.7

ℹ️참고

> 한국의 선택지는 두 가지라는 평가 — 기초 모델에 국가 차원 집중 투자로 독자 경쟁력 구축, 혹은 AI 응용·특화 산업 AI로 무게 중심 이동. "즈푸AI가 세계 최초 LLM 상장 기업이 된 날, 유예 기간은 이미 끝났다"


기술 맥락

"교수가 창업한 LLM 회사가 상장한다"는 스토리의 진짜 맥락은 중국의 AI 산업 정책이에요. 미국이 엔비디아 A100/H100 같은 최신 가속기를 막으니까, 중국은 "하드웨어로 안 되면 알고리즘 효율로 극복한다"는 노선을 택했어요. MoE 구조, 양자화, 저비용 훈련 기법 같은 쪽에 중국 AI 스타트업들이 공격적으로 투자한 이유예요.

GLM-4.7이 가격 파괴를 한 건 딥시크가 먼저 했던 방식이지만, 즈푸AI는 거기에 "오픈소스 + API 호환성"을 얹었어요. Claude API 쓰던 개발자가 엔드포인트만 바꿔도 전환되게 만든 거, 이거 진짜 영리해요. 중국 정부가 Claude API 접근 막아버리니까 그 개발자들을 자연스럽게 받아낸 거거든요. 제재를 역이용한 케이스예요.

Preserved Thinking 같은 기능이 왜 중요하냐면, 30시간짜리 코딩 작업 같은 에이전트 시나리오에서 기존 모델은 중간에 맥락을 잃어버려요. 그래서 매 턴마다 "아까 내가 뭘 하려고 했지"를 다시 추론해야 하고, 이게 비용·품질 모두 떨어뜨려요. 이 기능은 Claude의 extended thinking, OpenAI o3의 reasoning과 같은 흐름이에요.

인내자본(耐心資本)이라는 개념도 주목할 만해요. 매출의 8배를 R&D에 쏟아도 정부·빅테크가 지속 투자하는 건, "AI 기초 모델은 국가 인프라"라는 프레임 때문이에요. 한국은 하이퍼클로바X, KoGPT 같은 시도가 있지만 글로벌 벤치마크 최상위권 존재감은 없거든요. 이 기사가 던지는 질문은 "한국이 기초 모델 경쟁에 계속 베팅할 건지, 응용으로 갈 건지"예요.

제재를 해자로 전환한 케이스. 오픈소스 + API 호환성 + 가격 파괴 3단 공격으로 개발자 생태계를 빠르게 흡수 중. 한국은 기초 모델 vs 응용 AI 중 선택을 미룰 수 없는 시점.

댓글

댓글

댓글을 불러오는 중...

ai-ml

구글 클라우드, 한국 3각 편대 공개 — 카뱅 전사 AI · CJ ENM · 메가존 파트너십

구글 클라우드가 넥스트 2026 직전 한국 협력 사례를 공개. 카카오뱅크는 전 임직원 1,800명 대상 제미나이 엔터프라이즈 전사 도입, CJ ENM은 Veo/Imagen으로 영상 제작 R&D, 메가존소프트는 전략적 파트너십(SPA) 체결. 금융·콘텐츠·파트너 3축으로 국내 에이전틱 AI 전환 본격화.

ai-ml

알리바바 Qwen 3.6 공개 — 35B 모델인데 추론은 3B만 쓴다

알리바바가 오픈소스 AI 모델 Qwen 3.6-35B-A3B를 공개. MoE 구조로 총 350억 파라미터 중 연산에는 30억만 사용해 효율 중심 설계의 정점을 찍었고, 코딩·멀티모달·preserve_thinking 기능까지 붙여서 에이전트 시장까지 겨냥함.

ai-ml

리벨리온 '리벨100' 성능 공개 — H200급 연산, 전력은 3분의 1

한국 AI 반도체 스타트업 리벨리온이 차세대 NPU 리벨100의 성능을 공개했다. FP16 1페타플롭스로 엔비디아 H200과 사실상 동급이면서 전력은 1/3 수준. 삼성 144GB HBM3E와 UCIe 칩렛 구조를 채택했고 하반기 양산에 들어간다.

ai-ml

이커머스 출신이 만든 AI 마케팅 에이전트 '라이트하우스'…도메인 지식을 어떻게 LLM에 붙였나

마켓컬리·오늘의집 출신 강성주 대표의 라이트에이아이가 퍼포먼스 마케팅 데이터 해석과 크리에이티브 제안까지 원스톱으로 자동화하는 B2B AI 에이전트 '라이트하우스'를 공개했다. 이커머스 현장 지식을 범용 AI와 결합해 중소·중견 소비재 업체를 타겟으로 한다.

ai-ml

의료 AI가 쓴 퇴원 요약에 서명한 의사 — '정보 세탁' 구조와 거버넌스 설문조사

AI가 잘못된 의료 정보를 생성하고 의사가 서명해 공식 기록으로 세탁되는 구조를 서울아산병원 유소영 교수가 설문 108명 분석과 함께 해부했다. 직군별로 원인 진단·책임 귀속·대응 방향이 완전히 달랐고, 5개 집단이 각자 다른 해법을 우선순위로 꼽았다. 조율 없는 병렬 거버넌스가 제도적 공백을 만든다는 경고.