본문으로 건너뛰기
피드

리벨리온 '리벨100', gpt-oss·미니맥스에서 H200 대비 전성비 3배 기록

ai-ml 약 5분

리벨리온이 2세대 AI 반도체 리벨 100으로 gpt-oss-120b와 MiniMax 등 최신 오픈소스 추론 모델을 구동해 엔비디아 H200 대비 3배 높은 전성비를 기록했다고 공개했다. UCIe 기반 칩렛 구조에 HBM3E 144GB를 탑재했으며, TPOT 3.2ms로 체감 응답 속도에서도 경쟁력을 입증했다.

  • 1

    gpt-oss-120b에서 효율 모드 TPOT 4.0ms, 성능 모드 3.2ms 기록

  • 2

    엔비디아 H200 대비 전성비(전력 대비 성능) 3배 달성 주장

  • 3

    AI 반도체 스타트업 최초로 UCIe 기반 칩렛 아키텍처 도입

  • 4

    HBM3E 144GB 탑재 — 120B급 모델을 단일 카드로 구동 가능

  • 5

    MiniMax 모델 구동은 국내 AI 반도체 업계 최초 사례

  • 리벨리온이 2세대 AI 반도체 '리벨 100'으로 오픈소스 추론 모델 벤치마크를 공개하며 엔비디아 H200에 정면 도전
    • gpt-oss-120b, 미니맥스(MiniMax) 등 최신 오픈소스 모델에서 H200 대비 3배 전성비(전력 대비 성능) 기록
    • 미니맥스 구동은 국내 AI 반도체 업계 최초 사례

성능 수치

  • gpt-oss-120b 기준 TPOT(출력 토큰당 생성 시간)
    • 효율 모드(4TB/s): 4.0ms
    • 성능 모드(4.8TB/s): 3.2ms
    • TPOT는 사용자가 실제로 체감하는 응답 속도를 결정하는 지표
  • 리벨 100 스펙
    • UCIe 기반 칩렛 아키텍처로 페타플롭스(PetaFlops)급 연산 성능 확보 — AI 반도체 스타트업 중 최초 UCIe 도입
    • HBM3E 144GB 메모리 탑재
    • 서버 단위를 넘어 랙스케일까지 확장 가능한 시스템 아키텍처

중요

> H200 대비 전성비 3배. 국내 AI 반도체가 엔비디아 H200 직접 비교 벤치마크로 우위를 주장한 건 이례적이다.

전략적 의미

  • 리벨리온은 처음부터 학습이 아닌 추론에 타깃을 맞춘 제품 설계 — AI 시장 중심이 학습에서 추론 서비스로 옮겨가는 흐름을 노림
  • gpt-oss-120b: 오픈AI가 공개한 고성능 오픈소스 모델로 추론 능력·효율성으로 주목받는 중
  • MiniMax: 출시 당시 글로벌 AI 모델 토큰 사용량 1위, 현재까지 상위 5위 유지하는 인기 모델
  • 지원 확대 계획 — SK텔레콤, LG AI연구원, 업스테이지, 구글, 알리바바 등이 내놓은 다양한 오픈소스 모델을 순차 지원
  • 하반기 중 서버·랙스케일 제품까지 양산해서 "범용 AI 추론 플랫폼" 포지셔닝을 노림

기술 맥락

리벨 100이 자랑하는 UCIe(Universal Chiplet Interconnect Express) 기반 칩렛 구조가 이번 발표의 핵심이에요. 단일 칩에서 성능을 끌어올리는 시대가 끝나면서, 여러 개의 작은 칩(다이)을 고속 인터커넥트로 붙여서 하나의 거대한 칩처럼 동작하게 만드는 게 요즘 AI 반도체의 정석이거든요. AMD, 인텔, 엔비디아가 다 이 방향으로 가고 있는데, 리벨리온이 국내 AI 반도체 스타트업 중 처음으로 UCIe 표준을 도입한 거예요.

왜 추론에 올인했느냐도 읽어볼 만해요. 학습은 엔비디아 H100·B200이 사실상 독점한 시장이고, 신생 업체가 뚫기 거의 불가능해요. 반면 추론은 학습과 요구 스펙이 달라서 — 메모리 대역폭과 저지연 응답이 더 중요해서 — 틈이 있어요. HBM3E 144GB를 넉넉히 때려박은 것도 이 때문이에요. 120B 모델을 단일 카드로 돌릴 수 있는 용량이거든요.

TPOT 3.2ms라는 수치가 의미 있는 이유는, 체감 속도를 좌우하는 지표이기 때문이에요. 챗봇이 답을 뱉을 때 한 토큰 출력에 걸리는 시간인데, 3ms대면 사람이 타이핑을 따라가기 전에 텍스트가 쏟아지는 수준이에요. H200과 비슷한 체감 속도를 더 적은 카드 수와 더 낮은 전력으로 낸다는 게 데이터센터 TCO(총소유비용) 관점에서 진짜 무기죠.

학습 시장은 엔비디아가 독점하지만 추론 시장은 구조적 여지가 있다. 리벨 100이 처음부터 추론에 올인하고 메모리 대역폭과 TPOT에 집중한 건 데이터센터 TCO 경쟁으로 틈을 만들려는 전략으로 읽힌다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

월 20달러 무제한 AI의 종말 — "전기세처럼 쓴 만큼 내는 시대"

오픈AI, 앤트로픽, 구글 등 주요 AI 기업이 정액 구독 모델 대신 사용량 기반 과금 체계로 이동 중이다. 추론형 모델 연산 비용 급증과 2026년 140억 달러 적자 전망 때문이다. 앤트로픽은 이미 클로드 구독자의 타사 AI 사용에 추가 요금을 부과하기 시작했다.

ai-ml

ETRI, 영상 VFX를 AI로 자동 생성하는 미디어 기술 3종 공개

ETRI가 NAB 2026에서 멀티모달 프롬프트로 VFX를 자동 생성하는 기술, 2D 영상을 USD 기반 3D 에셋으로 변환하는 기술, AI UI·UX 분석 에이전트 등 3종을 공개했다. 기존 영상 편집툴에 플러그인으로 붙는 형태라 현장 투입이 빠르다는 점이 특징이다.

ai-ml

크래프톤, 자체 AI 브랜드 'Raon' 공개 — 음성 LLM·실시간 대화·TTS·비전 인코더 4종 오픈소스

크래프톤이 AI 모델 브랜드 Raon을 출범하고 9B 음성 LLM, 국내 최초 실시간 양방향 음성 대화 모델, TTS, 비전 인코더 4종을 허깅페이스에 오픈소스로 공개했다. 음성 LLM은 10B 이하급에서 영어·한국어 모두 글로벌 1위 성능, 비전 인코더는 구글 SigLIP2를 일부 태스크에서 상회한다.

ai-ml

Godot 관리자 비명 "AI가 생성한 쓰레기 PR 리뷰에 기진맥진"

생성형 AI 코드가 쏟아지면서 고도 엔진 수석 관리자는 '검토·거절 과정이 소모적'이라 토로했고, 2026 상반기 Game Developer 설문에선 생성형 AI 도입률이 36%에서 29%로 반전, 개발자 47%가 AI가 게임 품질을 저하시킬 것이라 응답했다. 감지가 어려운 '조용한 실패'가 장기 프로젝트 안정성을 위협한다는 지적이 핵심이다.

ai-ml

칼텍, 세포 분할 파운데이션 모델 'CellSAM' 오픈소스 공개

칼텍 연구진이 다양한 생물학 이미지에서 세포를 자동 식별하는 범용 파운데이션 모델 CellSAM을 네이처 메서즈에 공개했다. 단일 모델로 종양세포·박테리아·면역세포를 모두 커버하고 세포 간 상호작용과 공간 구조까지 분석 가능하다. 연구자 누구나 무료로 쓸 수 있게 오픈소스로 풀었다.