---
title: "리벨리온 '리벨100', gpt-oss·미니맥스에서 H200 대비 전성비 3배 기록"
published: 2026-04-19T03:05:03.606Z
canonical: https://jeff.news/article/1799
---
# 리벨리온 '리벨100', gpt-oss·미니맥스에서 H200 대비 전성비 3배 기록

리벨리온이 2세대 AI 반도체 리벨 100으로 gpt-oss-120b와 MiniMax 등 최신 오픈소스 추론 모델을 구동해 엔비디아 H200 대비 3배 높은 전성비를 기록했다고 공개했다. UCIe 기반 칩렛 구조에 HBM3E 144GB를 탑재했으며, TPOT 3.2ms로 체감 응답 속도에서도 경쟁력을 입증했다.

- 리벨리온이 2세대 AI 반도체 '리벨 100'으로 오픈소스 추론 모델 벤치마크를 공개하며 엔비디아 H200에 정면 도전
  - gpt-oss-120b, 미니맥스(MiniMax) 등 최신 오픈소스 모델에서 **H200 대비 3배 전성비(전력 대비 성능)** 기록
  - 미니맥스 구동은 **국내 AI 반도체 업계 최초** 사례

### 성능 수치

- gpt-oss-120b 기준 TPOT(출력 토큰당 생성 시간)
  - 효율 모드(4TB/s): **4.0ms**
  - 성능 모드(4.8TB/s): **3.2ms**
  - TPOT는 사용자가 실제로 체감하는 응답 속도를 결정하는 지표
- 리벨 100 스펙
  - UCIe 기반 칩렛 아키텍처로 페타플롭스(PetaFlops)급 연산 성능 확보 — AI 반도체 스타트업 중 **최초** UCIe 도입
  - **HBM3E 144GB** 메모리 탑재
  - 서버 단위를 넘어 랙스케일까지 확장 가능한 시스템 아키텍처

> [!IMPORTANT]
> H200 대비 전성비 3배. 국내 AI 반도체가 엔비디아 H200 직접 비교 벤치마크로 우위를 주장한 건 이례적이다.

### 전략적 의미

- 리벨리온은 처음부터 **학습이 아닌 추론**에 타깃을 맞춘 제품 설계 — AI 시장 중심이 학습에서 추론 서비스로 옮겨가는 흐름을 노림
- gpt-oss-120b: 오픈AI가 공개한 고성능 오픈소스 모델로 추론 능력·효율성으로 주목받는 중
- MiniMax: 출시 당시 글로벌 AI 모델 토큰 사용량 1위, 현재까지 상위 5위 유지하는 인기 모델
- 지원 확대 계획 — SK텔레콤, LG AI연구원, 업스테이지, 구글, 알리바바 등이 내놓은 다양한 오픈소스 모델을 순차 지원
- 하반기 중 서버·랙스케일 제품까지 양산해서 "범용 AI 추론 플랫폼" 포지셔닝을 노림

---

## 기술 맥락

리벨 100이 자랑하는 UCIe(Universal Chiplet Interconnect Express) 기반 칩렛 구조가 이번 발표의 핵심이에요. 단일 칩에서 성능을 끌어올리는 시대가 끝나면서, 여러 개의 작은 칩(다이)을 고속 인터커넥트로 붙여서 하나의 거대한 칩처럼 동작하게 만드는 게 요즘 AI 반도체의 정석이거든요. AMD, 인텔, 엔비디아가 다 이 방향으로 가고 있는데, 리벨리온이 국내 AI 반도체 스타트업 중 처음으로 UCIe 표준을 도입한 거예요.

왜 추론에 올인했느냐도 읽어볼 만해요. 학습은 엔비디아 H100·B200이 사실상 독점한 시장이고, 신생 업체가 뚫기 거의 불가능해요. 반면 추론은 학습과 요구 스펙이 달라서 — 메모리 대역폭과 저지연 응답이 더 중요해서 — 틈이 있어요. HBM3E 144GB를 넉넉히 때려박은 것도 이 때문이에요. 120B 모델을 단일 카드로 돌릴 수 있는 용량이거든요.

TPOT 3.2ms라는 수치가 의미 있는 이유는, 체감 속도를 좌우하는 지표이기 때문이에요. 챗봇이 답을 뱉을 때 한 토큰 출력에 걸리는 시간인데, 3ms대면 사람이 타이핑을 따라가기 전에 텍스트가 쏟아지는 수준이에요. H200과 비슷한 체감 속도를 더 적은 카드 수와 더 낮은 전력으로 낸다는 게 데이터센터 TCO(총소유비용) 관점에서 진짜 무기죠.

## 핵심 포인트

- gpt-oss-120b에서 효율 모드 TPOT 4.0ms, 성능 모드 3.2ms 기록
- 엔비디아 H200 대비 전성비(전력 대비 성능) 3배 달성 주장
- AI 반도체 스타트업 최초로 UCIe 기반 칩렛 아키텍처 도입
- HBM3E 144GB 탑재 — 120B급 모델을 단일 카드로 구동 가능
- MiniMax 모델 구동은 국내 AI 반도체 업계 최초 사례

## 인사이트

학습 시장은 엔비디아가 독점하지만 추론 시장은 구조적 여지가 있다. 리벨 100이 처음부터 추론에 올인하고 메모리 대역폭과 TPOT에 집중한 건 데이터센터 TCO 경쟁으로 틈을 만들려는 전략으로 읽힌다.
