본문으로 건너뛰기
피드

리벨리온 '리벨100' 성능 공개 — H200급 연산, 전력은 3분의 1

ai-ml 약 4분

한국 AI 반도체 스타트업 리벨리온이 차세대 NPU 리벨100의 성능을 공개했다. FP16 1페타플롭스로 엔비디아 H200과 사실상 동급이면서 전력은 1/3 수준. 삼성 144GB HBM3E와 UCIe 칩렛 구조를 채택했고 하반기 양산에 들어간다.

  • 1

    리벨100은 FP16 1페타플롭스, H200(0.99 페타플롭스)과 동급 성능

  • 2

    GPT-oss-120b 추론 시 전력소비량이 H200 대비 1/3

  • 3

    삼성 144GB HBM3E 탑재, 스타트업 최초 UCIe 기반 칩렛 아키텍처

  • 4

    삼성 파운드리 4나노 공정 생산, 2026년 하반기 양산 시작

  • 5

    미니맥스 등 오픈소스 모델 최적화로 추론 인프라 시장 본격 공략

  • 리벨리온이 차세대 NPU '리벨100'의 성능을 공개함 — 엔비디아 H200급 연산, 전력은 3분의 1
    • FP16 기준 1페타플롭스(1초 1000조 번 연산), H200의 0.99 페타플롭스와 사실상 동급
    • 오픈AI의 GPT-oss-120b 구동 시 전력소비량이 H200 대비 1/3 수준. 전성비가 핵심 차별화 포인트
  • 하드웨어 구성도 엔비디아 최신 스펙을 거의 따라감
    • 삼성전자 144GB HBM3E 탑재 (리벨리온 최초 HBM). H200은 141GB HBM3E
    • 반도체 스타트업 최초로 UCIe 기반 칩렛 아키텍처 채택
    • 삼성전자 파운드리 4나노 공정에서 생산

중요

> H200급 연산을 전력 1/3로 돌린다는 게 사실이라면, 데이터센터 TCO 계산이 뒤집힌다. 하반기 양산 시점이 관전 포인트.

  • 타겟은 기업 서버가 아니라 데이터센터 본진
    • 1세대 '아톰'은 기업용 서버용. 리벨100은 처음부터 하이퍼스케일러 겨냥
    • 판매 단위는 NPU 8장이 통합된 서버 단위. 랙 단위에서도 엔비디아와 경쟁 가능하도록 준비 중
  • 소프트웨어 생태계 대응도 빠름
    • 글로벌 사용자 Top5 코딩용 오픈소스 AI 모델 '미니맥스' 최적화 완료
    • 엔비디아 외에 미니맥스 최적화에 성공한 반도체가 거의 없는 상황
    • SK텔레콤, LG AI연구원, 업스테이지, 구글, 알리바바 오픈소스 모델까지 지원 확대 계획
  • 양산은 2026년 하반기 시작

기술 맥락

리벨100이 강조하는 건 단순 '엔비디아 대체'가 아니라 추론(inference) 전력효율이에요. 학습(training)은 여전히 엔비디아의 CUDA 생태계가 사실상 독점이지만, 추론은 전력단가와 TCO가 직접적으로 매출에 꽂히는 영역이라 NPU 스타트업들이 여길 공략하는 거거든요. 오픈소스 모델(GPT-oss, 미니맥스) 벤치마크를 앞세우는 것도 추론 시장을 타겟팅한다는 신호예요.

UCIe 기반 칩렛 아키텍처를 택한 것도 의미가 큰데, 칩 하나에 모든 걸 집적하는 대신 여러 다이를 인터커넥트로 묶는 구조라 수율과 확장성에서 유리해요. 엔비디아도 B200부터 칩렛으로 가고 있고요. 스타트업이 이걸 양산 제품에 넣는 건 흔치 않은 선택이에요.

HBM3E를 삼성에서 가져온 점도 관전 포인트예요. SK하이닉스가 엔비디아향 HBM을 거의 독점하고 있는 상황에서, 삼성 HBM을 공급망으로 묶어낸 한국 팹리스 스타트업이라는 포지션이 생긴 셈이거든요. 파운드리도 삼성 4나노라 한국 반도체 생태계 내 수직계열화 구도가 만들어졌어요.

관건은 추론 인프라 시장에서 얼마나 빠르게 레퍼런스를 깔 수 있느냐예요. 성능 숫자가 아무리 좋아도 CUDA 대안 SW 스택이 안정적으로 돌아가고, 주요 오픈소스 모델이 하루라도 빨리 포팅돼야 데이터센터 사업자들이 움직이거든요. 미니맥스 최적화 속도를 강조한 건 이 부분을 의식한 메시지로 보여요.

추론 시장의 핵심 지표는 '와트당 토큰'이다. H200급 성능을 전력 1/3으로 돌린다면 TCO 계산이 뒤집힐 수 있고, 하반기 양산과 데이터센터 레퍼런스 확보 속도가 향후 12개월 관전 포인트다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

이커머스 출신이 만든 AI 마케팅 에이전트 '라이트하우스'…도메인 지식을 어떻게 LLM에 붙였나

마켓컬리·오늘의집 출신 강성주 대표의 라이트에이아이가 퍼포먼스 마케팅 데이터 해석과 크리에이티브 제안까지 원스톱으로 자동화하는 B2B AI 에이전트 '라이트하우스'를 공개했다. 이커머스 현장 지식을 범용 AI와 결합해 중소·중견 소비재 업체를 타겟으로 한다.

ai-ml

의료 AI가 쓴 퇴원 요약에 서명한 의사 — '정보 세탁' 구조와 거버넌스 설문조사

AI가 잘못된 의료 정보를 생성하고 의사가 서명해 공식 기록으로 세탁되는 구조를 서울아산병원 유소영 교수가 설문 108명 분석과 함께 해부했다. 직군별로 원인 진단·책임 귀속·대응 방향이 완전히 달랐고, 5개 집단이 각자 다른 해법을 우선순위로 꼽았다. 조율 없는 병렬 거버넌스가 제도적 공백을 만든다는 경고.

ai-ml

몬드리안에이아이, 네이버클라우드 마켓플레이스에 B300 GPU 서비스 입점

AI 인프라 기업 몬드리안에이아이가 자사 GPU as a Service '런유어에이아이'를 네이버 클라우드 플랫폼 마켓플레이스에 정식 등록했다. NVIDIA 블랙웰 B300 라인업을 Tier 3+ 데이터센터에서 99.8% 가동률로 제공하고, 자체 MLOps 플랫폼 '예니퍼'와 연계해 모델 개발~배포까지 원스톱 지원한다.

ai-ml

GIST, 감정 '변곡점'만 찍어도 전체 흐름 복원하는 AI — CHI 2026 상위 5%

GIST 김경중 교수팀이 사용자가 감정이 크게 요동치는 지점만 응답해도 전체 감정 곡선을 복원하는 PREFAB 모델로 CHI 2026 아너러블 멘션을 수상했다. 선호도 기반 학습을 적용해 25명 실험에서 상관계수 0.69 수준으로 복원에 성공.

ai-ml

리벨리온 '리벨100', gpt-oss·미니맥스에서 H200 대비 전성비 3배 기록

리벨리온이 2세대 AI 반도체 리벨 100으로 gpt-oss-120b와 MiniMax 등 최신 오픈소스 추론 모델을 구동해 엔비디아 H200 대비 3배 높은 전성비를 기록했다고 공개했다. UCIe 기반 칩렛 구조에 HBM3E 144GB를 탑재했으며, TPOT 3.2ms로 체감 응답 속도에서도 경쟁력을 입증했다.