본문으로 건너뛰기
피드

몬드리안에이아이, 네이버클라우드 마켓플레이스에 B300 GPU 서비스 입점

ai-ml 약 4분

AI 인프라 기업 몬드리안에이아이가 자사 GPU as a Service '런유어에이아이'를 네이버 클라우드 플랫폼 마켓플레이스에 정식 등록했다. NVIDIA 블랙웰 B300 라인업을 Tier 3+ 데이터센터에서 99.8% 가동률로 제공하고, 자체 MLOps 플랫폼 '예니퍼'와 연계해 모델 개발~배포까지 원스톱 지원한다.

  • 1

    NVIDIA 블랙웰 아키텍처 B300 라인업을 네이버클라우드 고객에게 공급

  • 2

    Tier 3+ 데이터센터, 전력 이중화와 GPU 맞춤 냉각으로 99.8% 가동률 보장

  • 3

    제로 트러스트 보안, 엔터프라이즈급 분산 스토리지, LLM 파인튜닝 지원

  • 4

    '레디-투-서브' 체계로 계약 즉시 맞춤 하드웨어 할당

  • 5

    자체 MLOps 플랫폼 '예니퍼'와 연계해 모델 개발~배포 원스톱

  • 몬드리안에이아이가 AI 인프라 서비스 '런유어에이아이(Runyour AI)'를 네이버 클라우드 플랫폼 마켓플레이스에 정식 등록함
    • 단순 등록을 넘어 NVIDIA 블랙웰(Blackwell) 아키텍처 기반 B300 라인업을 네이버클라우드 고객에게 공급하는 게 핵심
    • 고성능 GPU 자원 부족 문제를 겪는 기업이 차세대 AI 개발 환경을 빠르게 확보할 수 있게 됨
  • 런유어에이아이가 제공하는 건 GPU 렌탈이 아니라 통합 인프라
    • 모델 개발부터 배포까지 전 과정 지원
    • 제로 트러스트 기반 보안 관제
    • 엔터프라이즈급 분산 스토리지
    • 이기종 클라우드 연동 기반 LLM 파인튜닝 지원
  • 가격·가동률 경쟁력 강조 포인트
    • 자체 데이터센터 직접 운영 → 글로벌 CSP 대비 비용 절감
    • 장기 대여(Reserved) 플랜 제공
    • Tier 3+ 등급 데이터센터, 전력 이중화 + GPU 맞춤형 냉각으로 99.8% 가동률 보장
  • 할당 속도도 차별화 포인트
    • '레디-투-서브(Ready-to-Serve)' 체계 — 계약 즉시 맞춤 하드웨어 할당
    • 자사 MLOps 플랫폼 '예니퍼(Yennefer)'와 연계해 데이터 주권 보호~모델 성능 최적화까지 원스톱
  • 홍대의 대표 — "B300 기반 GPU 기술력을 대중화하는 전환점, GPU as a Service로 한국 AI 경쟁력 강화하겠다"

기술 맥락

NVIDIA B300은 블랙웰 아키텍처의 상위 라인업으로, H200/H100 대비 추론 성능과 메모리 용량이 크게 늘어난 최신 데이터센터 GPU예요. 문제는 수요가 공급을 한참 앞질러서 한국 기업들이 필요한 만큼 확보하기가 쉽지 않다는 거예요. 그래서 자체 데이터센터를 운영하며 B300을 물량으로 확보한 뒤 시간당 단위로 재판매하는 'GPU as a Service' 모델이 뜨고 있어요.

하이퍼스케일러(AWS, GCP, Azure) GPU 대비 가격 경쟁력이 이 비즈니스의 핵심이에요. 글로벌 CSP는 프리미엄이 붙기 때문에 한국 로컬 GPU 클라우드 사업자들은 환율·네트워크 지연·데이터 주권까지 고려한 가격으로 승부해요. Tier 3+는 데이터센터 인프라 등급 중 높은 쪽(가동률 99.8% 이상 보장)이라 엔터프라이즈 SLA 요건을 맞출 수 있는 수준이에요.

MLOps 플랫폼 연계도 차별화 포인트예요. GPU만 빌려주는 업체는 많지만, 학습 파이프라인·실험 관리·모델 서빙까지 엮어주는 건 또 다른 영역이거든요. 예니퍼 같은 자체 MLOps 레이어가 있으면 기업이 쿠버네티스부터 직접 깔지 않아도 되니까 개발 속도가 빨라져요.

네이버 클라우드 마켓플레이스 입점의 의미는 유통 채널 확대예요. 네이버클라우드 고객사는 결제·인증을 한 번에 처리할 수 있고, 몬드리안에이아이는 영업 비용 없이 잠재 고객에 노출되는 구조거든요. 한국형 AI 인프라 생태계가 하이퍼스케일러 틈새에서 네이버클라우드를 축으로 수평 연계되는 흐름으로 읽을 수 있어요.

B300 물량 확보가 어려운 한국 AI 팀에게 로컬 GPUaaS는 실질적 선택지다. 하이퍼스케일러 프리미엄을 피하면서 네이버클라우드 마켓플레이스를 유통 채널로 쓰는 구조가 한국형 AI 인프라 생태계의 축으로 굳어지는 흐름.

댓글

댓글

댓글을 불러오는 중...

ai-ml

리벨리온 '리벨100' 성능 공개 — H200급 연산, 전력은 3분의 1

한국 AI 반도체 스타트업 리벨리온이 차세대 NPU 리벨100의 성능을 공개했다. FP16 1페타플롭스로 엔비디아 H200과 사실상 동급이면서 전력은 1/3 수준. 삼성 144GB HBM3E와 UCIe 칩렛 구조를 채택했고 하반기 양산에 들어간다.

ai-ml

이커머스 출신이 만든 AI 마케팅 에이전트 '라이트하우스'…도메인 지식을 어떻게 LLM에 붙였나

마켓컬리·오늘의집 출신 강성주 대표의 라이트에이아이가 퍼포먼스 마케팅 데이터 해석과 크리에이티브 제안까지 원스톱으로 자동화하는 B2B AI 에이전트 '라이트하우스'를 공개했다. 이커머스 현장 지식을 범용 AI와 결합해 중소·중견 소비재 업체를 타겟으로 한다.

ai-ml

의료 AI가 쓴 퇴원 요약에 서명한 의사 — '정보 세탁' 구조와 거버넌스 설문조사

AI가 잘못된 의료 정보를 생성하고 의사가 서명해 공식 기록으로 세탁되는 구조를 서울아산병원 유소영 교수가 설문 108명 분석과 함께 해부했다. 직군별로 원인 진단·책임 귀속·대응 방향이 완전히 달랐고, 5개 집단이 각자 다른 해법을 우선순위로 꼽았다. 조율 없는 병렬 거버넌스가 제도적 공백을 만든다는 경고.

ai-ml

GIST, 감정 '변곡점'만 찍어도 전체 흐름 복원하는 AI — CHI 2026 상위 5%

GIST 김경중 교수팀이 사용자가 감정이 크게 요동치는 지점만 응답해도 전체 감정 곡선을 복원하는 PREFAB 모델로 CHI 2026 아너러블 멘션을 수상했다. 선호도 기반 학습을 적용해 25명 실험에서 상관계수 0.69 수준으로 복원에 성공.

ai-ml

리벨리온 '리벨100', gpt-oss·미니맥스에서 H200 대비 전성비 3배 기록

리벨리온이 2세대 AI 반도체 리벨 100으로 gpt-oss-120b와 MiniMax 등 최신 오픈소스 추론 모델을 구동해 엔비디아 H200 대비 3배 높은 전성비를 기록했다고 공개했다. UCIe 기반 칩렛 구조에 HBM3E 144GB를 탑재했으며, TPOT 3.2ms로 체감 응답 속도에서도 경쟁력을 입증했다.