---
title: "NHN클라우드, 양평 AI 데이터센터 가동…B200 GPU 7656장 풀린다"
published: 2026-05-13T08:05:05.526Z
canonical: https://jeff.news/article/2643
---
# NHN클라우드, 양평 AI 데이터센터 가동…B200 GPU 7656장 풀린다

NHN클라우드가 서울 양평동 AI 전용 데이터센터를 본격 가동하고 엔비디아 B200 GPU 7656장 기반 GPUaaS 공급을 시작했다. 이 중 6120장은 국가 AI 프로젝트에 투입되고, 일부 자원은 대학·연구기관·스타트업 등 산학연에 우선 공급된다.

- NHN클라우드가 서울 영등포구 양평동에 AI 전용 데이터센터를 열고 GPUaaS 공급을 시작함
  - 엔비디아 B200 GPU 7656장이 들어감
  - 이 중 약 4000장은 하나의 클러스터로 묶어 대규모 연산을 돌릴 수 있게 구성함
  - “국내에서 GPU 어디서 구하냐” 하던 팀들 입장에선 그냥 홍보 뉴스로 넘기기 아까운 숫자임

- 이번 인프라는 과기정통부와 정보통신산업진흥원(NIPA)의 ‘AI 컴퓨팅자원 활용기반 강화 사업’으로 구축됨
  - 총사업비는 1조4600억원
  - 그중 1조원 이상을 NHN클라우드가 담당함
  - 구축된 GPU 자원은 국가 자산으로 분류되고, 정부 정책에 따라 배분됨

> [!IMPORTANT]
> B200 GPU 7656장 중 6120장이 국가 AI 프로젝트에 투입됨. 국내 AI 연구와 산업 PoC에서 GPU 접근성 병목을 줄이는 쪽으로 꽤 직접적인 효과가 날 수 있음.

- 자원 배분은 국가 프로젝트 중심이지만, 산학연에도 일부 열린 구조임
  - 7656장 중 6120장은 과기정통부 주관 사업 등 국가 AI 프로젝트에 투입됨
  - 나머지 일부 자원은 지난달 1일부터 대학, 연구기관, 스타트업 등에 우선 공급되고 있음
  - 자체적으로 고성능 GPU 인프라를 갖추기 어려운 조직이 우선 활용 대상임

- 냉각은 수랭식(Liquid Cooling)을 전면 적용함
  - 회사 측 설명으로는 기존 공랭식 대비 에너지 사용량을 15~20% 절감할 수 있음
  - 냉각수 압력, 유량, 온도를 실시간 감시하고 이상이 생기면 해당 구간을 자동 차단하는 안전장치도 넣음
  - B200급 GPU를 고밀도로 넣으면 발열과 전력 효율이 바로 운영비 문제가 되니, 냉각 방식은 꽤 중요한 포인트임

- NHN클라우드는 기존 데이터센터 운영 경험을 이번 양평 센터에 반영했다고 설명함
  - 판교 NCC1 데이터센터와 광주 국가 AI 데이터센터 운영 경험이 기반임
  - 구축에는 협력사 인력 포함 약 500명이 투입됨
  - 회사는 산업별 특성에 맞춘 GPU 환경을 고도화하겠다는 입장임

```mermaid
sequenceDiagram
    participant 정부 as 과기정통부·NIPA
    participant 엔에이치엔 as NHN클라우드
    participant 센터 as 양평 AI 데이터센터
    participant 사용자 as 산학연·국가 AI 프로젝트

    정부->>엔에이치엔: AI 컴퓨팅자원 사업 추진
    엔에이치엔->>센터: B200 GPU 7656장 구축
    센터->>센터: 4000장 단일 클러스터 구성
    정부->>센터: 국가 자산 기준으로 자원 배분
    센터->>사용자: GPUaaS 형태로 연산 자원 공급
```

---

## 기술 맥락

- 이번에 NHN클라우드가 한 선택은 B200 GPU를 대량으로 깔고, 그중 약 4000장을 단일 클러스터로 묶은 거예요. AI 모델 학습은 GPU 개수도 중요하지만, 여러 GPU가 얼마나 잘 연결돼 하나의 작업처럼 움직이느냐가 성능을 크게 좌우하거든요.

- 정부 사업으로 이 인프라를 만든 이유는 국내 연구기관과 스타트업이 직접 최신 GPU를 대량 확보하기 어렵기 때문이에요. 장비 구매 비용도 크고, 데이터센터 전력·냉각·운영 인력까지 같이 필요해서 작은 조직이 혼자 감당하기 힘들어요.

- 수랭식을 전면 적용한 것도 그냥 시설 자랑이 아니에요. B200 같은 고성능 GPU를 많이 넣으면 발열 밀도가 높아지고, 공랭식만으로는 전력 효율이 빠르게 나빠질 수 있거든요. 에너지 사용량을 15~20% 줄일 수 있다는 설명은 운영비와 안정성 양쪽에서 의미가 있어요.

- 이 인프라가 산학연에 일부라도 풀리는 건 국내 AI 개발자에게 꽤 현실적인 변화예요. 모델을 직접 학습하거나 대규모 실험을 돌리고 싶은 팀에게는 클라우드 계정만 있다고 해결되는 게 아니라, 실제로 예약 가능한 고성능 GPU 풀이 있어야 하거든요.

## 핵심 포인트

- 양평 AI 데이터센터에 엔비디아 B200 GPU 7656장이 도입됨
- 약 4000장 규모 단일 클러스터를 구성해 대규모 AI 연산 환경을 제공함
- 수랭식 냉각을 전면 적용해 기존 공랭식 대비 에너지 사용량을 15~20% 절감할 수 있다고 설명함

## 인사이트

국내 AI 생태계에서 병목은 모델 아이디어보다 GPU 접근성인 경우가 많음. B200 7656장, 그중 4000장 단일 클러스터라는 숫자는 연구·스타트업 쪽에는 꽤 실질적인 인프라 이벤트로 볼 만함.
