본문으로 건너뛰기
피드

NHN클라우드, 양평 AI 데이터센터 가동…B200 GPU 7656장 풀린다

ai-ml 약 5분

NHN클라우드가 서울 양평동 AI 전용 데이터센터를 본격 가동하고 엔비디아 B200 GPU 7656장 기반 GPUaaS 공급을 시작했다. 이 중 6120장은 국가 AI 프로젝트에 투입되고, 일부 자원은 대학·연구기관·스타트업 등 산학연에 우선 공급된다.

  • 1

    양평 AI 데이터센터에 엔비디아 B200 GPU 7656장이 도입됨

  • 2

    약 4000장 규모 단일 클러스터를 구성해 대규모 AI 연산 환경을 제공함

  • 3

    수랭식 냉각을 전면 적용해 기존 공랭식 대비 에너지 사용량을 15~20% 절감할 수 있다고 설명함

  • NHN클라우드가 서울 영등포구 양평동에 AI 전용 데이터센터를 열고 GPUaaS 공급을 시작함

    • 엔비디아 B200 GPU 7656장이 들어감
    • 이 중 약 4000장은 하나의 클러스터로 묶어 대규모 연산을 돌릴 수 있게 구성함
    • “국내에서 GPU 어디서 구하냐” 하던 팀들 입장에선 그냥 홍보 뉴스로 넘기기 아까운 숫자임
  • 이번 인프라는 과기정통부와 정보통신산업진흥원(NIPA)의 ‘AI 컴퓨팅자원 활용기반 강화 사업’으로 구축됨

    • 총사업비는 1조4600억원
    • 그중 1조원 이상을 NHN클라우드가 담당함
    • 구축된 GPU 자원은 국가 자산으로 분류되고, 정부 정책에 따라 배분됨

중요

> B200 GPU 7656장 중 6120장이 국가 AI 프로젝트에 투입됨. 국내 AI 연구와 산업 PoC에서 GPU 접근성 병목을 줄이는 쪽으로 꽤 직접적인 효과가 날 수 있음.

  • 자원 배분은 국가 프로젝트 중심이지만, 산학연에도 일부 열린 구조임

    • 7656장 중 6120장은 과기정통부 주관 사업 등 국가 AI 프로젝트에 투입됨
    • 나머지 일부 자원은 지난달 1일부터 대학, 연구기관, 스타트업 등에 우선 공급되고 있음
    • 자체적으로 고성능 GPU 인프라를 갖추기 어려운 조직이 우선 활용 대상임
  • 냉각은 수랭식(Liquid Cooling)을 전면 적용함

    • 회사 측 설명으로는 기존 공랭식 대비 에너지 사용량을 15~20% 절감할 수 있음
    • 냉각수 압력, 유량, 온도를 실시간 감시하고 이상이 생기면 해당 구간을 자동 차단하는 안전장치도 넣음
    • B200급 GPU를 고밀도로 넣으면 발열과 전력 효율이 바로 운영비 문제가 되니, 냉각 방식은 꽤 중요한 포인트임
  • NHN클라우드는 기존 데이터센터 운영 경험을 이번 양평 센터에 반영했다고 설명함

    • 판교 NCC1 데이터센터와 광주 국가 AI 데이터센터 운영 경험이 기반임
    • 구축에는 협력사 인력 포함 약 500명이 투입됨
    • 회사는 산업별 특성에 맞춘 GPU 환경을 고도화하겠다는 입장임
sequenceDiagram
    participant 정부 as 과기정통부·NIPA
    participant 엔에이치엔 as NHN클라우드
    participant 센터 as 양평 AI 데이터센터
    participant 사용자 as 산학연·국가 AI 프로젝트

    정부->>엔에이치엔: AI 컴퓨팅자원 사업 추진
    엔에이치엔->>센터: B200 GPU 7656장 구축
    센터->>센터: 4000장 단일 클러스터 구성
    정부->>센터: 국가 자산 기준으로 자원 배분
    센터->>사용자: GPUaaS 형태로 연산 자원 공급

기술 맥락

  • 이번에 NHN클라우드가 한 선택은 B200 GPU를 대량으로 깔고, 그중 약 4000장을 단일 클러스터로 묶은 거예요. AI 모델 학습은 GPU 개수도 중요하지만, 여러 GPU가 얼마나 잘 연결돼 하나의 작업처럼 움직이느냐가 성능을 크게 좌우하거든요.

  • 정부 사업으로 이 인프라를 만든 이유는 국내 연구기관과 스타트업이 직접 최신 GPU를 대량 확보하기 어렵기 때문이에요. 장비 구매 비용도 크고, 데이터센터 전력·냉각·운영 인력까지 같이 필요해서 작은 조직이 혼자 감당하기 힘들어요.

  • 수랭식을 전면 적용한 것도 그냥 시설 자랑이 아니에요. B200 같은 고성능 GPU를 많이 넣으면 발열 밀도가 높아지고, 공랭식만으로는 전력 효율이 빠르게 나빠질 수 있거든요. 에너지 사용량을 15~20% 줄일 수 있다는 설명은 운영비와 안정성 양쪽에서 의미가 있어요.

  • 이 인프라가 산학연에 일부라도 풀리는 건 국내 AI 개발자에게 꽤 현실적인 변화예요. 모델을 직접 학습하거나 대규모 실험을 돌리고 싶은 팀에게는 클라우드 계정만 있다고 해결되는 게 아니라, 실제로 예약 가능한 고성능 GPU 풀이 있어야 하거든요.

국내 AI 생태계에서 병목은 모델 아이디어보다 GPU 접근성인 경우가 많음. B200 7656장, 그중 4000장 단일 클러스터라는 숫자는 연구·스타트업 쪽에는 꽤 실질적인 인프라 이벤트로 볼 만함.

댓글

댓글

댓글을 불러오는 중...

ai-ml

일터에 들어온 AI, 장애인의 업무 장벽을 낮추고 있다

생성형 AI가 시각장애인, 청각장애인, 발달장애인의 업무 보조 도구로 쓰이기 시작했다. 문서·이미지 설명, 회의 실시간 텍스트화, 사회적 의사소통 훈련 같은 영역에서 장벽을 낮추지만, 장애인의 AI 사용률은 5.6%로 비장애인 15.4%의 3분의 1 수준에 머문다.

ai-ml

전남대병원, 1116병상에 AI 스마트 모니터링 시스템 깔았다

전남대병원이 본원 451병상과 화순전남대병원 665병상, 총 1116병상에 AI 스마트 모니터링 시스템을 도입했다. 웨어러블 센서로 입원환자의 심전도, 산소포화도, 호흡, 체온을 실시간 수집하고 AI가 이상 신호를 감지해 의료진에게 알리는 구조다.

ai-ml

피지컬 AI가 현실에서 사고를 내면, 책임은 누가 질까

피지컬 AI가 자율주행차, 공장, 물류, 의료 현장으로 빠르게 들어오면서 사고 책임 문제가 핵심 이슈로 떠오르고 있다. 기존 기계처럼 고장 원인을 단순히 제조사나 사용자에게 나누기 어려워졌고, AI 판단 과정을 추적할 시스템과 사회적 책임 합의가 필요하다는 내용이다.

ai-ml

메타 AI, 1년 만에 한국 출시…인스턴트와 깊이 생각하기 모드 제공

메타 AI가 미국 출시 약 1년 만에 한국에서도 앱과 웹으로 제공되기 시작했다. 뮤즈 스파크 기반으로 빠른 답변용 인스턴트 모드와 더 깊은 추론을 위한 깊이 생각하기 모드, 사진·문서 분석 같은 멀티모달 기능을 제공한다.

ai-ml

마이크로소프트, 오픈AI 의존 줄이려고 인셉션 인수 검토

마이크로소프트가 스탠퍼드 연구팀 출신 AI 스타트업 인셉션 인수를 논의 중이라는 보도다. 오픈AI와의 독점적 관계가 느슨해지는 가운데, MS는 디퓨전 기반 텍스트 생성 기술과 자체 초대형 모델로 독자 AI 생태계를 강화하려는 분위기다.