본문으로 건너뛰기
피드

엔에이치엔클라우드, 양평 데이터센터서 지피유 7656장 서비스형 공급 시작

ai-ml 약 5분

엔에이치엔클라우드가 서울 양평 데이터센터에 엔비디아 비200 지피유 7656장을 구축하고 공공·산학연 대상 서비스형 지피유 공급을 시작했다. 전체 예산 1조4600억원 중 1조원 이상이 투입된 정부 사업 기반 인프라로, 6120장은 국가 주도 인공지능 프로젝트에 활용될 예정이다. 수랭식 냉각으로 공랭식 대비 에너지 사용을 15~20% 줄이는 점도 핵심이다.

  • 1

    엔에이치엔클라우드가 양평 데이터센터에 엔비디아 비200 지피유 7656장을 구축함

  • 2

    약 4000장 규모 지피유를 하나의 클러스터로 묶어 대규모 연산 환경을 구현함

  • 3

    수랭식 냉각으로 기존 공랭식 대비 에너지 사용을 약 15~20% 절감함

  • 4

    전체 지피유 중 6120장은 과기정통부 주관 국가 인공지능 프로젝트에 활용될 예정

  • 엔에이치엔클라우드가 서울 영등포구 양평동 인공지능 전용 데이터센터에서 대규모 지피유 공급을 시작했음

    • 구축 규모는 엔비디아 비200 지피유 총 7656장임
    • 공급 대상은 공공기관, 산업계, 학계, 연구소 중심이고 서비스형 지피유 모델로 제공됨
    • 지난해 과학기술정보통신부와 정보통신산업진흥원의 인공지능 컴퓨팅자원 활용기반 강화 사업을 통해 마련된 인프라임
  • 돈도 규모도 꽤 큼. 엔에이치엔클라우드는 전체 예산 1조4600억원 중 1조원 이상을 활용하는 사업을 수행했음

    • 약 4000장 규모의 지피유를 하나의 클러스터로 묶어 대규모 고성능 연산 환경을 구현함
    • 전체 7656장 중 6120장은 과기정통부 주관 사업 등 국가 주도 인공지능 프로젝트에 활용될 예정임
    • 일부 지피유 자원은 4월 1일부터 산학연에 우선 공급되고 있음

중요

> 비200 지피유 7656장은 단순 서버 증설이 아니라, 국내 인공지능 프로젝트가 실제로 빌려 쓸 수 있는 대형 계산 자원 풀에 가까움. 자체 인프라 구축이 어려운 연구기관과 스타트업에는 체감이 클 수 있음.

  • 냉각 방식은 수랭식임. 냉각수를 순환시켜 열을 낮추는 방식으로, 기존 공랭식 대비 에너지 사용을 약 15~20% 절감할 수 있다고 함

    • 고성능 지피유는 전력과 발열이 운영비의 핵심이라 냉각 효율이 곧 서비스 비용과 안정성으로 이어짐
    • 엔에이치엔클라우드는 냉각수 압력, 유량, 온도를 실시간 모니터링하고 이상 발생 시 해당 구간을 자동 차단하는 시스템도 넣었음
    • 결로 방지를 위한 단열 설계까지 적용해 안정적인 운영을 노린다고 함
  • 이번 공급은 국내 인공지능 생태계에서 꽤 현실적인 병목을 건드림

    • 대규모 모델 학습이나 추론 실험은 지피유 확보가 가장 큰 장벽인데, 장비를 직접 사려면 비용과 운영 난도가 너무 큼
    • 클라우드 기반으로 바로 고성능 연산 환경을 쓸 수 있으면 학계, 연구기관, 스타트업의 실험 속도가 빨라질 수 있음
    • 엔에이치엔클라우드는 앞으로 정부 부처별 인공지능 프로젝트에도 지피유 자원 공급을 확대할 계획임
  • 사업적으로도 엔에이치엔클라우드는 인공지능 클라우드 서비스 제공자 입지를 굳히려는 흐름임

    • 시장의 지피유 수요가 폭증하는 상황에서 인공지능 전용 클라우드 인프라를 전면에 내세우고 있음
    • 올해 1분기 매출은 전년 동기 대비 20.2% 성장했다고 밝힘
    • 결국 국내 클라우드 경쟁도 저장소·가상머신 싸움에서 지피유와 데이터센터 운영 역량 싸움으로 넘어가는 분위기임

기술 맥락

  • 여기서 중요한 선택은 지피유를 각 기관이 직접 사는 대신, 클라우드 자원으로 공급하는 방식이에요. 왜냐하면 비200 같은 최신 지피유는 가격도 비싸고, 전력·냉각·운영 인력까지 같이 필요해서 개별 연구팀이나 스타트업이 감당하기 어렵거든요.

  • 약 4000장 규모를 하나의 클러스터로 묶었다는 점도 눈여겨볼 만해요. 대규모 인공지능 학습은 지피유 한두 장을 빠르게 쓰는 문제가 아니라, 많은 지피유가 네트워크로 잘 연결돼 병렬 작업을 안정적으로 처리하는지가 중요해요.

  • 수랭식 냉각을 넣은 이유는 밀도 때문이에요. 지피유 수천 장이 들어가면 공랭식만으로는 전력 효율과 발열 제어가 빡세지고, 냉각 비용이 서비스 단가를 흔들 수 있어요.

  • 공공 프로젝트에 6120장이 배정된 것도 맥락이 있어요. 국가 주도 인공지능 프로젝트는 계산 자원 확보가 늦어지면 모델 개발과 실증 일정이 같이 밀리기 때문에, 이런 서비스형 지피유 인프라가 사실상 연구개발 속도를 결정하는 기반이 돼요.

국내 인공지능 경쟁에서 모델만큼 중요한 게 계산 자원인데, 이번 사례는 공공·연구·스타트업이 쓸 수 있는 대형 지피유 풀이 실제 서비스 단계로 들어갔다는 점에서 의미가 크다. 지피유 수급난이 계속되는 상황에서 서비스형 지피유는 국내 인공지능 실험 속도를 좌우할 수 있다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.