본문으로 건너뛰기
피드

NHN클라우드, 양평 GPU 리전과 국방 AX로 국내 AI 클라우드 드라이브 건다

ai-ml 약 6분

NHN클라우드가 양평 리전의 엔비디아 B200 GPU 인프라를 본격 가동하고, 광주 국가 AI데이터센터에는 B300 인프라를 구축한다. 공공·국방·금융 시장을 겨냥해 이노그리드 합병, GPUaaS 확대, 국방 협업툴 확산까지 묶어 국내 AI 클라우드 사업을 키우려는 흐름이다.

  • 1

    NHN클라우드 1분기 매출은 전년 대비 20.2% 증가했지만 공공 사업 역기저로 전분기 대비는 감소

  • 2

    양평 리전에서 수냉식 엔비디아 B200 GPU를 가동했고, 광주 국가 AI데이터센터에는 B300 인프라를 구축할 예정

  • 3

    베슬AI와 GPU 공급 계약으로 200억원 이상 매출을 기대하며 GPUaaS 사업 확대에 나섬

  • 4

    이노그리드 합병으로 구축부터 운영까지 묶는 풀스택 클라우드 체계를 강화하려 함

  • 5

    국방부 협업툴 국방이음은 하반기 전군 약 30만명 규모로 확대될 예정

  • NHN클라우드가 올해 AI 클라우드 사업의 승부처로 양평 리전 GPU 인프라를 전면에 세움

    • 2026년 1분기 NHN 기술 부문 매출은 1257억원으로 전년 동기 대비 19.0% 증가
    • NHN클라우드 매출도 전년 동기 대비 20.2% 늘었지만, 전분기 대비로는 지난해 4분기 공공 사업 매출 집중에 따른 역기저 때문에 감소
  • 핵심은 서울 양평 리전에 깔린 수냉식 엔비디아 B200 GPU임

    • NHN클라우드는 3월 말 양평 리전의 B200 GPU 인프라를 본격 가동했고, 지난달부터 관련 매출 인식도 시작
    • 광주 국가 AI데이터센터에는 초고사양 GPU B300 인프라를 구축하며 2026년 국가 AI데이터센터 고도화 사업 공급사로도 선정됨

중요

> NHN클라우드는 양평 리전 매출 증가분이 올해 실적 개선의 큰 축이 될 거라고 보고 있음. CSP 매출 기준으로는 30% 이상 성장을 예상하고, GPU 수요 폭증 때문에 상향 가능성도 열어둔 상태임.

  • 민간 AI 인프라 수요도 같이 잡으려는 그림임

    • AI 인프라 전문기업 베슬AI와 GPU 공급 계약을 체결했고, 여기서 200억원 이상 매출을 기대 중
    • 단순 데이터센터 임대가 아니라 서비스형 GPU(GPUaaS) 사업을 키워 AI 인프라 시장 내 입지를 넓히겠다는 전략
  • 다만 GPU 사업은 돈이 먼저 나가는 구조라 1분기 비용 부담도 같이 커짐

    • NHN의 1분기 감가상각비는 전분기 대비 21.9% 증가한 327억원
    • 이 중 NHN클라우드의 정부 AI 사업 관련 사용권자산 상각비와 유형자산 상각비가 약 73억원 반영됨
    • 즉, 지금은 GPU를 깔고 수요를 받기 위해 선투자 비용을 먼저 맞는 구간임
  • 이노그리드 합병은 공공·금융용 풀스택 클라우드로 가려는 포석에 가까움

    • NHN클라우드는 이노그리드와 자회사 NHN인재아이엔씨의 합병을 결정
    • 이노그리드의 클라우드 플랫폼 기술과 NHN클라우드의 운영 역량을 묶어 구축부터 운영까지 한 번에 제공하는 체계를 강화하려는 것
    • 보안 요구가 높은 공공·금융 시장에서는 인프라만 던져주는 것보다 운영·통제·지원까지 묶인 패키지가 훨씬 중요함
  • 국방 AI 전환(AX)도 NHN클라우드가 노리는 큰 시장임

    • NHN두레이 협업 플랫폼은 국방부에 '국방이음'이라는 이름으로 이미 도입됨
    • 올해 하반기에는 육·해·공군을 포함한 전군 약 30만명 규모로 확대 적용될 예정
    • 방위사업청이 추진하고 한화시스템이 주관하는 연합지휘통제체계 성능개량 체계개발 사업에도 NHN클라우드가 참여 중
  • 국내 개발자 입장에서 이 뉴스가 재밌는 지점은 공공 클라우드의 무게중심이 바뀌고 있다는 점임

    • 예전엔 공공 클라우드가 인증, 보안, 비용 절감 중심이었다면 이제는 GPU 수급과 AI 워크로드 운영 능력이 핵심 경쟁력이 됨
    • 특히 국방·공공 영역은 외산 클라우드 도입이 쉽지 않은 만큼, 국내 CSP가 AI 인프라를 얼마나 안정적으로 제공할 수 있느냐가 실제 프로젝트 선택지에 영향을 줄 수 있음

기술 맥락

  • NHN클라우드가 B200, B300 같은 고성능 GPU를 직접 리전에 깔려는 이유는 AI 워크로드가 일반 서버 증설로는 감당이 안 되는 쪽으로 가고 있기 때문이에요. 모델 학습과 추론 수요가 커질수록 GPU 확보 자체가 서비스 경쟁력이 되거든요.

  • 수냉식 기반 양평 리전이 중요하게 언급되는 것도 같은 맥락이에요. 고밀도 GPU 서버는 전력과 발열이 병목이라, 그냥 랙 몇 대 더 넣는 문제가 아니에요. 데이터센터 설계와 냉각 방식까지 AI 인프라 상품의 일부가 돼요.

  • 이노그리드 합병은 플랫폼과 운영을 묶겠다는 선택이에요. 공공·금융 고객은 클라우드를 도입할 때 구축, 보안, 권한, 운영 책임을 같이 보는데, NHN클라우드는 이 영역을 풀스택으로 가져가야 수주 경쟁력이 생긴다고 보는 거예요.

  • 국방 AX에서 협업툴과 지휘통제체계가 같이 언급되는 것도 단순 SaaS 판매보다 넓은 이야기예요. 업무망, 보안 정책, 프라이빗 클라우드, GPU 인프라가 같이 맞물려야 해서 개발·운영 조직 입장에선 레퍼런스와 안정성이 꽤 큰 판단 기준이 돼요.

국내 클라우드 사업자가 이제 단순 인프라 임대가 아니라 GPU 수급, 공공 인증, 국방 레퍼런스, 운영 플랫폼까지 한 덩어리로 팔아야 하는 국면에 들어간 느낌임. 개발자 입장에선 국내 AI 인프라 선택지가 얼마나 빨리 실제 서비스 가능한 형태로 성숙하느냐가 관전 포인트다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.