본문으로 건너뛰기
피드

NHN클라우드, 양평 AI 데이터센터에 GPU 7,656장 깔고 공공 GPUaaS 시작

ai-ml 약 5분

NHN클라우드가 서울 양평 AI 전용 데이터센터에 고성능 GPU 7,656장을 구축하고 공공·산학연 대상 GPUaaS 공급을 시작했다. 같은 기사에는 SK텔레콤의 고려대 태양광 에너지 모델, 가비아의 AI 포함 그룹웨어 프리미엄 출시 소식도 함께 담겼다.

  • 1

    NHN클라우드는 양평 AI 데이터센터에 GPU 7,656장을 구축

  • 2

    해당 인프라는 과기정통부·NIPA의 AI 컴퓨팅자원 활용기반 강화 사업으로 마련

  • 3

    전체 예산 1조4,600억원 중 NHN클라우드가 1조원 이상 규모 사업을 수행

  • 4

    가비아는 문서 생성, 드라이브 저장, 공동편집, AI 재활용을 묶은 그룹웨어 프리미엄을 출시

  • NHN클라우드가 서울 영등포구 양평동 AI 전용 데이터센터에 대규모 GPU 인프라 구축을 끝내고, 공공·산학연 대상으로 서비스형 GPU(GPUaaS) 공급을 시작했음.

    • 구축된 GPU는 총 7,656장.
    • 이 인프라는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 ‘AI 컴퓨팅자원 활용기반 강화 사업’을 통해 마련됨.
    • 국가 중장기 AI 인프라 확충 전략의 일부라서, 구축된 자원은 국가 자산으로 관리되고 정부 정책에 따라 배분·활용되는 구조임.
  • 규모만 보면 NHN클라우드가 이번 국가 AI 인프라 사업에서 꽤 큰 몫을 가져간 셈임.

    • 전체 예산은 1조4,600억원.
    • NHN클라우드는 이 중 1조원 이상을 활용하는 사업을 수행하는 사업자로 선정됨.
    • 단순히 “GPU 몇 장 샀다”가 아니라, 국내 공공 AI 컴퓨팅 자원 공급망의 큰 축을 맡았다는 의미가 있음.

중요

> GPU 7,656장은 국내 AI 연구·개발 생태계에서 그냥 넘길 숫자가 아님. 공공·산학연이 쓸 수 있는 연산 자원이 실제 서비스 형태로 풀리기 시작했다는 게 포인트임.

  • SK텔레콤은 고려대 서울캠퍼스에 태양광 에너지 인프라를 구축한다고 밝힘.

    • 캠퍼스 안에서 생산한 태양광 전기를 학교 운영에 직접 활용하는 모델을 구현하는 내용.
    • 12일 고려대 서울캠퍼스에서 기공식도 진행됨.
    • AI나 클라우드 기사라기보다는, 통신사가 대학 캠퍼스 에너지 인프라 사업까지 확장하는 사례로 보면 됨.
  • 가비아는 업무 플랫폼 하이웍스의 신규 상품 ‘그룹웨어 프리미엄’을 출시했음.

    • 문서 관리, 협업, AI 활용 기능을 하나로 묶은 통합형 상품.
    • AI 채팅으로 만든 문서를 드라이브에 바로 저장하고, 팀원들이 실시간 공동편집할 수 있게 설계됨.
    • 이렇게 쌓인 업무 데이터가 다시 AI에 활용돼 회사 맥락에 맞는 업무 환경을 만든다는 흐름을 내세움.
  • 가비아가 강조한 건 기능보다 “업무 데이터가 계속 순환되는 구조”임.

    • AI가 문서를 만들고, 문서는 드라이브에 쌓이고, 팀은 그 문서를 편집하고, 축적된 데이터는 다시 AI 활용 기반이 됨.
    • 드라이브 확장, 웹오피스 공동편집, AI 한도 확대를 단일 패키지로 제공해 개별 옵션 추가보다 비용 효율이 좋다는 설명도 붙었음.
  • 개발자 관점에서 제일 눈에 띄는 건 역시 NHN클라우드의 GPUaaS임.

    • 국내에서 AI 실험을 하려면 결국 GPU 접근성이 병목이 되는데, 공공·산학연 대상 자원 공급이 늘면 연구와 프로토타입 개발 속도에 영향을 줄 수 있음.
    • 다만 실제 체감은 배분 정책, 사용 신청 절차, 리전 안정성, 프레임워크 지원, 가격 또는 과금 구조가 어떻게 나오느냐에 달려 있음.

기술 맥락

  • NHN클라우드가 한 선택은 GPU를 단순 판매 상품으로 두는 게 아니라 국가 AI 인프라의 운영 단위로 제공하는 거예요. 공공·산학연은 자체적으로 수천 장 규모 GPU를 확보하기 어렵기 때문에, 중앙에서 구축하고 정책적으로 배분하는 방식이 나온 거죠.

  • 여기서 GPUaaS가 중요한 이유는 AI 개발의 병목이 코드보다 연산 자원일 때가 많기 때문이에요. 모델을 학습하거나 큰 추론 작업을 돌리려면 GPU, 스토리지, 네트워크, 냉각이 같이 맞아야 하거든요.

  • 가비아의 그룹웨어 프리미엄은 다른 층위의 이야기예요. 업무 문서가 AI 채팅, 드라이브, 공동편집을 거쳐 다시 AI 활용 데이터가 되는 구조라서, 기업 내부 지식이 흩어지는 문제를 줄이려는 선택으로 볼 수 있어요.

  • 두 사례 모두 공통점은 AI를 별도 기능으로 붙이는 단계에서 벗어나고 있다는 거예요. 한쪽은 인프라 레이어에서, 다른 한쪽은 업무 애플리케이션 레이어에서 AI를 기본 흐름 안에 넣으려는 움직임이에요.

국가 AI 인프라가 실제 GPU 자원 공급 단계로 들어갔다는 점이 제일 큼. 국내 연구기관이나 스타트업 입장에선 GPU 접근성이 조금이라도 좋아질 수 있는 뉴스라, 단순 기업 홍보 묶음 기사로만 넘기긴 아까움.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.