본문으로 건너뛰기
피드

오케스트로, 112.5억 규모 국산 AI 반도체 클라우드 소프트웨어 사업 수주

devops 약 5분

오케스트로가 과기정통부와 IITP의 국산 AI 반도체 특화 클라우드 네이티브 소프트웨어 스택 개발 과제 주관기관으로 선정됐어. 2026년부터 2029년까지 4년간 112.5억 원 규모로 진행되며, NPU와 PIM 같은 국산 AI 가속기를 클라우드에서 운영하기 위한 기반 소프트웨어와 모델 허브를 만드는 사업이야.

  • 1

    총 112.5억 원 규모의 4년짜리 국산 AI 반도체 클라우드 R&D 과제

  • 2

    NPU와 PIM을 범용 클라우드 환경에서 운영하기 위한 클라우드 네이티브 SW 스택 개발

  • 3

    CRI 호환, 패스스루, MSA 프레임워크 등 GPU 중심 인프라를 넘어서는 운영 체계 목표

  • 4

    과제 종료까지 1000개 이상의 최적화 모델을 AI 모델 허브에 확보하는 것이 목표

  • 오케스트로가 국산 AI 반도체용 클라우드 소프트웨어 스택 개발 과제의 주관기관으로 선정됨

    • 과기정통부와 정보통신기획평가원(IITP)이 주관하는 R&D 사업
    • 정식 과제명은 ‘AI 반도체 특화 클라우드 네이티브 SW 스택 및 모델 허브 기술 개발’
    • 총 112.5억 원 규모로, 2026년부터 2029년까지 4년간 진행됨
  • 목표는 국산 AI 가속기를 클라우드에서 제대로 굴릴 수 있게 만드는 것임

    • 대상은 국산 신경망처리장치(NPU), 지능형 메모리(PIM) 같은 차세대 AI 반도체
    • 범용 클라우드 환경에서 최적 성능을 내도록 운영 체계를 마련하는 게 핵심
    • 국산 AI 반도체 생태계 확산과 실제 활용성 개선을 목표로 함
  • 개발 항목은 꽤 인프라 깊숙한 영역을 건드림

    • 컨테이너 런타임 인터페이스(CRI) 호환 기술
    • 가속기 자원 직접 접근을 지원하는 패스스루 기술
    • 마이크로서비스 아키텍처(MSA) 프레임워크
    • 기존 GPU 중심 클라우드 구조를 국산 NPU 같은 가속기까지 확장하려는 접근임

중요

> 국산 AI 반도체가 실제로 쓰이려면 칩만 있어서는 부족함. 쿠버네티스와 런타임, 배포, 모니터링까지 이어지는 소프트웨어 스택이 같이 있어야 개발자가 쓸 수 있음.

  • ‘AI 모델 허브’도 같이 만든다는 점이 중요함

    • 학습·추론 모델을 손쉽게 등록하고 배포할 수 있는 플랫폼을 구축할 예정
    • 모델 컨테이너화 자동화와 메타데이터 관리 체계를 기반으로 운영됨
    • 과제 종료 시점까지 1000개 이상의 최적화 모델 확보를 목표로 함
  • 이 사업은 외산 GPU 의존도를 낮추려는 정책 방향과 맞물려 있음

    • 국내 중소·벤처기업이 고가 외산 GPU 없이도 AI 서비스를 개발·출시할 수 있게 지원하겠다는 취지
    • 국산 AI 반도체 기반 서비스가 빠르게 실험되고 배포될 수 있는 환경을 만드는 게 관건
    • 단순 연구 과제가 아니라 실제 데이터센터 운영 환경 적용까지 염두에 둠
  • 정부의 더 큰 AI 인프라 계획과도 연결됨

    • 연구 성과는 K-클라우드 프로젝트와 연계될 예정
    • 2026년부터 본격화되는 국가 AI 컴퓨팅 인프라 구축 사업에도 적용될 계획
    • 성공 여부는 국산 칩 성능뿐 아니라, 운영 자동화와 개발자 경험이 얼마나 자연스럽게 붙느냐에 달려 있음

기술 맥락

  • AI 반도체는 하드웨어 성능만 좋아서는 클라우드에서 바로 경쟁력이 나오지 않아요. 개발자는 모델을 컨테이너로 배포하고, 쿠버네티스에서 스케줄링하고, 장애와 비용을 봐야 하거든요.

  • CRI 호환 기술이 중요한 이유는 기존 클라우드 네이티브 생태계와 붙기 위해서예요. 국산 NPU를 쓰려고 운영 방식을 완전히 새로 배워야 한다면 도입 장벽이 너무 커져요.

  • 패스스루 기술은 성능 손실을 줄이기 위한 선택이에요. AI 가속기는 하드웨어 접근 경로가 길어지면 장점이 희석되기 때문에, 워크로드가 가속기를 효율적으로 잡아 쓰게 만드는 게 중요해요.

  • 모델 허브는 생태계 확산용 장치예요. 칩과 런타임만 있어도 모델 최적화가 어렵다면 개발자는 결국 익숙한 GPU로 돌아가거든요. 1000개 이상 최적화 모델 목표는 그 빈칸을 줄이려는 신호예요.

국산 AI 반도체 경쟁력은 칩 성능만으로 안 끝나. 쿠버네티스, 런타임, 모델 배포, 운영 자동화까지 붙어야 개발자가 실제로 쓸 수 있는데, 이번 과제는 그 빈칸을 메우려는 인프라 쪽 시도야.

댓글

댓글

댓글을 불러오는 중...

devops

디지털 스택을 유럽으로 옮겨보니, 생각보다 꽤 실전적이었다

한 개발자가 분석, 메일, 비밀번호 관리, 컴퓨트, 오브젝트 스토리지, 백업, 이메일, 에러 추적, AI API까지 유럽 중심 스택으로 옮긴 경험을 정리한 글이다. 핵심은 반미 감정이 아니라 데이터가 어디에 있고, 누가 접근할 수 있고, 정치나 기업 정책 변화에 얼마나 휘둘리는지를 의식하자는 얘기다.

devops

개인용 컴퓨터 다음은 개인용 클러스터라는 주장

이 글은 AI 시대에 개인 한 명이 쓰는 컴퓨팅 자원이 점점 ‘클러스터 한 덩어리’ 수준으로 커질 거라고 주장한다. PC가 직장, 취미 개발자, 게임 문화로 퍼졌듯이 개인용 클러스터도 업무용 AI, 오픈소스 실험, 게임 같은 흐름을 타고 대중화될 수 있다는 시나리오다.

devops

AI 에이전트 부하에 흔들린 GitHub, 왜 다른 서비스보다 더 아팠나

GitHub가 최근 몇 달 동안 가용성 저하, 검색 장애, GitHub Actions 문제, 심지어 squash merge에서 커밋이 빠지는 데이터 무결성 사고까지 겪었다. GitHub CTO는 AI 에이전트발 부하 증가를 원인으로 들었지만, 실제로는 2년간 약 3.5배 증가한 부하와 Azure 이전, 오래된 시스템, 조직적 지연이 겹친 문제에 가깝다. 개발자 입장에선 GitHub가 ‘없으면 안 되는 도구’에서 ‘업무를 막는 병목’으로 보이기 시작했다는 게 핵심이다.

devops

한국 클라우드 시장, 이제 GPU랑 데이터센터 싸움으로 넘어감

국내 클라우드 서비스 제공사들이 AI 전환 수요를 잡기 위해 GPUaaS, 데이터센터, 공공 클라우드 사업에 공격적으로 투자하고 있어. 네이버클라우드, KT클라우드, NHN클라우드 모두 2026년 1분기 실적에서 AI 인프라를 핵심 성장축으로 내세웠고, 정부의 2조805억원 규모 GPU 구축 사업이 판을 더 키우는 중이야.

devops

칩값 뛰니 K게임의 콘솔·피시 전환 해법으로 다시 뜨는 클라우드 게임

국내 게임사들이 모바일 중심에서 콘솔·피시로 넘어가려는 타이밍에 고성능 지피유와 콘솔 가격 상승이 발목을 잡고 있다. 이용자 입장에서는 300만원대 게이밍 피시, 오른 콘솔 가격, 스팀 가격 기준 개편까지 겹치면서 고사양 게임 접근성이 떨어지는 상황이다. 업계는 원격 서버에서 게임을 실행해 스트리밍하는 클라우드 게임을 다시 현실적인 대안으로 보고 있다.