---
title: "모레, 엔비디아 종속을 피하는 이기종 AI 가속기 최적화로 승부"
published: 2026-05-11T09:00:03.364Z
canonical: https://jeff.news/article/2367
---
# 모레, 엔비디아 종속을 피하는 이기종 AI 가속기 최적화로 승부

모레는 AMD GPU, NPU, 텐스토렌트 서버 등 여러 AI 가속기를 하나의 플랫폼에서 최적화하는 국내 AI 인프라 기업이다. KT와 AMD 기반 AI 데이터센터를 구축했고, 자체 대규모 언어 모델과 한국어 파운데이션 모델까지 공개하며 인프라와 모델 양쪽을 동시에 밀고 있다.

## 엔비디아만 바라보지 않겠다는 AI 인프라 전략

- 모레는 특정 벤더에 묶이지 않는 이기종 AI 가속기 최적화를 전면에 내세우는 국내 기업임
  - AMD GPU 환경에서 엔비디아 수준 이상의 성능을 내는 커널·라이브러리 최적화를 개발해왔음
  - GPU와 NPU를 가상화해 단일 논리 클러스터로 운영하는 `MoAI 플랫폼`도 핵심 제품
  - 이종 가속기 분리 추론을 자동화하는 `MoAI 추론 프레임워크`까지 묶어서, 하드웨어 선택권을 넓히는 쪽에 초점이 있음

- 창업 초기부터 GPU 자원을 효율적으로 쓰는 클러스터링 소프트웨어로 주목받았음
  - GPU 수가 늘어날수록 생기는 할당, 병목, 운영 문제를 자동화로 풀었다는 설명
  - 필요한 곳에 GPU 자원을 유연하게 배분해서 비용을 줄이고 성능을 최적화하는 게 목표
  - AI 인프라 비용이 미친 듯이 커지는 요즘엔 이게 그냥 nice-to-have가 아니라 생존 전략에 가까움

> [!IMPORTANT]
> 이 기사의 핵심은 “국산 AI 기업이 모델을 만들었다”보다 “엔비디아 중심 AI 인프라를 소프트웨어 최적화로 우회하려 한다”에 있음.

## KT, AMD, 그리고 자체 LLM 성과

- 모레는 2021년부터 KT와 전략적으로 협업해 AMD 인스팅트 GPU 기반 AI 데이터센터를 구축했음
  - 이 인프라는 KT의 AI 클라우드 서비스를 통해 제공됨
  - AMD 인스팅트 GPU와 모레 소프트웨어를 결합한 AI 서버가 엔비디아 GPU 서버와 대등한 성능을 냈다고 소개됨
  - 하드웨어만 바꿔서는 성능이 안 나오니, 커널·라이브러리·스케줄링 최적화가 승부처였던 셈

- 2024년 1월에는 자체 개발한 대규모 언어 모델(LLM)이 오픈 LLM 리더보드에서 77.29점을 기록하며 글로벌 1위에 올랐음
  - 같은 해 12월에는 자체 개발한 한국어 LLM 파운데이션 모델을 허깅페이스에 오픈소스로 공개
  - 모레는 이런 모델 성과의 배경으로 자체 AI 플랫폼 기술을 꼽고 있음
  - 즉, 모델을 잘 만든 회사라기보다 모델을 잘 만들 수 있는 인프라를 직접 깐 회사라는 포지션

- 지난해 2월에는 AI 모델 사업을 위해 자회사 모티프테크놀로지스를 세움
  - 모티프테크놀로지스는 외산 오픈소스 모델 구조를 차용하지 않는 순수 독자 설계 철학을 내세움
  - 설립 1년 만인 올해 2월 과학기술정보통신부의 `독자 AI 파운데이션 모델` 사업 정예팀으로 선정됨
  - 인프라 회사가 모델 회사까지 붙여서 풀스택으로 가려는 그림이 보임

## 텐스토렌트와 해외 시장까지

- 모레는 글로벌 AI 반도체 기업 텐스토렌트와 AI 데이터센터 솔루션도 공동 개발 중임
  - 모레의 `MoAI`와 텐스토렌트의 `갤럭시 웜홀` 서버를 결합하는 방식
  - 대규모 AI 추론과 학습을 기존 GPU 기반 시스템보다 효율적이고 경제적으로 수행하도록 설계됐다고 함
  - 엔비디아 대안 하드웨어가 실제 시장에서 먹히려면, 이런 소프트웨어 레이어가 사실상 필수임

- 올해는 아시아 시장에서 매출을 만들겠다는 계획도 있음
  - 일본과 중국에서는 기술검증(PoC)을 마친 고객사와 계약 마무리 단계
  - AMD 등 다양한 반도체를 활용한 AI 솔루션 수요가 높은 인도 시장도 공략 예정
  - 국내 기술 기업이 AI 인프라 소프트웨어로 해외 계약을 노린다는 점에서 꽤 볼 만한 흐름

- 모레의 뿌리도 꽤 기술 중심적임
  - 순수 국내 기술로 만든 최초의 슈퍼컴퓨터 `천둥` 개발에 참여한 서울대 매니코어프로그래밍연구단 출신들이 2020년 9월 설립
  - KT, AMD 등에서 현재까지 약 3000만 달러 투자를 유치
  - 조강원 대표는 15년 이상 GPU 슈퍼컴퓨터 연구 경험을 바탕으로 이기종 AI 가속기 최적화 솔루션을 개발하고 있다고 설명함

---

## 기술 맥락

- 모레가 잡은 문제는 단순히 “더 빠른 GPU를 쓰자”가 아니에요. AI 인프라가 엔비디아 중심으로 굳어질수록 가격, 공급, 운영 선택권이 모두 좁아지기 때문에, 여러 가속기를 같은 플랫폼에서 다룰 수 있게 만드는 게 핵심이에요.

- AMD GPU나 NPU를 쓰려면 하드웨어만 꽂는다고 끝나지 않아요. 모델 학습과 추론 성능은 커널, 라이브러리, 메모리 사용, 클러스터 스케줄링에서 갈리거든요. 그래서 모레가 커널·라이브러리 최적화를 계속 강조하는 거예요.

- MoAI 같은 플랫폼이 의미 있는 이유는 개발자와 운영자가 가속기별 차이를 매번 직접 다루기 어렵기 때문이에요. GPU와 NPU를 단일 논리 클러스터처럼 묶으면, 자원 할당과 추론 분리를 소프트웨어가 대신 관리할 수 있어요.

- KT와 AMD 인스팅트 GPU 기반 AI 데이터센터 사례는 이 전략의 실전 검증에 가까워요. 엔비디아 서버와 대등한 성능을 냈다는 주장이 사실이라면, 국내 AI 클라우드와 기업 고객에게는 비용과 공급망 측면에서 꽤 큰 선택지가 생기는 셈이에요.

- 텐스토렌트와의 협업은 이 흐름을 더 넓혀요. 특정 GPU 하나의 대체재를 찾는 게 아니라, 여러 AI 반도체를 소프트웨어로 묶어 학습과 추론을 운영하는 방향이라서 AI 데이터센터 아키텍처 전체에 영향을 줄 수 있어요.

## 핵심 포인트

- AMD GPU 환경에서 엔비디아급 성능을 내는 커널·라이브러리 최적화 기술을 강조
- GPU와 NPU를 단일 논리 클러스터로 운영하는 MoAI 플랫폼 개발
- 2024년 오픈 LLM 리더보드에서 자체 모델 77.29점으로 글로벌 1위 기록
- 텐스토렌트와 AI 데이터센터 솔루션을 공동 개발해 아시아 시장 공략

## 인사이트

AI 인프라에서 가장 큰 병목은 이제 모델 코드만이 아니라 가속기 선택권이다. 모레의 메시지는 명확하다. 엔비디아만 바라보는 구조를 깨려면 하드웨어보다 그 위의 최적화 소프트웨어가 더 중요해진다는 것.
