본문으로 건너뛰기
피드

모레, 엔비디아 종속을 피하는 이기종 AI 가속기 최적화로 승부

ai-ml 약 6분

모레는 AMD GPU, NPU, 텐스토렌트 서버 등 여러 AI 가속기를 하나의 플랫폼에서 최적화하는 국내 AI 인프라 기업이다. KT와 AMD 기반 AI 데이터센터를 구축했고, 자체 대규모 언어 모델과 한국어 파운데이션 모델까지 공개하며 인프라와 모델 양쪽을 동시에 밀고 있다.

  • 1

    AMD GPU 환경에서 엔비디아급 성능을 내는 커널·라이브러리 최적화 기술을 강조

  • 2

    GPU와 NPU를 단일 논리 클러스터로 운영하는 MoAI 플랫폼 개발

  • 3

    2024년 오픈 LLM 리더보드에서 자체 모델 77.29점으로 글로벌 1위 기록

  • 4

    텐스토렌트와 AI 데이터센터 솔루션을 공동 개발해 아시아 시장 공략

엔비디아만 바라보지 않겠다는 AI 인프라 전략

  • 모레는 특정 벤더에 묶이지 않는 이기종 AI 가속기 최적화를 전면에 내세우는 국내 기업임

    • AMD GPU 환경에서 엔비디아 수준 이상의 성능을 내는 커널·라이브러리 최적화를 개발해왔음
    • GPU와 NPU를 가상화해 단일 논리 클러스터로 운영하는 MoAI 플랫폼도 핵심 제품
    • 이종 가속기 분리 추론을 자동화하는 MoAI 추론 프레임워크까지 묶어서, 하드웨어 선택권을 넓히는 쪽에 초점이 있음
  • 창업 초기부터 GPU 자원을 효율적으로 쓰는 클러스터링 소프트웨어로 주목받았음

    • GPU 수가 늘어날수록 생기는 할당, 병목, 운영 문제를 자동화로 풀었다는 설명
    • 필요한 곳에 GPU 자원을 유연하게 배분해서 비용을 줄이고 성능을 최적화하는 게 목표
    • AI 인프라 비용이 미친 듯이 커지는 요즘엔 이게 그냥 nice-to-have가 아니라 생존 전략에 가까움

중요

> 이 기사의 핵심은 “국산 AI 기업이 모델을 만들었다”보다 “엔비디아 중심 AI 인프라를 소프트웨어 최적화로 우회하려 한다”에 있음.

KT, AMD, 그리고 자체 LLM 성과

  • 모레는 2021년부터 KT와 전략적으로 협업해 AMD 인스팅트 GPU 기반 AI 데이터센터를 구축했음

    • 이 인프라는 KT의 AI 클라우드 서비스를 통해 제공됨
    • AMD 인스팅트 GPU와 모레 소프트웨어를 결합한 AI 서버가 엔비디아 GPU 서버와 대등한 성능을 냈다고 소개됨
    • 하드웨어만 바꿔서는 성능이 안 나오니, 커널·라이브러리·스케줄링 최적화가 승부처였던 셈
  • 2024년 1월에는 자체 개발한 대규모 언어 모델(LLM)이 오픈 LLM 리더보드에서 77.29점을 기록하며 글로벌 1위에 올랐음

    • 같은 해 12월에는 자체 개발한 한국어 LLM 파운데이션 모델을 허깅페이스에 오픈소스로 공개
    • 모레는 이런 모델 성과의 배경으로 자체 AI 플랫폼 기술을 꼽고 있음
    • 즉, 모델을 잘 만든 회사라기보다 모델을 잘 만들 수 있는 인프라를 직접 깐 회사라는 포지션
  • 지난해 2월에는 AI 모델 사업을 위해 자회사 모티프테크놀로지스를 세움

    • 모티프테크놀로지스는 외산 오픈소스 모델 구조를 차용하지 않는 순수 독자 설계 철학을 내세움
    • 설립 1년 만인 올해 2월 과학기술정보통신부의 독자 AI 파운데이션 모델 사업 정예팀으로 선정됨
    • 인프라 회사가 모델 회사까지 붙여서 풀스택으로 가려는 그림이 보임

텐스토렌트와 해외 시장까지

  • 모레는 글로벌 AI 반도체 기업 텐스토렌트와 AI 데이터센터 솔루션도 공동 개발 중임

    • 모레의 MoAI와 텐스토렌트의 갤럭시 웜홀 서버를 결합하는 방식
    • 대규모 AI 추론과 학습을 기존 GPU 기반 시스템보다 효율적이고 경제적으로 수행하도록 설계됐다고 함
    • 엔비디아 대안 하드웨어가 실제 시장에서 먹히려면, 이런 소프트웨어 레이어가 사실상 필수임
  • 올해는 아시아 시장에서 매출을 만들겠다는 계획도 있음

    • 일본과 중국에서는 기술검증(PoC)을 마친 고객사와 계약 마무리 단계
    • AMD 등 다양한 반도체를 활용한 AI 솔루션 수요가 높은 인도 시장도 공략 예정
    • 국내 기술 기업이 AI 인프라 소프트웨어로 해외 계약을 노린다는 점에서 꽤 볼 만한 흐름
  • 모레의 뿌리도 꽤 기술 중심적임

    • 순수 국내 기술로 만든 최초의 슈퍼컴퓨터 천둥 개발에 참여한 서울대 매니코어프로그래밍연구단 출신들이 2020년 9월 설립
    • KT, AMD 등에서 현재까지 약 3000만 달러 투자를 유치
    • 조강원 대표는 15년 이상 GPU 슈퍼컴퓨터 연구 경험을 바탕으로 이기종 AI 가속기 최적화 솔루션을 개발하고 있다고 설명함

기술 맥락

  • 모레가 잡은 문제는 단순히 “더 빠른 GPU를 쓰자”가 아니에요. AI 인프라가 엔비디아 중심으로 굳어질수록 가격, 공급, 운영 선택권이 모두 좁아지기 때문에, 여러 가속기를 같은 플랫폼에서 다룰 수 있게 만드는 게 핵심이에요.

  • AMD GPU나 NPU를 쓰려면 하드웨어만 꽂는다고 끝나지 않아요. 모델 학습과 추론 성능은 커널, 라이브러리, 메모리 사용, 클러스터 스케줄링에서 갈리거든요. 그래서 모레가 커널·라이브러리 최적화를 계속 강조하는 거예요.

  • MoAI 같은 플랫폼이 의미 있는 이유는 개발자와 운영자가 가속기별 차이를 매번 직접 다루기 어렵기 때문이에요. GPU와 NPU를 단일 논리 클러스터처럼 묶으면, 자원 할당과 추론 분리를 소프트웨어가 대신 관리할 수 있어요.

  • KT와 AMD 인스팅트 GPU 기반 AI 데이터센터 사례는 이 전략의 실전 검증에 가까워요. 엔비디아 서버와 대등한 성능을 냈다는 주장이 사실이라면, 국내 AI 클라우드와 기업 고객에게는 비용과 공급망 측면에서 꽤 큰 선택지가 생기는 셈이에요.

  • 텐스토렌트와의 협업은 이 흐름을 더 넓혀요. 특정 GPU 하나의 대체재를 찾는 게 아니라, 여러 AI 반도체를 소프트웨어로 묶어 학습과 추론을 운영하는 방향이라서 AI 데이터센터 아키텍처 전체에 영향을 줄 수 있어요.

AI 인프라에서 가장 큰 병목은 이제 모델 코드만이 아니라 가속기 선택권이다. 모레의 메시지는 명확하다. 엔비디아만 바라보는 구조를 깨려면 하드웨어보다 그 위의 최적화 소프트웨어가 더 중요해진다는 것.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.