---
title: "크래프톤, AI 브랜드 'Raon' 론칭…음성·TTS·비전 모델 4종 허깅페이스에 오픈소스 공개"
published: 2026-04-18T01:05:03.146Z
canonical: https://jeff.news/article/1781
---
# 크래프톤, AI 브랜드 'Raon' 론칭…음성·TTS·비전 모델 4종 허깅페이스에 오픈소스 공개

크래프톤이 AI 모델 브랜드 Raon(라온)을 론칭하고 음성 언어모델·실시간 양방향 음성모델·TTS·비전 인코더 4종을 허깅페이스에 오픈소스로 공개했다. 9B 규모의 Raon-Speech는 10B 이하급에서 영어·한국어 모두 글로벌 1위, Raon-SpeechChat은 국내 최초 실시간 Full-duplex 음성모델이다.

- 크래프톤이 AI 모델 브랜드 'Raon(라온)'을 론칭하고 첫 모델 4종을 허깅페이스에 오픈소스로 공개
  - 브랜드명은 '즐거움'을 뜻하는 순우리말 '라온' + KRAFTON 철자 활용
  - 게임 회사가 음성·비전·TTS까지 자체 파운데이션 모델을 오픈소스로 푸는 건 한국에선 드문 그림
- 공개된 4종
  - **Raon-Speech** — 텍스트 중심 언어모델을 확장한 음성 언어모델(SpeechLM)
  - **Raon-SpeechChat** — 실시간 양방향 통신(Full-duplex) 음성 언어모델
  - **Raon-OpenTTS** — 공개 음성 데이터만으로 학습된 텍스트→음성 변환 모델
  - **Raon-VisionEncoder** — 이미지를 AI가 이해 가능한 정보로 바꿔주는 비전 인코더

### Raon-Speech — 10B 이하급에서 영·한 글로벌 1위
- 90억(9B) 파라미터 규모, 음성 이해와 생성이 모두 가능한 음성 언어모델
- 10B 이하 공개 음성 언어모델 중 영어와 한국어 모두에서 글로벌 1위 기록
  - 음성→텍스트 변환(STT), 텍스트→음성 변환(TTS), 음성 기반 질의응답 등 7개 핵심 태스크
  - 40개 벤치마크 종합 평가, 태스크별 평균 순위를 동일 비중으로 반영한 결과
- 한국어 SpeechLM 생태계에서 의미 있는 레퍼런스가 생긴 셈

> [!IMPORTANT]
> Raon-SpeechChat은 **국내에서 발표된 최초의 실시간 양방향(Full-duplex) 음성 모델**. 사용자와 AI가 동시에 대화 중 끼어들 수 있다는 뜻으로, GPT-4o 같은 해외 서비스에서나 보던 스펙이 오픈소스로 풀렸음.

### Raon-OpenTTS — 재현 가능성에 방점
- 공개 음성 데이터만으로 학습 — 접근이 어려웠던 일부 데이터는 크래프톤이 직접 수집·정제해서 같이 공개
- 전체 학습 데이터까지 공개해서 누구나 동일 조건에서 학습 재현 가능
- "데이터도 코드도 모델도 다 열어둔" 재현성 중심 접근이 포인트

### Raon-VisionEncoder — SigLIP2 상회
- 공개 데이터만 활용, 사전 학습된 모델 없이 처음부터 자체 학습
- 일부 시각 인식 태스크에서 구글의 대표 비전 인코더 SigLIP2를 상회
  - 그 외 태스크에서도 SigLIP2 대비 90% 이상 성능
- 크래프톤이 밀고 있는 '독자 AI 파운데이션 모델' 프로젝트에도 활용 예정

### 왜 크래프톤이 이걸 공개했나
- 데이터 수집 → 모델 학습 → 성능 평가까지 파운데이션 모델 개발 전 과정을 자체 수행할 수 있는 역량을 대외 입증하는 차원
- 이강욱 CAIO: "Raon 공개는 AI 기술 역량 축적의 중요한 이정표. 대규모 학습 데이터와 핵심 모델을 오픈소스로 공유해 연구자·개발자들이 자유롭게 쓰도록 하고 국내 AI 생태계 성장에 기여하겠다"
- 게임 내 NPC 음성 대화, 유저 감정 인식 같은 게임 내 활용뿐 아니라 멀티모달 기반 창작 도구 확장이 다음 포석

---

## 기술 맥락

크래프톤이 이번에 Raon으로 승부를 건 지점은 '음성 멀티모달'이에요. 텍스트 LLM 판은 이미 포화라 후발주자가 파고들기 어렵지만, 실시간 양방향 음성은 GPT-4o 이후 판이 막 열리는 영역이거든요. Full-duplex는 사용자 말이 끝나기를 기다리지 않고 동시에 듣고 말할 수 있다는 의미인데, 게임 내 NPC와 자연스러운 대화를 만들려는 게임사 입장에선 필수 스펙이에요.

특히 재미있는 게 Raon-VisionEncoder의 접근이에요. SigLIP2 같은 사전학습 모델에 의존하지 않고 공개 데이터로 처음부터 학습했다는 게 포인트거든요. 모델·데이터·학습 파이프라인을 전부 자기 통제 하에 두겠다는 얘긴데, 게임 회사가 파운데이션 모델을 통제하려는 이유는 명확해요. 자기 게임 안에서 쓰는 AI 자산을 외부 API에 종속시키지 않겠다는 거죠.

허깅페이스에 올려서 오픈소스로 푼 이유도 "우리가 실제로 처음부터 만들 역량이 있다"는 시장 시그널이에요. 게임사가 AI 역량을 증명하지 못하면 멀티모달 게임 시대에 뒤처진다는 위기감이 배경에 있어요. 한국 AI 개발자 입장에선 한국어 음성 벤치마크에서 성능이 검증된 SpeechLM이 오픈으로 풀렸다는 게 실질적 이득이에요.

## 핵심 포인트

- Raon 브랜드로 Raon-Speech·SpeechChat·OpenTTS·VisionEncoder 4종 허깅페이스 공개
- Raon-Speech 9B — 10B 이하급 음성 언어모델 중 영·한 글로벌 1위, 40개 벤치마크 평균 기준
- Raon-SpeechChat — 국내 발표된 최초의 실시간 양방향(Full-duplex) 음성 언어모델
- Raon-OpenTTS — 학습 데이터까지 공개해 재현 가능성 확보
- Raon-VisionEncoder — 사전학습 없이 자체 학습, 구글 SigLIP2 상회하는 태스크도 존재

## 인사이트

게임사가 음성 멀티모달 파운데이션 모델을 오픈소스로 푸는 건 이례적. 한국어 SpeechLM 생태계가 계속 얇았는데 크래프톤이 현실적인 레퍼런스를 만들어준 셈이라 AI 개발자 입장에선 반갑다.
