본문으로 건너뛰기
피드

크래프톤, AI 브랜드 'Raon' 론칭…음성·TTS·비전 모델 4종 허깅페이스에 오픈소스 공개

ai-ml 약 6분

크래프톤이 AI 모델 브랜드 Raon(라온)을 론칭하고 음성 언어모델·실시간 양방향 음성모델·TTS·비전 인코더 4종을 허깅페이스에 오픈소스로 공개했다. 9B 규모의 Raon-Speech는 10B 이하급에서 영어·한국어 모두 글로벌 1위, Raon-SpeechChat은 국내 최초 실시간 Full-duplex 음성모델이다.

  • 1

    Raon 브랜드로 Raon-Speech·SpeechChat·OpenTTS·VisionEncoder 4종 허깅페이스 공개

  • 2

    Raon-Speech 9B — 10B 이하급 음성 언어모델 중 영·한 글로벌 1위, 40개 벤치마크 평균 기준

  • 3

    Raon-SpeechChat — 국내 발표된 최초의 실시간 양방향(Full-duplex) 음성 언어모델

  • 4

    Raon-OpenTTS — 학습 데이터까지 공개해 재현 가능성 확보

  • 5

    Raon-VisionEncoder — 사전학습 없이 자체 학습, 구글 SigLIP2 상회하는 태스크도 존재

  • 크래프톤이 AI 모델 브랜드 'Raon(라온)'을 론칭하고 첫 모델 4종을 허깅페이스에 오픈소스로 공개
    • 브랜드명은 '즐거움'을 뜻하는 순우리말 '라온' + KRAFTON 철자 활용
    • 게임 회사가 음성·비전·TTS까지 자체 파운데이션 모델을 오픈소스로 푸는 건 한국에선 드문 그림
  • 공개된 4종
    • Raon-Speech — 텍스트 중심 언어모델을 확장한 음성 언어모델(SpeechLM)
    • Raon-SpeechChat — 실시간 양방향 통신(Full-duplex) 음성 언어모델
    • Raon-OpenTTS — 공개 음성 데이터만으로 학습된 텍스트→음성 변환 모델
    • Raon-VisionEncoder — 이미지를 AI가 이해 가능한 정보로 바꿔주는 비전 인코더

Raon-Speech — 10B 이하급에서 영·한 글로벌 1위

  • 90억(9B) 파라미터 규모, 음성 이해와 생성이 모두 가능한 음성 언어모델
  • 10B 이하 공개 음성 언어모델 중 영어와 한국어 모두에서 글로벌 1위 기록
    • 음성→텍스트 변환(STT), 텍스트→음성 변환(TTS), 음성 기반 질의응답 등 7개 핵심 태스크
    • 40개 벤치마크 종합 평가, 태스크별 평균 순위를 동일 비중으로 반영한 결과
  • 한국어 SpeechLM 생태계에서 의미 있는 레퍼런스가 생긴 셈

중요

> Raon-SpeechChat은 국내에서 발표된 최초의 실시간 양방향(Full-duplex) 음성 모델. 사용자와 AI가 동시에 대화 중 끼어들 수 있다는 뜻으로, GPT-4o 같은 해외 서비스에서나 보던 스펙이 오픈소스로 풀렸음.

Raon-OpenTTS — 재현 가능성에 방점

  • 공개 음성 데이터만으로 학습 — 접근이 어려웠던 일부 데이터는 크래프톤이 직접 수집·정제해서 같이 공개
  • 전체 학습 데이터까지 공개해서 누구나 동일 조건에서 학습 재현 가능
  • "데이터도 코드도 모델도 다 열어둔" 재현성 중심 접근이 포인트

Raon-VisionEncoder — SigLIP2 상회

  • 공개 데이터만 활용, 사전 학습된 모델 없이 처음부터 자체 학습
  • 일부 시각 인식 태스크에서 구글의 대표 비전 인코더 SigLIP2를 상회
    • 그 외 태스크에서도 SigLIP2 대비 90% 이상 성능
  • 크래프톤이 밀고 있는 '독자 AI 파운데이션 모델' 프로젝트에도 활용 예정

왜 크래프톤이 이걸 공개했나

  • 데이터 수집 → 모델 학습 → 성능 평가까지 파운데이션 모델 개발 전 과정을 자체 수행할 수 있는 역량을 대외 입증하는 차원
  • 이강욱 CAIO: "Raon 공개는 AI 기술 역량 축적의 중요한 이정표. 대규모 학습 데이터와 핵심 모델을 오픈소스로 공유해 연구자·개발자들이 자유롭게 쓰도록 하고 국내 AI 생태계 성장에 기여하겠다"
  • 게임 내 NPC 음성 대화, 유저 감정 인식 같은 게임 내 활용뿐 아니라 멀티모달 기반 창작 도구 확장이 다음 포석

기술 맥락

크래프톤이 이번에 Raon으로 승부를 건 지점은 '음성 멀티모달'이에요. 텍스트 LLM 판은 이미 포화라 후발주자가 파고들기 어렵지만, 실시간 양방향 음성은 GPT-4o 이후 판이 막 열리는 영역이거든요. Full-duplex는 사용자 말이 끝나기를 기다리지 않고 동시에 듣고 말할 수 있다는 의미인데, 게임 내 NPC와 자연스러운 대화를 만들려는 게임사 입장에선 필수 스펙이에요.

특히 재미있는 게 Raon-VisionEncoder의 접근이에요. SigLIP2 같은 사전학습 모델에 의존하지 않고 공개 데이터로 처음부터 학습했다는 게 포인트거든요. 모델·데이터·학습 파이프라인을 전부 자기 통제 하에 두겠다는 얘긴데, 게임 회사가 파운데이션 모델을 통제하려는 이유는 명확해요. 자기 게임 안에서 쓰는 AI 자산을 외부 API에 종속시키지 않겠다는 거죠.

허깅페이스에 올려서 오픈소스로 푼 이유도 "우리가 실제로 처음부터 만들 역량이 있다"는 시장 시그널이에요. 게임사가 AI 역량을 증명하지 못하면 멀티모달 게임 시대에 뒤처진다는 위기감이 배경에 있어요. 한국 AI 개발자 입장에선 한국어 음성 벤치마크에서 성능이 검증된 SpeechLM이 오픈으로 풀렸다는 게 실질적 이득이에요.

게임사가 음성 멀티모달 파운데이션 모델을 오픈소스로 푸는 건 이례적. 한국어 SpeechLM 생태계가 계속 얇았는데 크래프톤이 현실적인 레퍼런스를 만들어준 셈이라 AI 개발자 입장에선 반갑다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

오픈클로(OpenClaw)로 슬랙 AI 비서 만들기 — 설치부터 봇 연동까지 실전 가이드

오픈소스 AI 에이전트 런타임 OpenClaw를 활용해 슬랙 AI 비서를 직접 세팅하는 과정을 단계별로 정리한 실전 튜토리얼이다. 터미널과 Claude Code 설치, OpenClaw 설치, 슬랙 봇 토큰 발급, 매니페스트 구성, 웹 UI에서 에이전트 관리까지 필요한 모든 절차를 다룬다.

ai-ml

MIT 출신 창업팀이 만든 오픈프로틴AI, 단백질 설계 노코드 플랫폼 오픈소스 공개

MIT 출신이 창업한 OpenProtein.AI가 단백질 언어모델 PoET을 비롯한 단백질 설계 도구들을 오픈소스로 공개했다. 머신러닝 전문 지식 없이도 웹 인터페이스로 단백질 서열 라이브러리를 생성·검증할 수 있어 신약 개발 파이프라인 단축이 기대된다. 베링거인겔하임 같은 제약사가 이미 실제 신약 설계에 도입했다.

ai-ml

Claude 4.7 토크나이저 실측 — 공식 상한 1.35배? 실제는 1.47배였다

Anthropic은 Claude Opus 4.7 새 토크나이저가 4.6 대비 1.0~1.35배 토큰을 쓴다고 안내했지만 실측은 기술문서 1.47배, 실제 CLAUDE.md 파일 1.45배로 공식 상한을 넘었다. 대신 IFEval 엄격 모드에서 +5pp 명령 추종 개선이 확인됐다. 스티커 가격은 그대로지만 80턴 Claude Code 세션 기준 실효 비용이 20~30% 오르고 Max 플랜 레이트 리밋도 그만큼 빨리 닫힌다.

ai-ml

엔비디아, 세계 첫 오픈소스 양자 AI 모델 '아이징' 공개 — pyMatching 대비 2.5배 빠름

엔비디아가 양자 컴퓨팅의 핵심 난제인 프로세서 보정과 오류 정정을 AI로 해결하는 오픈소스 모델 패밀리 '아이징'을 공개했다. 업계 표준인 pyMatching 대비 최대 2.5배 빠르고 정확도는 3배 높다. 연세대를 포함한 글로벌 연구기관들이 이미 도입했다.

ai-ml

Anthropic, 대화로 디자인 뽑는 'Claude Design' 공개 — Figma 정조준

Anthropic이 Claude Opus 4.7 비전 모델 기반의 Claude Design을 리서치 프리뷰로 출시했다. 대화, 인라인 코멘트, 직접 편집으로 디자인/프로토타입/슬라이드/랜딩페이지를 만들고, 코드베이스에서 추출한 팀 디자인 시스템을 자동 적용한 뒤 Claude Code로 바로 핸드오프할 수 있다.