본문으로 건너뛰기
피드

엔비디아 네모트론 데이 서울 — 한국인 700만명 페르소나 데이터셋 공개

ai-ml 약 7분

엔비디아가 GTC 행사를 서울로 가져와 첫 네모트론 개발자 데이를 열었다. 차세대 GPU 블랙웰의 MoE 추론 55배 가속, NVFP4 초저정밀 연산, 합성 데이터 도구(네모 데이터 디자이너·큐레이터), 그리고 한국인 700만명 분포를 반영한 '네모트론 페르소나 코리아' 데이터셋을 공개했다.

  • 1

    GTC 외 첫 네모트론 개발자 데이를 서울에서 개최, 4월 21~22일 디캠프 마포에서 진행

  • 2

    블랙웰 GPU가 MoE 추론에서 이전 세대 대비 최대 55배 빠른 성능, NVFP4는 4.75비트 초저정밀 연산

  • 3

    네모 데이터 디자이너·큐레이터를 통한 합성 데이터 생성·정제 파이프라인 강조

  • 4

    한국인 700만명·17억 토큰 규모의 페르소나 데이터셋을 CC BY 4.0으로 공개

  • 5

    62개 통계 자료, 8000개 이상 산업·직업 조합, 1940년대 이후 이름 21만 개 반영

  • 엔비디아가 서울 디캠프 마포에서 '네모트론 개발자 데이 서울 2026'을 개최함 (4월 21~22일)
    • GTC에서만 진행하던 행사를 한국으로 가져온 첫 케이스
    • 한국어/한국 산업 특화 데이터·도구·모델을 집중 공개

"효율성이 곧 지능" — 에이전트 AI 시대 네모트론 전략

  • 브라이언 카탄자로 엔비디아 딥러닝 응용 연구 부문 부사장의 메시지: AI가 챗봇을 넘어 스스로 추론하고 도구를 활용하는 에이전트 시대로 빠르게 이동 중
    • 에이전트는 단일 모델이 아니라 메모리·멀티모달·파일 도구·메시징·여러 에이전트 조합까지 포함하는 시스템이라는 정의
    • 앞으로의 경쟁력은 "개별 모델 성능"이 아니라 "얼마나 효율적으로 조합·운영하느냐"
  • "프리사이즈 의류가 모두에게 꼭 맞을 수 없듯, 하나의 획일화된 범용 모델로 모든 상황을 충족시키긴 어렵다" — 카탄자로 부사장의 비유
    • 각자의 데이터·업무 환경에 맞춘 특화 모델이 필요하다는 게 핵심 메시지
  • 네모트론은 단순 LLM이 아니라 개방형 AI 모델 패밀리로 확장 중
    • 베이스/포스트트레이닝 모델뿐 아니라 데이터셋, 연구 기법, 하이퍼파라미터, SW까지 함께 공개

블랙웰과 NVFP4 — 하드웨어 자랑 코너

중요

> 차세대 GPU 블랙웰(Blackwell)이 MoE(전문가혼합) 모델 추론에서 이전 세대 대비 최대 55배 빠른 성능을 기록. NVFP4는 숫자당 4.75비트 초저정밀 연산으로 전력 부담을 낮추면서 정확도를 유지.

  • 하드웨어와 소프트웨어를 함께 최적화하는 공동 설계(Co-design)가 효율성의 핵심이라는 설명
  • 4비트 수준 연산이 의미가 있는 건 추론 비용/전력 문제가 갈수록 커지기 때문

데이터 품질이 진짜 승부처 — 네모 데이터 디자이너 & 큐레이터

  • 메흐란 마구미 수석 딥러닝 엔지니어: 인터넷 데이터만으론 특정 국가/산업에 맞는 모델 만들기 어려움
    • 합성 데이터 + 데이터 변환 기술이 현지화 AI의 핵심
    • 새 데이터 생성뿐 아니라 기존 데이터를 목표 도메인에 맞게 변환하는 작업도 중요
  • 네모 데이터 디자이너 — 합성 데이터를 처음부터 만들거나 기존 데이터를 변환하는 오픈소스 도구
    • 데이터 다양성 제어, 검증, 재현 가능한 파이프라인 구축에 초점
  • 네모 큐레이터 — 대규모 데이터 정제·중복 제거·품질 필터링·분류를 수행
    • 의미론적 중복 제거(semantic dedup)와 대규모 파이프라인 설계가 강점

진짜 깜짝 발표 — '네모트론 페르소나 코리아' 데이터셋

ℹ️참고

> 기존 글로벌 LLM이 한국 사회를 묘사할 때 "40%가 샐러드를 즐겨 먹고 사과 과수원을 운영한다"는 식의 왜곡된 인물상을 만들어내는 문제를 정조준한 데이터셋.

  • 엔비디아 리서치 김현우 연구원이 발표한 한국 특화 합성 페르소나 데이터셋
    • 통계청, 대법원, 국민건강보험 등 62개 통계 자료 기반으로 구축
    • 규모는 한국인 700만 명 수준, 약 17억 토큰
  • 반영 속성이 진짜 디테일함
    • 연령·성별·지역·혼인·가족 구성·주거 형태·건강 지표 등 폭넓은 속성
    • 한국표준산업분류 + 한국표준직업분류 적용으로 8000개 이상 산업·직업 조합
    • 1940년대 이후 이름 분포 데이터 참고해 21만여 개 이름 데이터 — 세대별 정서 반영
  • 라이선스가 화끈함 — CC BY 4.0으로 배포, 개인식별정보 없는 합성 데이터
    • 국내 기업·개발자가 비교적 자유롭게 활용 가능

사이드 이벤트들

  • 과기정통부·NIPA 후원 패널 토론 — '독자 AI 파운데이션 모델' 프로젝트 연계, K-AI 생태계 경쟁력 논의
  • '네모트론 해커톤' — 48시간 동안 에이전틱 시스템과 산업 특화 모델 빌드
  • GTC 2026에서 처음 공개됐던 'Build-a-Claw' 팝업도 한국 첫 운영

기술 맥락

엔비디아가 GTC 행사를 굳이 서울로 가져온 이유는 단순한 마케팅이 아니에요. 한국 정부가 추진 중인 '독자 AI 파운데이션 모델' 프로젝트와 라인을 맞춘 거거든요. 자체 모델을 만들려는 나라에 GPU만 팔지 말고, 데이터셋·도구·레퍼런스 모델까지 묶어서 생태계 자체를 엔비디아 스택으로 끌어들이겠다는 전략이에요.

페르소나 코리아 데이터셋은 LLM 후속 학습(post-training)에서 페르소나 기반 합성 데이터를 쓰는 최신 트렌드를 반영한 거예요. 글로벌 모델이 "한국인은 다 사과 농장을 한다" 같은 헛소리를 하는 이유는 학습 데이터에 한국 인구 분포가 거의 없기 때문이거든요. 통계청 분포에 맞춰 700만 명 페르소나를 합성하면, 이걸 시드로 instruction 데이터를 만들 때 현실적인 한국인 시나리오가 나와요. CC BY 4.0이라 상업 이용도 가능하고요.

NVFP4가 4.75비트인 게 이상해 보일 수 있는데, 부호 비트와 스케일 팩터 때문에 평균 비트가 정수가 아닌 거예요. INT4로 가면 정확도가 무너지는데 NVFP4는 부동소수점 표현을 유지해서 그 갭을 줄여요. MoE 추론에서 이게 특히 효과적인 이유는 활성 전문가만 골라서 연산하니까 메모리 대역폭이 병목이 되는데, 비트 수가 줄면 대역폭도 같이 줄어들거든요.

엔비디아가 GPU 판매를 넘어 '국가별 AI 스택'을 통째로 제공하려는 전략을 본격화. 한국 정부의 독자 파운데이션 모델 프로젝트와 라인 맞춘 시점인 만큼 국내 LLM 개발사들에게는 즉각 활용 가능한 도구·데이터셋이 늘어나는 셈.

댓글

댓글

댓글을 불러오는 중...

ai-ml

KT클라우드 'AI 파운드리' CSAP 인증 — RAG Suite 2.0에 가드레일·한글 파서 추가

KT클라우드가 E2E AI 플랫폼 'AI 파운드리' 공공 클라우드 상품을 출시하고 RAG Suite·VectorDB가 CSAP 중 등급 인증을 획득했다. KT 자체 모델 '믿음 2.0'과 업스테이지 SOLAR 시리즈를 API로 호출 가능하며, 4월 23일 출시되는 RAG Suite 2.0에는 PII 마스킹·가드레일·한글 문서 파서·리랭크 기능이 추가된다.

ai-ml

씽킹데이터, '씽킹AI'로 사명 바꾸고 에이전틱 엔진 공개

데이터 분석 기업 씽킹데이터가 씽킹AI로 사명을 바꾸며 AI 에이전트 플랫폼 기업으로 전환을 선언했다. 분석·감지·실행을 자동으로 잇는 '에이전틱 엔진'과 MCP 기반 실시간 데이터 연동이 핵심. 한편 국가AI전략위 류정혜 위원은 AX를 단순 인력 감축으로 접근하지 말라고 일침을 가하며 이케아 사례를 제시했다.

ai-ml

방산 AI가 전쟁 승패 가른다… 한국 국방 AX 어디까지 왔나

정보통신기획평가원장이 쓴 칼럼. 미군 JADC2가 60초 안에 1000개 표적을 연쇄 타격하는 수준에 도달했고, 미국은 팰런티어·안두릴 등 SHARPE 생태계로 방산 AI 주도권을 잡았다. 한국도 AX거점센터·국방 AX 스프린트·실전형 테스트베드로 따라가야 한다는 주장.

ai-ml

Kimi K2.6 공개 — 12시간 연속 코딩 에이전트와 300개 서브 스웜으로 장기 실행 전쟁 돌입

Kimi가 오픈소스 코딩 특화 모델 K2.6을 공개했다. 12-13시간짜리 장기 실행 코딩 태스크에서 4,000+ tool call을 유지하며 Zig로 추론 엔진을 짜거나 금융 매칭 엔진의 스레드 토폴로지를 재구성해 처리량을 133-185% 끌어올리는 사례를 제시했다. Agent Swarm은 서브 에이전트 300개·4,000 스텝 규모로 확장됐고, 이기종 에이전트를 통합 오케스트레이션하는 Claw Groups 리서치 프리뷰도 함께 열렸다.

ai-ml

'클로드 코워크' 등장 — PC 화면 보고 직접 클릭해서 영수증·메일 처리하는 AI 에이전트

앤트로픽이 비개발자용 AI 에이전트 클로드 코워크를 내놓았다. 코딩 없이 클로드가 직접 PC 화면을 보고 브라우저를 조작해 영수증 정리, 메일 분류 같은 반복 업무를 대신 처리하는 게 핵심이다. 그동안 클로드 코드 같은 에이전트가 개발자 전유물로 느껴졌던 사무직을 겨냥한 UX로 포지셔닝됐다.