본문으로 건너뛰기
피드

엔비디아, 러스트로 CUDA 커널을 쓰는 공식 컴파일러 공개

ai-ml 약 4분

엔비디아 연구소가 러스트 코드로 CUDA 커널을 작성하고 실행하는 ‘CUDA-oxide’를 공개했어. 제공된 예시는 러스트 매크로로 GPU 커널을 선언하고, 호스트 코드에서 CUDA 컨텍스트·디바이스 버퍼·런치 설정을 구성해 벡터 덧셈을 실행하는 흐름을 보여줘. 기사 본문은 코드 예제 중심이라 세부 설계나 성능 수치는 확인되지 않아.

  • 1

    CUDA-oxide는 엔비디아의 공식 러스트-투-CUDA 컴파일러로 소개됨

  • 2

    예제는 GPU에서 1,024개 f32 원소를 더하는 벡터 덧셈 커널을 보여줌

  • 3

    #[cuda_module]과 #[kernel] 매크로로 러스트 코드 안에서 CUDA 모듈과 커널을 정의함

  • 4

    호스트 코드는 CudaContext, DeviceBuffer, LaunchConfig를 사용해 실행 환경과 GPU 메모리를 다룸

  • 엔비디아의 CUDA-oxide는 러스트 코드에서 CUDA 커널을 작성하고 실행하는 공식 컴파일러로 소개됐음

    • 본문은 긴 설명보다 코드 예제가 전부에 가까움
    • 그래도 예제만 보면 목표는 분명함. 러스트 문법과 매크로로 GPU 커널을 선언하고, 호스트 쪽에서도 러스트 API로 CUDA 실행을 구성하는 흐름임
  • 예제는 가장 기본적인 GPU 데모인 벡터 덧셈임

    • 입력 배열 a와 b는 각각 1,024개의 f32 값을 담음
    • a는 전부 1.0, b는 전부 2.0으로 채워지고, 결과 c의 첫 값이 3.0인지 assert로 확인함
    • 수치 자체는 단순하지만, 커널 선언부터 디바이스 메모리 복사, 실행, 결과 회수까지 전체 경로를 보여주는 예제임
  • 커널 정의는 러스트 매크로 기반으로 구성됨

    • #[cuda_module]로 CUDA 모듈을 만들고, #[kernel]로 vecadd 커널을 표시함
    • 커널 내부에서는 thread::index_1d()로 현재 GPU 스레드의 1차원 인덱스를 가져옴
    • 결과 버퍼는 DisjointSlice로 받고, get_mut(idx)로 해당 위치를 안전하게 꺼내 값을 씀
  • 호스트 코드는 CUDA 실행 준비를 러스트 타입으로 감싸는 모양새임

    • CudaContext::new(0)으로 0번 GPU 컨텍스트를 만들고 기본 스트림을 가져옴
    • DeviceBuffer::from_host로 입력 데이터를 GPU 메모리에 올림
    • DeviceBuffer::::zeroed로 결과 버퍼를 1,024개 크기로 초기화함
    • LaunchConfig::for_num_elems(1024)로 실행할 원소 수 기준의 런치 설정을 넘김
  • 개발자 입장에서 흥미로운 지점은 ‘CUDA를 러스트스럽게 감싸는 정도’임

    • 예제 코드만 보면 커널 코드와 호스트 코드가 한 파일 안에서 자연스럽게 이어짐
    • C/C++ CUDA에 익숙한 개발자라면 모듈 로드, 디바이스 버퍼, 커널 런치라는 개념은 그대로 보일 거임
    • 차이는 러스트의 매크로, 타입, borrow 스타일 API로 그 흐름을 표현한다는 점임
  • 다만 본문에 없는 건 꽤 많음

    • 성능 벤치마크, 지원되는 러스트 기능 범위, CUDA C++ 대비 제약, 디버깅 경험은 확인되지 않음
    • 실제 프로덕션 GPU 코드를 옮길 수 있는 수준인지, 학습·실험용인지도 본문만으로는 판단하기 어려움
    • 지금 단계에서 공유 포인트는 ‘엔비디아가 공식적으로 러스트-CUDA 경로를 보여주기 시작했다’ 정도가 가장 정확함

아직 본문만 보면 프로젝트 철학이나 벤치마크보다 ‘러스트 문법으로 CUDA 커널을 이렇게 쓸 수 있다’는 시그널이 핵심이야. GPU 코드에서도 러스트의 타입 시스템과 안전성 모델을 끌고 오려는 흐름으로 보면 됨.

댓글

댓글

댓글을 불러오는 중...

ai-ml

일터에 들어온 AI, 장애인의 업무 장벽을 낮추고 있다

생성형 AI가 시각장애인, 청각장애인, 발달장애인의 업무 보조 도구로 쓰이기 시작했다. 문서·이미지 설명, 회의 실시간 텍스트화, 사회적 의사소통 훈련 같은 영역에서 장벽을 낮추지만, 장애인의 AI 사용률은 5.6%로 비장애인 15.4%의 3분의 1 수준에 머문다.

ai-ml

전남대병원, 1116병상에 AI 스마트 모니터링 시스템 깔았다

전남대병원이 본원 451병상과 화순전남대병원 665병상, 총 1116병상에 AI 스마트 모니터링 시스템을 도입했다. 웨어러블 센서로 입원환자의 심전도, 산소포화도, 호흡, 체온을 실시간 수집하고 AI가 이상 신호를 감지해 의료진에게 알리는 구조다.

ai-ml

피지컬 AI가 현실에서 사고를 내면, 책임은 누가 질까

피지컬 AI가 자율주행차, 공장, 물류, 의료 현장으로 빠르게 들어오면서 사고 책임 문제가 핵심 이슈로 떠오르고 있다. 기존 기계처럼 고장 원인을 단순히 제조사나 사용자에게 나누기 어려워졌고, AI 판단 과정을 추적할 시스템과 사회적 책임 합의가 필요하다는 내용이다.

ai-ml

메타 AI, 1년 만에 한국 출시…인스턴트와 깊이 생각하기 모드 제공

메타 AI가 미국 출시 약 1년 만에 한국에서도 앱과 웹으로 제공되기 시작했다. 뮤즈 스파크 기반으로 빠른 답변용 인스턴트 모드와 더 깊은 추론을 위한 깊이 생각하기 모드, 사진·문서 분석 같은 멀티모달 기능을 제공한다.

ai-ml

마이크로소프트, 오픈AI 의존 줄이려고 인셉션 인수 검토

마이크로소프트가 스탠퍼드 연구팀 출신 AI 스타트업 인셉션 인수를 논의 중이라는 보도다. 오픈AI와의 독점적 관계가 느슨해지는 가운데, MS는 디퓨전 기반 텍스트 생성 기술과 자체 초대형 모델로 독자 AI 생태계를 강화하려는 분위기다.