본문으로 건너뛰기
피드

퓨리오사AI, 상장 전 투자 8천500억원까지 키움…레니게이드 양산에 베팅

ai-ml 약 5분

AI 반도체 팹리스 퓨리오사AI가 프리 IPO 투자 규모를 기존 7천500억원에서 8천억~8천500억원으로 확대한다. 투자금은 2세대 NPU 레니게이드 대량 양산과 2028년 목표의 3세대 칩 개발에 쓰일 예정이다.

  • 1

    퓨리오사AI의 프리 IPO 규모가 최대 8천500억원으로 확대됐고, 2027~2028년 상장을 계획 중

  • 2

    경쟁사 리벨리온의 6천400억원 프리 IPO보다 큰 규모이며, 정책 자금과 기존·신규 투자자가 함께 참여

  • 3

    투자금은 레니게이드 1만6천장 추가 생산과 3세대 칩 개발에 투입될 예정

  • 퓨리오사AI가 상장 전 투자 라운드 규모를 더 키움

    • 기존 프리 IPO 목표는 7천500억원
    • 최근 업계에 따르면 8천억~8천500억원으로 확대
    • 최대 1천억원이 추가되는 셈이고, 해외 전략적 투자자와 추가 자금 조달 방식도 논의 중
  • 투자자가 몰리는 이유는 단순함. 상장 전에 지분을 최대한 확보하려는 수요가 있다는 것

    • 퓨리오사AI는 2027~2028년 상장을 계획 중
    • 상장 국가는 아직 정해지지 않음
    • 기존 투자자, 신규 투자자, 국민성장펀드와 한국산업은행이 참여하는 정책 자금이 함께 들어오는 구조
    • 기존 투자자로는 산업은행, 케이스톤파트너스, 피아이파트너즈 등이 언급됨
  • 경쟁사 리벨리온과 비교해도 꽤 공격적인 규모임

    • 리벨리온은 3월 31일 프리 IPO로 6천400억원을 확보
    • 리벨리온도 원래 6천억원에서 6천400억원으로 늘렸고, 정책 자금 3천억원과 민간 자본 3천400억원이 들어감
    • 퓨리오사AI가 8천억~8천500억원까지 가면 국내 AI 반도체 스타트업 투자 라운드 중에서도 상당히 큰 축에 들어감

중요

> 이번 돈의 핵심 용도는 2세대 NPU 레니게이드 대량 양산임. 올해 카드 형태 제품 1만6천장을 추가 생산하고, 2028년 양산 목표의 3세대 칩 개발도 병행함.

  • 백준호 대표의 경영권은 이번 투자 이후에도 유지될 것으로 보임

    • 2024년 말 기준 백 대표 지분은 17.64%
    • 공동 창업자인 김한준 CTO 지분은 5.78%
    • 이후 브리지 투자 6차례로 총 3천565억원을 받았고, 당시 기업가치는 1조원 수준
    • 이번 투자 희석을 감안해도 백 대표 지분은 10%대를 유지할 것으로 예상됨
  • 레니게이드 생산 계획은 꽤 구체적으로 나와 있음

    • 지난 1월 카드 형태로 4천장을 인도받음
    • 올해 1만6천장을 추가 생산할 계획
    • 3세대 칩은 레니게이드를 개선한 제품으로 개발 중이고, 양산 목표는 2028년
  • 재무 쪽에서는 유동성 개선 효과도 큼

    • 2025년 말 기준 현금성자산은 약 531억원
    • 유동부채는 상환전환우선주를 포함해 1조4천711억원
    • 대규모 투자금이 들어오면 양산과 개발을 밀어붙일 체력이 생김
  • 국민성장펀드가 들어오는 것도 국내 AI 반도체 산업을 키우겠다는 정책 방향과 맞물림

    • 국민성장펀드는 총 150조원 규모의 민관 합동 투자 프로젝트
    • 정부는 AI와 AI 반도체 산업에 연간 10조원 수준, 총 50조원을 투입할 계획
    • 일반 투자자는 22일부터 국민성장펀드를 구매할 수 있음
  • 결국 퓨리오사AI의 다음 시험대는 기술력 발표가 아니라 양산과 매출임

    • AI 반도체는 칩을 만드는 것보다 실제 고객 워크로드에서 성능, 전력, 소프트웨어 생태계를 증명하는 게 더 어려움
    • 이번 투자 확대는 기대감이 크다는 신호지만, 레니게이드 물량이 실제 시장에서 얼마나 쓰이느냐가 진짜 승부처임

기술 맥락

  • 퓨리오사AI가 돈을 크게 모으는 이유는 NPU 사업이 연구개발만으로 끝나는 게임이 아니기 때문이에요. 칩을 설계한 뒤에는 생산 물량, 보드, 드라이버, 컴파일러, 고객 지원까지 한 번에 굴러가야 하거든요.

  • 레니게이드를 1만6천장 추가 생산한다는 건 시장 검증 단계로 넘어가겠다는 신호예요. AI 반도체는 벤치마크 숫자도 중요하지만, 실제 고객이 장비를 받아서 추론 비용을 줄일 수 있어야 의미가 생겨요.

  • 3세대 칩 양산 목표가 2028년인 것도 중요한 포인트예요. 지금 투자금은 당장 2세대 제품을 팔기 위한 돈이면서, 동시에 다음 세대 칩이 늦지 않게 나오도록 버티는 운영 자금이기도 해요.

  • 국내 AI 반도체 스타트업 입장에서는 엔비디아와 직접 정면승부하기보다 특정 추론 워크로드, 전력 효율, 국내 고객 접근성 같은 지점에서 틈을 만들어야 해요. 그래서 양산 규모와 고객 확보가 기술력만큼 중요해지는 거예요.

국내 AI 반도체 스타트업 경쟁이 기술 데모 단계를 지나 양산 자금 싸움으로 넘어가는 분위기임. 이제 중요한 건 멋진 칩 발표보다 실제 물량, 고객, 현금 흐름을 얼마나 만들 수 있느냐임.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.