본문으로 건너뛰기
피드

딥시크 첫 외부투자 추진, 한 달 만에 몸값 65조원까지 뛰었다

ai-ml 약 4분

중국 AI 스타트업 딥시크가 창업 후 처음으로 외부 투자 유치를 논의 중이며, 잠재 기업가치가 한 달 만에 약 29조원에서 65조원으로 뛰었다. 중국 정부 반도체 펀드와 알리바바·텐센트 같은 빅테크가 투자자로 거론되고, 배경에는 핵심 연구진 이탈 방지와 스톡옵션 재원 마련이 있다.

  • 1

    딥시크의 잠재 기업가치가 200억달러에서 450억달러로 급등했다.

  • 2

    창업자 량원펑은 지분 89.5%를 보유했고, 지금까지 외부 자금 없이 회사를 운영해왔다.

  • 3

    국가집적회로산업투자펀드, 알리바바, 텐센트가 투자 주체로 거론된다.

  • 딥시크가 창업 이후 처음으로 외부 투자 유치에 나섰다는 소식임.

    • 파이낸셜타임스 등 외신에 따르면, 딥시크는 외부 벤처캐피털(VC)을 통한 첫 자금 조달을 논의 중임.
    • 투자 논의 과정에서 잠재 기업가치가 한 달 만에 200억달러, 약 29조원에서 450억달러, 약 65조원으로 뛰었다고 함.
  • 딥시크는 2023년 헤지펀드 출신 량원펑이 세운 중국 AI 스타트업임.

    • 량원펑 대표가 지분 89.5%를 들고 있고, 지금까지는 외부 자금 조달 없이 회사를 굴려왔다는 점이 꽤 특이함.
    • 지난해 초 제한된 자원으로 OpenAI에 버금가는 추론 모델 DeepSeek R1을 공개하면서 이른바 “딥시크 쇼크”를 만들었음.
    • 지난달 말에는 최신 모델 DeepSeek V4를 선보였고, 모델 가중치를 공개한 오픈소스 모델 중 최고 수준이라는 평가를 받고 있음.

중요

> 딥시크의 몸값 상승은 단순 투자 뉴스라기보다, 고성능 오픈소스 AI 모델 경쟁이 이제 인재·자본·국가 지원이 붙는 산업전으로 커졌다는 신호에 가까움.

  • 이번 투자 유치의 직접적인 배경으로는 인재 이탈 우려가 꼽힘.

    • 최근 경쟁사들이 딥시크 연구진을 공격적으로 영입하기 시작했다고 함.
    • 량원펑 대표는 핵심 인재를 지키기 위해 스톡옵션 같은 보상 수단을 마련하려는 것으로 파악됨.
    • 외부 투자를 받으면 단순 운영자금뿐 아니라, 연구진 보상과 장기 개발 경쟁을 위한 재원이 생기는 셈임.
  • 첫 투자 라운드는 중국 정부의 반도체 투자기금인 국가집적회로산업투자펀드, 이른바 대기금이 주도할 가능성이 거론됨.

    • 알리바바와 텐센트 같은 중국 빅테크도 투자를 검토 중인 것으로 알려짐.
    • AI 모델 회사에 정부 펀드와 빅테크가 동시에 붙는 그림이라, 딥시크가 중국 AI 생태계의 전략적 축으로 다뤄지고 있다는 해석이 가능함.
  • 개발자 입장에서 봐야 할 포인트는 딥시크가 “싼데 성능 좋은 모델” 이미지를 넘어 자본력까지 갖출 수 있느냐임.

    • 오픈소스 모델의 경쟁력은 모델 파일 공개만으로 끝나지 않음.
    • 다음 모델 학습을 위한 컴퓨팅 자원, 연구진 유지, 생태계 확산, 기업 고객 대응까지 붙어야 오래 감.
    • 이번 투자가 성사되면 OpenAI, Google 같은 미국 AI 기업과의 격차를 좁히는 속도가 더 빨라질 수 있음.

기술 맥락

  • 이 기사에서 중요한 기술적 선택은 딥시크가 오픈소스 고성능 모델 전략을 계속 밀고 가기 위해 외부 자본을 받으려 한다는 점이에요. 왜냐면 대형 언어 모델(LLM)은 논문과 코드만으로 굴러가는 게 아니라 학습 비용, 추론 인프라, 연구자 보상이 계속 따라붙거든요.

  • DeepSeek R1과 V4가 의미 있는 이유는 제한된 자원으로도 추론 성능과 공개 모델 경쟁력을 보여줬기 때문이에요. 기업들이 이런 모델을 주목하는 건 API 비용을 줄이거나 자체 배포 가능성을 확보할 수 있어서예요.

  • 다만 오픈소스 모델 경쟁은 결국 사람 싸움이기도 해요. 핵심 연구진이 빠져나가면 모델 로드맵과 학습 노하우가 흔들릴 수 있기 때문에, 스톡옵션을 줄 수 있는 자본 구조가 기술 경쟁력 유지와 직접 연결돼요.

딥시크는 모델 성능만이 아니라 자본 구조에서도 새 국면에 들어가는 분위기다. 오픈소스 고성능 모델 경쟁이 연구실 싸움에서 인재 유지, 컴퓨팅 자원, 국가 자본이 얽힌 장기전으로 넘어가고 있다는 신호로 볼 만하다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.