본문으로 건너뛰기
피드

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

ai-ml 약 4분

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

  • 1

    올트먼은 머스크가 오픈AI 이사회 의석 확대, 최고경영자 자리, 테슬라 자회사화 등을 원했다고 증언했다

  • 2

    머스크는 자신의 유명세와 자금 조달 능력을 근거로 지배권을 주장했고, “트윗 하나면 엄청난 가치가 생긴다”는 취지의 말을 했다고 전해졌다

  • 3

    오픈AI 공동창업자들은 범용 인공지능을 한 사람이 통제하는 구조가 미션에 맞지 않는다고 판단해 거절했다

  • 4

    머스크는 2018년 오픈AI를 떠났고, 분기마다 내던 500만 달러 기부도 중단했다

  • 샘 올트먼이 법정에서 꽤 센 증언을 꺼냄. 일론 머스크가 오픈AI를 장기적으로 지배하려 했고, 심지어 사망 후엔 그 지배권이 자녀에게 넘어갈 수도 있다는 식으로 말했다는 얘기임.

    • 증언 장소는 캘리포니아 오클랜드의 연방법원 배심원 앞.
    • 머스크는 현재 올트먼을 상대로 소송 중이고, 오픈AI가 비영리로 시작해놓고 사실상 자선 조직을 털어먹었다는 취지로 주장하고 있음.
  • 올트먼의 반박은 “머스크도 영리화를 원했다” 쪽에 가까움.

    • 올트먼에 따르면 당시 오픈AI의 큰 고민은 “더 많은 돈을 더 빨리 확보하는 것”이었음.
    • 머스크도 오픈AI가 더 전통적인 영리 기업 구조로 바뀌는 논의에 참여했고, 그 과정에서 본인이 통제권을 가져야 한다고 봤다는 게 올트먼 증언임.
  • 머스크가 원했다는 선택지는 꽤 노골적임.

    • 오픈AI 이사회 의석을 더 많이 확보하는 방안.
    • 본인이 최고경영자가 되는 방안.
    • 오픈AI를 테슬라의 자회사로 만드는 방안.
    • 자기 유명세로 자금 조달이 쉬워질 거라며 “내가 이걸 트윗 하나만 해도 바로 엄청난 가치가 생긴다”는 취지로 말했다고 올트먼은 회상함.

중요

> 이 사건의 핵심은 “누가 돈을 댔나”보다 “범용 인공지능(AGI)을 누가 통제하나”에 가까움. 올트먼은 오픈AI를 만든 이유 중 하나가 AGI를 한 사람이 통제하면 안 된다는 문제의식이었다고 말함.

  • 오픈AI 공동창업자들은 머스크에게 그런 통제권을 넘기는 게 미션에 맞지 않는다고 판단한 것으로 보임.

    • 올트먼은 그 제안이 “극도로 불편했다”고 증언함.
    • 그렉 브록먼, 일리야 수츠케버 등 공동창업자들과 함께 머스크에게 지배권을 넘기는 방식이 오픈AI의 목표나 AGI 추구에 도움이 되지 않는다고 봤다는 설명임.
  • 머스크는 결국 2018년 초 오픈AI를 떠났고, 돈줄도 끊음.

    • 그전까지 머스크는 분기마다 500만 달러를 기부하고 있었다고 기사에 나옴.
    • 올트먼은 머스크가 보낸 이메일 중 “나 없이는 오픈AI가 성공할 확률이 0%, 1%도 아니다”라는 취지의 문장이 기억에 박혀 있다고 말함.
  • 2019년 오픈AI가 영리 자회사를 만들 때도 머스크에게 투자 기회가 갔지만, 머스크는 거절했다고 함.

    • 올트먼에 따르면 머스크는 자신이 통제하지 않는 스타트업에는 더 이상 투자하지 않겠다고 말했다고 함.
    • 그래서 이번 법정 공방은 “오픈AI가 비영리 미션을 배신했나”라는 주장과 “머스크도 결국 지배 가능한 영리 구조를 원한 것 아니냐”는 반박이 정면으로 부딪히는 모양새임.

이 기사는 단순한 창업자 싸움이라기보다, 범용 인공지능 같은 초대형 기술을 누가 통제해야 하느냐는 질문을 법정 증언으로 드러낸 사례에 가깝다. 개발자 입장에선 모델 성능만큼이나 지배구조와 자본 구조가 AI 제품의 방향을 바꿀 수 있다는 걸 보여준다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.

ai-ml

한국과 UAE, AI 데이터센터·반도체 투자 협력 판 키운다

한국 정부와 UAE 투자·AI 기관들이 서울에서 AI 인프라와 반도체 투자포럼을 열고 협력 모델을 논의했다. 핵심은 저전력·고효율 AI 데이터센터, NPU 기반 인프라, 자국어 AI 모델 서비스, UAE 스타게이트 AI 데이터센터 캠퍼스 참여 같은 실질 프로젝트다.