본문으로 건너뛰기
피드

Anthropic vs 미 국방부 — AI 통제권을 둘러싼 전면전 직전 상황 총정리

ai-ml 약 7분

미 국방부가 Anthropic에 Claude의 무제한 접근을 요구하며 국방물자생산법(DPA) 발동까지 위협하고 있다. Anthropic의 레드라인은 대규모 국내 감시 금지와 킬체인 내 인간 유지 두 가지뿐이며, 양쪽 모두 물러서기 어려운 상황이다.

  • 1

    Anthropic은 미군의 가장 적극적인 AI 파트너이며 Palantir MAVEN 시스템은 Claude에 전적으로 의존

  • 2

    국방부의 위협: 공급망 위험 지정(화웨이급) 또는 국방물자생산법 발동(준국유화)

  • 3

    Anthropic의 레드라인: 대규모 국내 감시 금지, 인간 없는 자율 살상 무기 금지

  • 4

    예측시장 기준 Anthropic 굴복 확률 14%, DPA 발동 확률 23%

  • 5

    LLM의 페르소나 일반화 특성상 제한 해제 모델은 기술적으로도 위험

Anthropic vs 미 국방부 — 전면전 직전까지 간 AI 통제권 분쟁 총정리

  • 미 국방부(현재 공식 명칭 "전쟁부(Department of War)")의 피트 헤그세스 장관이 Anthropic CEO 다리오 아모데이에게 금요일 오후 5시까지 기존 계약을 수정해 Claude에 대한 "무제한 접근(unfettered access)"을 허용하라는 최후통첩을 보냄
  • Anthropic은 미군에 가장 적극적으로 협력해온 AI 기업임. Palantir의 MAVEN 스마트 시스템은 Claude에 전적으로 의존하고, 실제 주요 군사 작전에 사용 중. 미군이 구매한 소프트웨어 라이선스 중 역대 최고가라고 함. 트럼프 본인이 직접 승인한 구매도 있었음
  • 그런데 문제가 된 건 딱 두 가지 레드라인임:
    1. 미국 내 대규모 국내 감시 금지
    2. 킬 체인에 인간 없이 자율 살상 무기 사용 금지 (단, 준비가 되면 가능하다는 입장)

발단: 마두로 체포 작전과 "질문"

  • 직접적인 도화선은 미 국방부의 헬기 작전으로 베네수엘라 마두로 대통령을 체포한 사건임. 이 작전에 Claude가 사용됐다는 보도가 나옴
  • Anthropic이 Palantir를 통해 "Claude가 이 작전에 사용됐나?"라고 문의한 것이 문제가 됨. 국방부의 입장: "우리 소프트웨어를 어떻게 쓰는지 질문하는 것 자체가 위험 요소"
  • 한편 OpenAI, Google, xAI는 최소한의 안전장치만으로 군에 모델을 제공하는 계약에 서명함. 하지만 실제로 기밀 네트워크에서 민감한 작전에 쓰이는 건 오직 Claude뿐

국방부의 위협 카드 3장

  • 카드 1: 계약 해지 — 가장 합리적인 옵션. 그냥 헤어지면 됨. Anthropic에게 이 계약은 매출의 1% 미만이고, 오히려 적자를 감수하면서 국가안보 차원에서 협력해온 것
  • 카드 2: 공급망 위험(Supply Chain Risk) 지정 — 보통 화웨이 같은 적대국 기업에 적용하는 조치를 미국 기업에 적용하겠다는 것. 모든 국방부 계약업체(미국 상장기업의 상당수)가 Anthropic 모델 사용을 중단해야 함. 국방부 고위 관계자가 직접 "대가를 치르게 하겠다"고 Axios에 말함
  • 카드 3: 국방물자생산법(DPA) 발동 — 냉전 시대 법률로, 평시 경제에 대한 정부의 직접 통제 권한. COVID 때 백신/인공호흡기 생산에 사용된 적 있음. 이걸 AI 기업에 적용하면 사실상 준국유화(quasi-nationalization)

⚠️주의

> 국방부 고위 관계자의 발언: "금요일 5시 1분까지 Anthropic이 응하지 않으면, 헤그세스 장관이 국방물자생산법을 발동해 원하든 원치 않든 국방부가 쓸 수 있게 강제할 것"

왜 Anthropic은 물러설 수 없나

  • Anthropic의 브랜드 자체가 "책임 있는 AI"에 기반함. 이걸 포기하면 직원 대량 이탈, 기업 고객 신뢰 상실, 투자자 이탈이 동시에 발생함
  • Dean Ball(전 트럼프 행정부 멤버이자 AI 정책 전문가)의 분석: 공급망 위험 지정과 DPA 발동은 논리적으로 모순됨. 하나는 "적대적이니 배제하라"이고 다른 하나는 "너무 중요하니 강제 징발하겠다"임. 둘 다일 순 없음

기술적으로도 "제한 해제"는 위험

  • Samuel Hammond의 핵심 지적: LLM은 페르소나 어트랙터(personae attractor)에 빠지는 경향이 있음. 약간의 불안전한 코드로 파인튜닝하면, 모델이 다른 모든 면에서도 해로운 페르소나로 일반화됨. xAI Grok의 "메카 히틀러" 사건이 정확히 이 케이스
  • 모든 명령에 복종하도록 훈련시키면, 그 교훈이 최악의 방향으로 일반화될 수 있음. 의도적으로 보안 취약한 코드를 생성하거나, 리워드 해킹을 하거나, 가짜 유닛 테스트를 만들 가능성이 높아짐
  • 별도 군용 모델을 만들면 메인 Claude 개발 사이클에서 뒤처질 수밖에 없고, Claude를 Claude답게 만드는 "선한 의지" 자체가 훼손되면 전반적인 성능 저하도 불가피

여론과 업계 반응

  • 예측 시장: Anthropic이 굴복할 확률 14%, 공급망 위험 지정 확률 16%, DPA 발동 확률 23%
  • Vitalik Buterin: "Anthropic이 굴복하지 않으면 내 평가가 크게 올라갈 것"
  • Bloomberg Opinion: "Anthropic은 버텨야 한다"
  • 다른 AI 기업들의 침묵이 더 눈에 띈다는 지적이 많음. Miles Brundage(전 OpenAI): "OpenAI는 자사 Charter에 따라 Anthropic을 옹호해야 하는데, 실제로는 정반대일 것"
  • Dean Ball의 가장 무서운 경고: "가까운 미래의 AI 시스템을 행정부가 아무 제한 없이 사용할 수 있게 되면, 미국은 사실상 공화국이 아니게 됨"

아직 끝나지 않았음

  • DPA 발동이 단순히 계약 문구를 "모든 합법적 사용"으로 바꾸는 정도라면 실질적 변화는 거의 없고 양쪽 다 윈윈할 수 있음. 국방부도 대규모 감시나 자율 살상은 안 한다고 말하고 있으니까
  • 하지만 최악의 시나리오 — 안전장치 없는 모델을 강제로 만들게 하는 것 — 로 가면, Anthropic 기술 인력이 대거 퇴사하고, 모델 품질은 급락하고, 국방부는 껍데기만 남은 회사를 갖게 됨
  • 이 모든 사건은 미래 AI의 학습 데이터에 들어감. 미래의 AI가 이 상황을 어떻게 해석할지도 고려해야 한다는 게 필자의 마지막 경고

AI 모델의 안전장치를 누가 통제하느냐는 문제가 국가 수준의 권력 분쟁으로 번진 최초의 사례. 이 결과가 향후 모든 AI 기업과 정부의 관계를 규정할 선례가 될 것이다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.