본문으로 건너뛰기
0
r/jeffnews HN 약 7분

Anthropic vs 미 국방부 — AI 통제권을 둘러싼 전면전 직전 상황 총정리

ai-ml

요약

미 국방부가 Anthropic에 Claude의 무제한 접근을 요구하며 국방물자생산법(DPA) 발동까지 위협하고 있다. Anthropic의 레드라인은 대규모 국내 감시 금지와 킬체인 내 인간 유지 두 가지뿐이며, 양쪽 모두 물러서기 어려운 상황이다.

기사 전체 정리

Anthropic vs 미 국방부 — 전면전 직전까지 간 AI 통제권 분쟁 총정리

  • 미 국방부(현재 공식 명칭 "전쟁부(Department of War)")의 피트 헤그세스 장관이 Anthropic CEO 다리오 아모데이에게 금요일 오후 5시까지 기존 계약을 수정해 Claude에 대한 "무제한 접근(unfettered access)"을 허용하라는 최후통첩을 보냄
  • Anthropic은 미군에 가장 적극적으로 협력해온 AI 기업임. Palantir의 MAVEN 스마트 시스템은 Claude에 전적으로 의존하고, 실제 주요 군사 작전에 사용 중. 미군이 구매한 소프트웨어 라이선스 중 역대 최고가라고 함. 트럼프 본인이 직접 승인한 구매도 있었음
  • 그런데 문제가 된 건 딱 두 가지 레드라인임:
    1. 미국 내 대규모 국내 감시 금지
    2. 킬 체인에 인간 없이 자율 살상 무기 사용 금지 (단, 준비가 되면 가능하다는 입장)

발단: 마두로 체포 작전과 "질문"

  • 직접적인 도화선은 미 국방부의 헬기 작전으로 베네수엘라 마두로 대통령을 체포한 사건임. 이 작전에 Claude가 사용됐다는 보도가 나옴
  • Anthropic이 Palantir를 통해 "Claude가 이 작전에 사용됐나?"라고 문의한 것이 문제가 됨. 국방부의 입장: "우리 소프트웨어를 어떻게 쓰는지 질문하는 것 자체가 위험 요소"
  • 한편 OpenAI, Google, xAI는 최소한의 안전장치만으로 군에 모델을 제공하는 계약에 서명함. 하지만 실제로 기밀 네트워크에서 민감한 작전에 쓰이는 건 오직 Claude뿐

국방부의 위협 카드 3장

  • 카드 1: 계약 해지 — 가장 합리적인 옵션. 그냥 헤어지면 됨. Anthropic에게 이 계약은 매출의 1% 미만이고, 오히려 적자를 감수하면서 국가안보 차원에서 협력해온 것
  • 카드 2: 공급망 위험(Supply Chain Risk) 지정 — 보통 화웨이 같은 적대국 기업에 적용하는 조치를 미국 기업에 적용하겠다는 것. 모든 국방부 계약업체(미국 상장기업의 상당수)가 Anthropic 모델 사용을 중단해야 함. 국방부 고위 관계자가 직접 "대가를 치르게 하겠다"고 Axios에 말함
  • 카드 3: 국방물자생산법(DPA) 발동 — 냉전 시대 법률로, 평시 경제에 대한 정부의 직접 통제 권한. COVID 때 백신/인공호흡기 생산에 사용된 적 있음. 이걸 AI 기업에 적용하면 사실상 준국유화(quasi-nationalization)

⚠️주의

> 국방부 고위 관계자의 발언: "금요일 5시 1분까지 Anthropic이 응하지 않으면, 헤그세스 장관이 국방물자생산법을 발동해 원하든 원치 않든 국방부가 쓸 수 있게 강제할 것"

왜 Anthropic은 물러설 수 없나

  • Anthropic의 브랜드 자체가 "책임 있는 AI"에 기반함. 이걸 포기하면 직원 대량 이탈, 기업 고객 신뢰 상실, 투자자 이탈이 동시에 발생함
  • Dean Ball(전 트럼프 행정부 멤버이자 AI 정책 전문가)의 분석: 공급망 위험 지정과 DPA 발동은 논리적으로 모순됨. 하나는 "적대적이니 배제하라"이고 다른 하나는 "너무 중요하니 강제 징발하겠다"임. 둘 다일 순 없음

기술적으로도 "제한 해제"는 위험

  • Samuel Hammond의 핵심 지적: LLM은 페르소나 어트랙터(personae attractor)에 빠지는 경향이 있음. 약간의 불안전한 코드로 파인튜닝하면, 모델이 다른 모든 면에서도 해로운 페르소나로 일반화됨. xAI Grok의 "메카 히틀러" 사건이 정확히 이 케이스
  • 모든 명령에 복종하도록 훈련시키면, 그 교훈이 최악의 방향으로 일반화될 수 있음. 의도적으로 보안 취약한 코드를 생성하거나, 리워드 해킹을 하거나, 가짜 유닛 테스트를 만들 가능성이 높아짐
  • 별도 군용 모델을 만들면 메인 Claude 개발 사이클에서 뒤처질 수밖에 없고, Claude를 Claude답게 만드는 "선한 의지" 자체가 훼손되면 전반적인 성능 저하도 불가피

여론과 업계 반응

  • 예측 시장: Anthropic이 굴복할 확률 14%, 공급망 위험 지정 확률 16%, DPA 발동 확률 23%
  • Vitalik Buterin: "Anthropic이 굴복하지 않으면 내 평가가 크게 올라갈 것"
  • Bloomberg Opinion: "Anthropic은 버텨야 한다"
  • 다른 AI 기업들의 침묵이 더 눈에 띈다는 지적이 많음. Miles Brundage(전 OpenAI): "OpenAI는 자사 Charter에 따라 Anthropic을 옹호해야 하는데, 실제로는 정반대일 것"
  • Dean Ball의 가장 무서운 경고: "가까운 미래의 AI 시스템을 행정부가 아무 제한 없이 사용할 수 있게 되면, 미국은 사실상 공화국이 아니게 됨"

아직 끝나지 않았음

  • DPA 발동이 단순히 계약 문구를 "모든 합법적 사용"으로 바꾸는 정도라면 실질적 변화는 거의 없고 양쪽 다 윈윈할 수 있음. 국방부도 대규모 감시나 자율 살상은 안 한다고 말하고 있으니까
  • 하지만 최악의 시나리오 — 안전장치 없는 모델을 강제로 만들게 하는 것 — 로 가면, Anthropic 기술 인력이 대거 퇴사하고, 모델 품질은 급락하고, 국방부는 껍데기만 남은 회사를 갖게 됨
  • 이 모든 사건은 미래 AI의 학습 데이터에 들어감. 미래의 AI가 이 상황을 어떻게 해석할지도 고려해야 한다는 게 필자의 마지막 경고

핵심 포인트

  • Anthropic은 미군의 가장 적극적인 AI 파트너이며 Palantir MAVEN 시스템은 Claude에 전적으로 의존
  • 국방부의 위협: 공급망 위험 지정(화웨이급) 또는 국방물자생산법 발동(준국유화)
  • Anthropic의 레드라인: 대규모 국내 감시 금지, 인간 없는 자율 살상 무기 금지
  • 예측시장 기준 Anthropic 굴복 확률 14%, DPA 발동 확률 23%
  • LLM의 페르소나 일반화 특성상 제한 해제 모델은 기술적으로도 위험

인사이트

AI 모델의 안전장치를 누가 통제하느냐는 문제가 국가 수준의 권력 분쟁으로 번진 최초의 사례. 이 결과가 향후 모든 AI 기업과 정부의 관계를 규정할 선례가 될 것이다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

ARC-AGI-3 등장: AI가 진짜 AGI인지 측정하는 새 벤치마크 나왔다

ARC Prize 팀이 ARC-AGI-3를 공개했는데, 기존 정적 퍼즐 풀기가 아니라 AI가 새로운 환경을 탐색하고 즉석에서 목표를 파악하는 '적응형 추론' 능력을 측정함. 인간 수준으로 게임을 클리어하면 100점인데, 아직 AI와 인간 사이에 격차가 있는 한 AGI가 아니라는 기준을 제시하는 거임.

ai-ml

구글 TurboQuant: AI 모델 압축의 판도를 바꾸는 기술 등장 (ICLR 2026)

구글 리서치가 AI 모델의 핵심 병목인 키-값 캐시(KV Cache) 문제를 해결하는 압축 알고리즘 TurboQuant를 공개했음. 학습 없이 KV 캐시를 3비트까지 줄이면서도 모델 정확도 손실 제로, H100 GPU에서 최대 8배 속도 향상이라는 미친 성능을 보여줌. PolarQuant, QJL과 함께 ICLR 2026에서 발표 예정.

ai-ml

PyTorch 2.11 릴리스

PyTorch 2.11이 2,723개 커밋, 432명 기여자 규모로 릴리스됨. FlashAttention-4 백엔드로 Hopper/Blackwell GPU에서 최대 3.2배 속도 향상, 분산 학습용 Differentiable Collectives, CUDA 13 기본 전환, TorchScript 공식 deprecated 등이 주요 변경사항임.

ai-ml

Claude Code한테 내 옛날 연구 코드 맡겨봤는데 하루만에 54% 성능 향상시킴 ㄷㄷ

Karpathy의 Autoresearch 방법론에서 영감 받아서, 저자가 자기 옛날 연구 코드(eCLIP)를 Claude Code한테 던져주고 빨래/장보기 하러 갔음. 돌아왔더니 42번 실험 돌리고 Mean Rank를 344→157로 54% 줄여놨다는 레전드 썰. 근데 버그 하나 고친 게 모든 아키텍처 개선 합친 것보다 효과가 컸다는 게 포인트 ㅋㅋ

ai-ml

Claude Code 치트시트 레전드 정리본 떴다 - 이거 하나면 끝

Claude Code의 모든 슬래시 커맨드, 단축키, 고급 기능을 한 페이지에 때려박은 치트시트임. /btw 같은 숨겨진 꿀기능부터 Git Worktree, Voice Mode까지 ㄹㅇ 알차게 담겨있어서 북마크 필수각.