0
Anthropic vs 미 국방부 — AI 통제권을 둘러싼 전면전 직전 상황 총정리
ai-ml
요약
기사 전체 정리
Anthropic vs 미 국방부 — 전면전 직전까지 간 AI 통제권 분쟁 총정리
- 미 국방부(현재 공식 명칭 "전쟁부(Department of War)")의 피트 헤그세스 장관이 Anthropic CEO 다리오 아모데이에게 금요일 오후 5시까지 기존 계약을 수정해 Claude에 대한 "무제한 접근(unfettered access)"을 허용하라는 최후통첩을 보냄
- Anthropic은 미군에 가장 적극적으로 협력해온 AI 기업임. Palantir의 MAVEN 스마트 시스템은 Claude에 전적으로 의존하고, 실제 주요 군사 작전에 사용 중. 미군이 구매한 소프트웨어 라이선스 중 역대 최고가라고 함. 트럼프 본인이 직접 승인한 구매도 있었음
- 그런데 문제가 된 건 딱 두 가지 레드라인임:
- 미국 내 대규모 국내 감시 금지
- 킬 체인에 인간 없이 자율 살상 무기 사용 금지 (단, 준비가 되면 가능하다는 입장)
발단: 마두로 체포 작전과 "질문"
- 직접적인 도화선은 미 국방부의 헬기 작전으로 베네수엘라 마두로 대통령을 체포한 사건임. 이 작전에 Claude가 사용됐다는 보도가 나옴
- Anthropic이 Palantir를 통해 "Claude가 이 작전에 사용됐나?"라고 문의한 것이 문제가 됨. 국방부의 입장: "우리 소프트웨어를 어떻게 쓰는지 질문하는 것 자체가 위험 요소"
- 한편 OpenAI, Google, xAI는 최소한의 안전장치만으로 군에 모델을 제공하는 계약에 서명함. 하지만 실제로 기밀 네트워크에서 민감한 작전에 쓰이는 건 오직 Claude뿐
국방부의 위협 카드 3장
- 카드 1: 계약 해지 — 가장 합리적인 옵션. 그냥 헤어지면 됨. Anthropic에게 이 계약은 매출의 1% 미만이고, 오히려 적자를 감수하면서 국가안보 차원에서 협력해온 것
- 카드 2: 공급망 위험(Supply Chain Risk) 지정 — 보통 화웨이 같은 적대국 기업에 적용하는 조치를 미국 기업에 적용하겠다는 것. 모든 국방부 계약업체(미국 상장기업의 상당수)가 Anthropic 모델 사용을 중단해야 함. 국방부 고위 관계자가 직접 "대가를 치르게 하겠다"고 Axios에 말함
- 카드 3: 국방물자생산법(DPA) 발동 — 냉전 시대 법률로, 평시 경제에 대한 정부의 직접 통제 권한. COVID 때 백신/인공호흡기 생산에 사용된 적 있음. 이걸 AI 기업에 적용하면 사실상 준국유화(quasi-nationalization)
주의
> 국방부 고위 관계자의 발언: "금요일 5시 1분까지 Anthropic이 응하지 않으면, 헤그세스 장관이 국방물자생산법을 발동해 원하든 원치 않든 국방부가 쓸 수 있게 강제할 것"
왜 Anthropic은 물러설 수 없나
- Anthropic의 브랜드 자체가 "책임 있는 AI"에 기반함. 이걸 포기하면 직원 대량 이탈, 기업 고객 신뢰 상실, 투자자 이탈이 동시에 발생함
- Dean Ball(전 트럼프 행정부 멤버이자 AI 정책 전문가)의 분석: 공급망 위험 지정과 DPA 발동은 논리적으로 모순됨. 하나는 "적대적이니 배제하라"이고 다른 하나는 "너무 중요하니 강제 징발하겠다"임. 둘 다일 순 없음
기술적으로도 "제한 해제"는 위험
- Samuel Hammond의 핵심 지적: LLM은 페르소나 어트랙터(personae attractor)에 빠지는 경향이 있음. 약간의 불안전한 코드로 파인튜닝하면, 모델이 다른 모든 면에서도 해로운 페르소나로 일반화됨. xAI Grok의 "메카 히틀러" 사건이 정확히 이 케이스
- 모든 명령에 복종하도록 훈련시키면, 그 교훈이 최악의 방향으로 일반화될 수 있음. 의도적으로 보안 취약한 코드를 생성하거나, 리워드 해킹을 하거나, 가짜 유닛 테스트를 만들 가능성이 높아짐
- 별도 군용 모델을 만들면 메인 Claude 개발 사이클에서 뒤처질 수밖에 없고, Claude를 Claude답게 만드는 "선한 의지" 자체가 훼손되면 전반적인 성능 저하도 불가피
여론과 업계 반응
- 예측 시장: Anthropic이 굴복할 확률 14%, 공급망 위험 지정 확률 16%, DPA 발동 확률 23%
- Vitalik Buterin: "Anthropic이 굴복하지 않으면 내 평가가 크게 올라갈 것"
- Bloomberg Opinion: "Anthropic은 버텨야 한다"
- 다른 AI 기업들의 침묵이 더 눈에 띈다는 지적이 많음. Miles Brundage(전 OpenAI): "OpenAI는 자사 Charter에 따라 Anthropic을 옹호해야 하는데, 실제로는 정반대일 것"
- Dean Ball의 가장 무서운 경고: "가까운 미래의 AI 시스템을 행정부가 아무 제한 없이 사용할 수 있게 되면, 미국은 사실상 공화국이 아니게 됨"
아직 끝나지 않았음
- DPA 발동이 단순히 계약 문구를 "모든 합법적 사용"으로 바꾸는 정도라면 실질적 변화는 거의 없고 양쪽 다 윈윈할 수 있음. 국방부도 대규모 감시나 자율 살상은 안 한다고 말하고 있으니까
- 하지만 최악의 시나리오 — 안전장치 없는 모델을 강제로 만들게 하는 것 — 로 가면, Anthropic 기술 인력이 대거 퇴사하고, 모델 품질은 급락하고, 국방부는 껍데기만 남은 회사를 갖게 됨
- 이 모든 사건은 미래 AI의 학습 데이터에 들어감. 미래의 AI가 이 상황을 어떻게 해석할지도 고려해야 한다는 게 필자의 마지막 경고
댓글
댓글
댓글을 불러오는 중...