---
title: "미 국방장관, 앤트로픽 CEO를 공개 저격한 이유"
published: 2026-04-30T20:05:02.320Z
canonical: https://jeff.news/article/1987
---
# 미 국방장관, 앤트로픽 CEO를 공개 저격한 이유

미국 국방부 장관이 앤트로픽의 AI 사용 제한 정책을 두고 CEO를 강하게 비난했다. 쟁점은 클로드를 미국 내 감시나 완전 자율무기에 쓸 수 있느냐, 그리고 군사용 AI 결정에 사람이 계속 개입하느냐다.

- 미국 국방부 장관이 앤트로픽을 작정하고 때렸음. 표현도 꽤 세다
  - 피트 헤그세스 장관은 상원 군사위원회 청문회에서 앤트로픽을 “이념적 미치광이가 운영한다”고 비난함
  - 이름을 직접 말하진 않았지만, 맥락상 다리오 아모데이 앤트로픽 CEO를 겨냥한 발언으로 보임

- 싸움의 핵심은 “AI 모델 회사가 군의 사용 방식을 어디까지 제한할 수 있냐”임
  - 앤트로픽은 클로드를 미국인을 대상으로 한 대규모 감시나 완전 자율무기에 쓰면 안 된다는 입장을 냈음
  - 헤그세스 장관은 이를 두고 “보잉이 비행기를 주면서 누구를 쏠 수 있는지 정하는 꼴”이라고 비유함

- 이 갈등은 그냥 말싸움이 아니라 실제 조달·사용 중단 이슈로 번졌음
  - 미 국방부는 지난 2월 앤트로픽을 “국가안보에 대한 공급망 위험” 기업으로 지정함
  - 도널드 트럼프 대통령도 모든 연방기관에 앤트로픽 기술 사용을 전면 중단하라고 지시함
  - 앤트로픽은 이에 반발해 소송을 냈음

- 그런데 최근엔 관계가 다시 풀릴 조짐도 있음
  - 아모데이 CEO가 17일 백악관을 방문해 수지 와일스 비서실장, 스콧 베선트 재무장관을 만났음
  - 백악관이 앤트로픽 AI 모델을 다시 쓰는 방향의 행정명령 초안을 준비 중이라는 보도도 나옴

> [!IMPORTANT]
> 이 이슈는 “AI가 군대에 쓰이냐”보다 더 구체적임. 모델 제공사가 약관으로 감시·무기 사용을 막을 수 있느냐가 핵심임.

- 청문회의 원래 질문은 더 직접적이었음. “AI가 살상 표적을 정할 때 사람이 최종 개입하냐”는 것
  - 재키 로젠 상원의원은 AI가 치명적 표적 지정 결정을 내릴 때 항상 인간 개입이 유지되는지 확인해달라고 요구함
  - 헤그세스 장관은 “우리는 법을 따르며, 인간이 결정을 내린다. AI가 치명적 결정을 내리지 않을 것”이라고 답함

- 개발자 관점에서 보면, 이건 AI 안전 정책이 제품 정책을 넘어 조달 리스크가 되는 장면임
  - 모델 성능만 좋아서는 공공·국방 시장에 들어가기 어려움
  - 반대로 공급사가 사용처 통제를 너무 세게 걸면, 정부 입장에서는 “중요 시스템을 외부 회사 약관에 묶는 것”으로 볼 수 있음
  - 앞으로 고위험 AI 서비스는 API 성능보다 사용 제한, 감사 가능성, 책임 소재가 더 큰 계약 조건이 될 가능성이 큼

## 핵심 포인트

- 앤트로픽은 클로드를 대규모 감시나 완전 자율무기에 쓰는 것을 제한해 왔다
- 미 국방부는 이를 국가안보 공급망 리스크로 보고 강하게 반발했다
- 청문회에서 국방장관은 치명적 결정은 AI가 아니라 사람이 내린다고 답했다

## 인사이트

AI 모델 제공사가 군사·감시 용도를 어디까지 통제할 수 있느냐가 본격적인 정책 싸움으로 번진 사례다. 개발자 입장에서도 모델 약관이 단순한 법무 문서가 아니라 실제 배포 가능성을 좌우하는 인프라 조건이 됐다는 점이 핵심이다.
