계약서로 군사 AI 정책을 만든다고? 조달 프레임워크의 구조적 한계
요약
기사 전체 정리
계약서로 AI 군사정책을 만든다고? 조달 프레임워크의 구조적 한계
펜타곤이 Anthropic을 공급망 리스크로 지정하고, OpenAI가 몇 시간 만에 계약을 따내고, 그 사이 Claude는 이란 작전에서 여전히 쓰이고 있음. 이 혼란의 본질은 "실리콘밸리 vs 국방부"가 아니라, 조달 계약이라는 프레임워크가 감당할 수 없는 질문들을 억지로 떠안고 있다는 구조적 문제임.
Anthropic 공급망 리스크 지정: 무슨 일이 있었나
2월 27일, 펜타곤은 미국 정부 기밀 네트워크에 최초로 투입된 프론티어 AI 기업 Anthropic을 국가안보 공급망 리스크로 지정함. 트럼프 대통령은 모든 연방기관에 Anthropic 기술 사용 즉각 중단을 지시했고, 사실상 정부 전체에서 배제하는 결과가 됨.
그런데 아이러니한 건, 이 와중에도 Claude는 Palantir의 Maven Smart System을 통해 이란 작전에서 타격 대상을 제안하는 데 계속 사용되고 있었다는 것임 (워싱턴포스트 보도).
Anthropic은 캘리포니아 북부지방법원에 소송을 제기해 이 지정에 대해 다투고 있음.
위기의 출발점: 헤그세스의 "any lawful use" 메모
올해 1월, 피트 헤그세스 국방장관은 AI 전략 메모를 발표함. 핵심 내용은 이것임:
180일 이내에 모든 국방부 AI 조달 계약에 "any lawful use"(합법적인 모든 용도) 표준 문구를 넣으라.
이 메모는 벤더의 사용 제한을 넘어서 기술적 안전장치(safety guardrails)와 거부 행동(refusal behavior)까지도 제거 대상으로 봄. "충분히 빠르게 움직이지 못하는 리스크가 불완전한 정렬(alignment)의 리스크보다 크다"는 논리임.
Anthropic은 기존 계약에서 대규모 국내 감시(mass domestic surveillance)와 완전 자율 무기(fully autonomous weapons)를 명시적으로 금지하는 레드라인을 고수했음. 헤그세스 메모의 "any lawful use" 방침과 정면충돌하게 된 것임. Anthropic이 레드라인 철회를 거부하자, 헤그세스는 공급망 리스크 지정을 지시함.
OpenAI의 계약: 몇 시간 만에 성사된 딜
헤그세스가 Anthropic 지정을 소셜미디어에 발표한 지 불과 몇 시간 만에, OpenAI가 펜타곤과의 계약을 발표함.
이 계약은 며칠 만에 협상된 것이었고, 샘 알트만 CEO도 나중에 "성급했고(rushed), 기회주의적이고 조잡해 보였다(looked opportunistic and sloppy)"고 인정함.
주목할 점은 OpenAI가 계약의 법적 형태(vehicle)를 공개하지 않았다는 것임. OT(Other Transaction)인지, FAR 기반 계약인지, 프라임 인테그레이터와의 별도 상업 계약인지 알 수 없음. 이건 단순한 형식 문제가 아님 — 계약 유형에 따라 분쟁 해결 메커니즘, 해지 권한, 구제 수단이 완전히 달라짐.
Anthropic vs OpenAI: 접근법의 핵심 차이
두 회사의 접근법 차이는 결국 **"누가 해석 권한을 갖느냐"**의 문제임:
- Anthropic: 대규모 국내 감시와 완전 자율 무기에 대해 명시적 계약상 금지 조항을 넣고, 벤더가 이 제한을 집행할 수 있는 권한을 유지하려 함
- OpenAI: 유사한 가드레일을 기존 법적 권한(수정헌법 4조, FISA, 국가안보법 등)에 대한 참조로 정의하고, 해석 재량권은 정부에 둠
이 차이가 왜 중요하냐면 — "any lawful use" 환경에서 정부가 첫 번째이자 종종 유일한 해석자이기 때문임. 오늘은 양측이 수정헌법 4조의 의미에 합의할 수 있지만, 그 합의는 정부의 해석이 바뀌지 않는 한에서만 유효함. 계약자의 구제 수단은 사후적 분쟁 절차뿐이고, 문제된 사용이 발생한 뒤 몇 달에서 몇 년이 걸림.
"intentionally"라는 단어의 함정
3월 2일, 알트만은 X에 내부 메모를 공개하며 수정 조항을 발표함:
"수정헌법 4조, 1947년 국가안보법, 1978년 FISA법 등 관련 법률에 부합하게(consistent with applicable laws), AI 시스템은 미국인 및 국민에 대한 국내 감시에 의도적으로(intentionally) 사용되어서는 안 됨."
여기서 "intentionally"가 핵심 문제임. "국내 감시"가 정의되지 않은 상태에서, 이 수식어는 금지 조항을 사실상 무력화할 수 있음:
- 미국인을 의도적으로 모니터링하는 경우만 해당하는 건지?
- 더 넓은 작업의 부수적 수집(incidental collection) 결과로 개인 정보가 생성되는 경우는 해당하지 않는 건지?
결국 사용 사례를 어떻게 규정하느냐에 따라 준수 여부가 달라지는 구조가 됨. "의도적" 한정어가 금지 조항 자체를 삼켜버릴 수 있다는 분석임.
정부는 일반적인 계약 상대방이 아님
연방 계약에서 정부는 고유한 권한을 가짐:
- 편의에 의한 일방적 해지(termination for convenience) 가능
- 변경 지시(changes directive) 권한 보유
- 계약자는 이의가 있어도 먼저 이행을 계속하고 나중에 구제를 구해야 함 (대부분 금전적 구제)
- OT 계약의 경우 CDA(Contract Disputes Act) 적용도 안 됨
워싱턴포스트에 따르면, 군 사령관들이 Claude에 너무 의존하게 되어, Anthropic이 사용 중단을 지시하더라도 행정부는 "정부 권한"을 동원해 대체재가 준비될 때까지 기술을 보유할 것이라고 함.
해지(termination)는 거버넌스의 대체재가 아님. 해지란 기술 전체를 철수하는 것이지, 계약 존속 중에 정부가 계약자가 부적절하다고 보는 목적으로 시스템을 사용하는 것을 막는 수단이 아님.
알트만의 솔직한 발언들
이번 주 전체 회의에서 알트만은 직원들에게 이렇게 말함:
"여러분은 작전적 결정을 내릴 수 없습니다(You do not get to make operational decisions)."
펜타곤은 OpenAI의 기술적 전문성은 듣겠지만, 특정 군사 행동이 좋은 아이디어인지 나쁜 아이디어인지에 대한 의견은 원하지 않는다는 것임.
Safety stack에 대해서도 알트만은 현실적이었음:
"우리가 최고의 모델을 가지고 있으면 정부가 우리의 safety stack이 짜증나더라도 기꺼이 우리와 함께 일할 것이라 믿음."
그리고 경쟁 압력의 한계도 인정함:
"적어도 하나의 다른 행위자가 있을 것인데, xAI일 거라 생각함. 그들은 사실상 '원하는 거 다 해줄게'라고 할 것."
진짜 문제: 조달은 공공법의 대체재가 아님
이 기사의 핵심 논지는 이것임 — 조달/계약 프레임워크는 국내 감시, 자율 무기, 정보 감독을 규율하도록 설계된 적이 없음.
현재 벌어지고 있는 일의 구조를 정리하면:
- 국내 감시, 치명적 타격, 정보 감독 같은 문제가 양자간 조달 협상을 통해 다뤄지고 있음
- 이 협상의 결과물인 계약상 제한은 수정, 축소, 재해석될 수 있음
- 집행은 대부분 **사후적(post hoc)**임
- 수정헌법 4조, FISA, 정보활동 관련 행정명령 등 기존 법적 권한은 계약과 무관하게 정부 행위에 적용되지만, 이를 새로운 AI 역량에 어떻게 적용할지는 공적인 법적·정책적 과정이 아닌 양자간 조달 협상에서 결정되고 있음
행정부는 FAR 41년 역사상 가장 큰 개혁을 추진 중임 — 상업 우선, 더 빠르고 유연한 조달, 비법정 조달 요건 전면 축소. 규제 인프라를 제거할수록 개별 계약 조건에 더 많은 무게가 실리는데, 이번 주는 그 제약이 불편해지면 어떻게 되는지를 보여줌.
결론
"Any lawful use"는 "any lawful use"임. 정부가 무엇이 합법인지 해석하고, 그 해석에 따라 행동하며, 계약자가 이의를 제기하면 어떻게 되는지를 이미 보여줬음. 이 질문들은 의회와 법원에서 답해야 하는 것이지, 그걸 감당하도록 만들어진 적 없는 조달 프레임워크에서 답할 문제가 아님.
법률 전문가들이 꾸준히 제기해온 문제지만, Anthropic-펜타곤-OpenAI 대치 상황이 새로운 긴급성을 더한 것임. 기술 기업의 계약 조건이나 safety stack이 아니라, 입법을 통한 공적 거버넌스가 필요하다는 게 이 기사의 결론임.
댓글
댓글
댓글을 불러오는 중...