---
title: "미 법원, DOGE의 인문학 보조금 취소는 위헌이라고 판결"
published: 2026-05-08T22:06:19.000Z
canonical: https://jeff.news/article/2533
---
# 미 법원, DOGE의 인문학 보조금 취소는 위헌이라고 판결

미국 연방 판사가 트럼프 행정부와 DOGE가 1억 달러가 넘는 인문학 보조금을 취소한 조치를 위헌이라고 봤다. 특히 정부가 ChatGPT를 이용해 보조금 사업을 DEI 관련으로 분류하고 자금을 끊은 방식이 강하게 비판받았다. AI를 행정 판단 도구로 썼더라도, 그 책임이 정부에서 사라지는 건 아니라는 점이 핵심이다.

- 미국 연방 법원이 트럼프 행정부의 인문학 보조금 대량 취소에 제동을 걸었음
  - 뉴욕 맨해튼의 콜린 맥마흔 연방지방법원 판사는 1억 달러가 넘는 보조금 취소가 위헌이라고 판단함
  - 취소 대상은 학자, 작가, 연구단체, 여러 기관에 지급되던 인문학 지원금이었고, 규모는 1,400건이 넘었음
  - 판사는 정부효율부(DOGE)가 이 자금을 끊을 법적 권한도 없었다고 봄

- 핵심 쟁점은 ‘새 정부가 예산 우선순위를 바꿀 수 있느냐’가 아니라, ‘마음에 안 드는 관점을 찍어내도 되느냐’였음
  - 정부 측은 트럼프 대통령 지시에 따라 재량 지출을 줄이고, 다양성·형평성·포용성(DEI) 관련 보조금을 없앤 합법적 조치라고 주장함
  - 하지만 법원은 DEI라는 이유로 보조금을 취소한 것이 “헌법에 어긋나는 관점 차별의 교과서적 사례”라고 표현함
  - 판사는 새 행정부가 합법적인 예산 우선순위를 추구할 수는 있지만, 싫어하는 아이디어를 억누를 권한은 없다고 선을 그었음

> [!IMPORTANT]
> 법원은 이 사건을 단순 예산 삭감이 아니라 표현의 자유와 평등보호권을 침해한 행정 조치로 봤음. ‘돈을 어디에 쓸지 정하는 문제’가 곧바로 ‘어떤 생각을 배제할 수 있는 권한’이 되지는 않는다는 얘기임.

- 개발자 입장에서 제일 흥미로운 대목은 정부가 ChatGPT를 보조금 취소 대상 분류에 썼다는 점임
  - 판결문에 따르면 정부 관계자들은 사업이 DEI 관련인지 분류하는 과정에서 ChatGPT를 활용했음
  - 예컨대 “홀로코스트의 그늘에서: 소비에트 유대인 작가들의 단편소설”이라는 선집까지 DEI로 분류된 사례가 언급됨
  - 판사는 이런 식의 AI 활용이 정부의 위헌적 행위를 정당화해주지 않는다고 못박았음

- 정부는 ‘관점 분류를 한 건 ChatGPT이지 정부가 아니다’라는 식으로 방어했지만, 법원은 받아들이지 않았음
  - 판사는 ChatGPT가 “정부가 선택한 도구”였다고 봄
  - 그래서 AI가 DEI 관련 자료를 골라냈다는 사실은 정부의 책임을 줄여주지 않는다고 판단함
  - 표현을 좀 세게 옮기면, “모델이 그랬어요”는 행정 책임 회피 카드가 아니라는 것임

- 보조금 취소는 2025년 4월에 발표됐고, 그 배경에는 트럼프 행정부의 DEI 폐지 행정명령과 DOGE 비용 효율화 행정명령이 있었음
  - 2025년 1월에는 “급진적이고 낭비적인 정부 DEI 프로그램과 우대 조치 종료”라는 행정명령이 나왔음
  - 2025년 2월에는 DOGE의 비용 효율화 구상을 실행하는 행정명령도 이어졌음
  - 이후 국립인문기금(NEH) 측은 수령자들에게 대통령 의제에 맞춰 자금 배분 방향을 바꾸기 때문에 보조금을 종료한다는 취지의 편지를 보냈음

- 원고 측은 이번 판결을 인문학 지원 제도의 회복뿐 아니라 헌법적 권리 확인으로 받아들이고 있음
  - 소송에는 작가조합, 미국학술단체협의회, 미국역사학회, 현대언어학회 등이 참여함
  - 이들은 의회가 부여한 NEH의 임무, 즉 자유로운 사고와 상상력, 탐구를 장려하는 역할이 행정부의 과잉 개입으로 무너질 수 없다고 봄
  - 작가조합 측 변호사는 이번 보조금 취소를 표현의 자유와 평등보호에 대한 직접 공격이라고 표현함

- 이 판결의 기술적 함의는 꽤 현실적임. AI를 의사결정 보조 도구로 쓰는 순간, 출력 품질만 문제가 아니라 책임 소재가 같이 따라옴
  - 특히 공공 행정, 채용, 심사, 금융, 교육처럼 사람의 권리나 기회가 걸린 영역에서는 LLM 분류 결과를 그대로 액션으로 연결하면 리스크가 큼
  - 모델이 어떤 기준으로 분류했는지, 사람이 어떻게 검토했는지, 이의제기 절차가 있는지가 핵심 통제 장치가 됨
  - 이번 사건은 ‘AI 도입’이 자동화 효율 프로젝트로만 끝나지 않고, 법·정책·감사 이슈까지 한 번에 따라온다는 걸 보여주는 꽤 좋은 사례임

## 핵심 포인트

- 미국 연방 법원이 1,400건 넘는 인문학 보조금 취소를 위헌으로 판단
- DOGE는 의회가 승인한 보조금을 취소할 법적 권한이 없다고 봄
- 정부가 ChatGPT로 DEI 관련 사업을 걸러낸 방식도 헌법 위반 책임을 피할 수 없다고 판단
- 판사는 특정 관점을 배제한 지원 중단을 표현의 자유 침해로 봄

## 인사이트

개발자 입장에선 ‘AI로 분류했으니 우리는 그냥 결과를 따른 것’이라는 변명이 법적으로 얼마나 약한지 보여주는 사례다. 공공기관이든 기업이든 LLM을 의사결정에 붙이는 순간, 모델 출력은 도구일 뿐 책임 회피 장치가 될 수 없다는 메시지가 꽤 세다.
