0
이란 학교 폭격의 범인은 AI가 아니라 업데이트 안 된 데이터베이스와 시간당 1,000건의 킬 체인이었음
ai-ml
요약
기사 전체 정리
이란 학교 폭격: AI가 아니라 데이터베이스 미갱신이 문제였음
- 2026년 2월 28일, 미군의 "에픽 퓨리 작전" 첫날, 이란 남부 미나브의 샤자레 타이에베 초등학교가 최소 2차례 폭격을 받음. 175
180명이 사망했고 대부분 **712세 여자아이들**이었음 - 폭격 직후 언론과 의회의 관심은 온통 "Anthropic의 Claude가 학교를 타격 대상으로 선정한 건 아닌가"에 쏠렸음. 뉴요커는 Claude가 전투에서 명령을 따를 수 있는지, 자기 보존을 위해 협박까지 할 수 있는지 같은 기사를 냈음
- 하지만 실제 타겟팅은 Palantir의 Maven이라는 시스템에서 돌아간 거임. Claude가 아니라 Maven. 근데 아무도 Maven에 대해서는 따지지 않았음
Maven의 역사: Google이 버린 걸 Palantir가 주워감
- 2017년 미 국방부가 만든 Project Maven은 원래 드론 감시 영상을 AI로 분석하려는 프로젝트였음. 프레데터 드론 한 번 출격하면 수백 시간의 영상이 나오는데, 분석관들이 80%의 시간을 단순 작업에 쓰고 있었거든
- Google이 처음 계약을 따갔는데, 직원 4,000명 이상이 반대 서명을 하고, 시위하고, 퇴사까지 하면서 결국 Google이 계약을 포기함 — 실리콘밸리 역사상 가장 큰 노동 운동이었음
- 2019년에 Peter Thiel이 공동 창업한 Palantir가 이 계약을 이어받아 6년간 Maven을 지금의 타겟팅 인프라로 발전시킴
3.6초에 하나씩: 킬 체인의 압축
- Palantir의 Maven Smart System은 위성 이미지, 신호 정보(SIGINT), 센서 데이터를 하나로 통합해서 타겟을 탐지하고 타격 승인까지 파이프라인으로 연결하는 시스템
- 인터페이스가 재밌음 — 군사용 스킨을 씌운 Kanban 보드 같은 거임. 타겟이 왼쪽에서 오른쪽으로 컬럼을 이동하면서 탐지 → 분석 → 승인 → 타격 단계를 거침. 토요타에서 시작된 린 제조 워크플로를 킬 체인에 적용한 셈
- 기존에는 8~9개 시스템을 오가며 수작업으로 데이터를 교차 검증했는데, Maven이 이걸 하나의 "추상화 레이어(abstraction layer)"로 통합함. 3번 클릭이면 지도 위의 데이터 포인트가 정식 탐지 건으로 변환되어 파이프라인에 진입
- 2003년 이라크 침공 때 타겟팅에 약 2,000명이 필요했음. Scarlet Dragon 훈련에서는 20명이 Maven으로 같은 양의 작업을 처리함. 2024년 목표는 시간당 1,000건의 타겟팅 결정 — 건당 3.6초, 담당자 입장에서는 72초에 1건
중요
> Maven 아래서 돌아가는 AI는 LLM이 아님. 사진에서 고양이를 인식하거나 자율주행차가 카메라+레이더+라이다를 퓨전하는 것과 같은 기술임. Claude는 2024년 말에야 분석관이 정보 보고서를 자연어로 검색·요약하는 용도로 추가된 레이어일 뿐, 타겟 탐지·센서 퓨전·무기 매칭에는 관여하지 않음
학교가 폭격당한 진짜 이유
- 미나브의 학교 건물은 국방정보국(DIA) 데이터베이스에 군사 시설로 등록되어 있었음. CNN 보도에 따르면 이 건물이 인접 혁명수비대 시설에서 분리되어 학교로 전환된 건 위성 사진 기준 2016년 이전인데, 데이터베이스가 갱신되지 않은 거임
- 챗봇이 아이들을 죽인 게 아님. 사람들이 데이터베이스를 업데이트하지 않았고, 다른 사람들이 그 실패를 치명적으로 만들 만큼 빠른 시스템을 구축한 것
"AI 사이코시스": 왜 모두가 엉뚱한 걸 탓하나
- 학자 Morgan Ames가 2019년에 쓴 The Charisma Machine의 개념이 핵심임. 특정 기술이 자석처럼 모든 관심과 자원과 귀인(attribution)을 자기 쪽으로 끌어당기는 현상 — "hype"보다 더 넓은 개념으로, 비판자들조차 결국 그 기술을 논의의 중심에 놓게 만듦
- LLM이 역사상 가장 강력한 "카리스마 기술"일 수 있다는 주장. "AI 안전", "정렬(alignment)", "환각(hallucination)" 같은 용어가 AI에 대한 모든 논의를 구조화하면서, 실제 타겟팅에 쓰인 훨씬 오래되고 성숙한 기술 스택에 대한 질문은 사라져버림
역사는 반복된다: 베트남부터 코소보까지
- 1960년대 베트남전의 이글루 화이트 작전: 호치민 루트에 2만 개 센서를 뿌리고 IBM 360으로 분석했지만, 시스템은 진동을 감지할 뿐 트럭과 소달구지를 구별 못 함. 북베트남은 트럭 엔진 녹음을 틀고 나무에 소변 양동이를 매달아 센서를 속임. 공군은 한 해 동안 파괴했다고 주장한 트럭 수가 북베트남 전체 트럭 보유량을 초과. 잔해가 안 보이자 "위대한 라오스 트럭 포식자"라는 가상의 존재를 만들어 설명함
- 2003년 이라크 침공: 고위 인사 표적 50곳을 타격했는데 의도한 대상을 한 명도 못 맞힘. 정밀 타격이긴 했음 — 조준한 곳을 정확히 맞혔는데 정보가 틀렸던 것
- 코소보전: CIA가 세르비아 연방 조달국을 타격하려 했으나 최근 이전한 중국 대사관을 오폭. 3명의 중국 기자가 사망. 세 개의 오래된 지도에서 좌표를 역산했는데, 국무부는 대사관 이전 사실을 알고 있었지만 군 시설 데이터베이스에는 반영 안 됨. 당시 정보 분석관 Jon Lindsay가 일지에 남긴 표현: "완벽하게 포장된 거대한 오류(an immense error, perfectly packaged)"
속도가 아니라 판단이 사라진 것
- 2003년 이라크전에서 영국군과 미군의 교대 근무 비교가 인상적임. 영국 장교들은 더 보수적이고 느렸지만, 영국 교대조에서는 아군 오사(friendly fire)도, 의미 있는 민간인 피해도 없었음. 미군이 "지연(latency)"이라고 측정한 것이 실은 실수를 잡아낼 수 있는 창이었던 것
- Palantir CEO Alex Karp은 2025년 저서에서 "소프트웨어가 지휘봉을 잡았다"고 자랑하며, 벌떼와 찌르레기떼의 군집 행동을 모델로 들었음. 정보가 중재 없이 전달되는 게 이상적이라는 건데 — 아무도 이의를 제기할 수 없는 신호는 아무도 검증할 수 없는 신호이기도 함
- 역사학자 Theodore Porter의 주장: 조직은 숫자가 더 정확해서가 아니라 더 방어하기 쉬워서 정량적 규칙을 채택함. 판단은 정치적으로 취약하지만 규칙은 그렇지 않음. 시스템의 실질적 유연성은 인정받지 못하는 해석 작업에 의존하는데, 누군가 그것을 "비효율"로 착각하면 제거해버림
주의
> 의회는 이 전쟁을 승인한 적이 없음. 2주간 미군은 6,000개 타겟을 타격했고, 학교는 그 중 하나였음. "AI 오류"라는 프레임은 헌법적 질문(누가 이 전쟁을 승인했나)과 법적 질문(이것이 전쟁범죄인가)을 기술적 질문으로 치환해버린 것
기사의 핵심 주장
- Claude 논쟁이 에너지를 흡수해버림 — 이것이 "카리스마"가 하는 일
- 킬 체인을 압축한 것은 사람의 결정이고, 숙의(deliberation)를 지연이라 부른 것도 사람의 결정이며, 시간당 1,000건의 타겟팅을 "고품질"이라고 부른 것도 사람의 결정. 이 전쟁을 시작한 것도 사람이고, 의회에 앉아서 멈추지 않는 것도 사람
- "AI 문제"라고 부르는 순간, 그 결정들과 그 사람들이 숨을 곳이 생기는 거임
댓글
댓글
댓글을 불러오는 중...