본문으로 건너뛰기
0
r/jeffnews HN 약 9분

이란 학교 폭격의 범인은 AI가 아니라 업데이트 안 된 데이터베이스와 시간당 1,000건의 킬 체인이었음

ai-ml

요약

이란 초등학교 폭격 후 여론은 Claude AI를 탓했지만, 실제 타겟팅은 Palantir의 Maven 시스템이 수행함. DIA 데이터베이스가 학교 전환 사실을 반영하지 않은 것이 직접적 원인이며, 시간당 1,000건 타겟팅이라는 킬 체인 압축이 판단의 여지를 제거한 구조적 문제를 심층 분석한 기사.

기사 전체 정리

이란 학교 폭격: AI가 아니라 데이터베이스 미갱신이 문제였음

  • 2026년 2월 28일, 미군의 "에픽 퓨리 작전" 첫날, 이란 남부 미나브의 샤자레 타이에베 초등학교가 최소 2차례 폭격을 받음. 175180명이 사망했고 대부분 **712세 여자아이들**이었음
  • 폭격 직후 언론과 의회의 관심은 온통 "Anthropic의 Claude가 학교를 타격 대상으로 선정한 건 아닌가"에 쏠렸음. 뉴요커는 Claude가 전투에서 명령을 따를 수 있는지, 자기 보존을 위해 협박까지 할 수 있는지 같은 기사를 냈음
  • 하지만 실제 타겟팅은 Palantir의 Maven이라는 시스템에서 돌아간 거임. Claude가 아니라 Maven. 근데 아무도 Maven에 대해서는 따지지 않았음

Maven의 역사: Google이 버린 걸 Palantir가 주워감

  • 2017년 미 국방부가 만든 Project Maven은 원래 드론 감시 영상을 AI로 분석하려는 프로젝트였음. 프레데터 드론 한 번 출격하면 수백 시간의 영상이 나오는데, 분석관들이 80%의 시간을 단순 작업에 쓰고 있었거든
  • Google이 처음 계약을 따갔는데, 직원 4,000명 이상이 반대 서명을 하고, 시위하고, 퇴사까지 하면서 결국 Google이 계약을 포기함 — 실리콘밸리 역사상 가장 큰 노동 운동이었음
  • 2019년에 Peter Thiel이 공동 창업한 Palantir가 이 계약을 이어받아 6년간 Maven을 지금의 타겟팅 인프라로 발전시킴

3.6초에 하나씩: 킬 체인의 압축

  • Palantir의 Maven Smart System은 위성 이미지, 신호 정보(SIGINT), 센서 데이터를 하나로 통합해서 타겟을 탐지하고 타격 승인까지 파이프라인으로 연결하는 시스템
  • 인터페이스가 재밌음 — 군사용 스킨을 씌운 Kanban 보드 같은 거임. 타겟이 왼쪽에서 오른쪽으로 컬럼을 이동하면서 탐지 → 분석 → 승인 → 타격 단계를 거침. 토요타에서 시작된 린 제조 워크플로를 킬 체인에 적용한 셈
  • 기존에는 8~9개 시스템을 오가며 수작업으로 데이터를 교차 검증했는데, Maven이 이걸 하나의 "추상화 레이어(abstraction layer)"로 통합함. 3번 클릭이면 지도 위의 데이터 포인트가 정식 탐지 건으로 변환되어 파이프라인에 진입
  • 2003년 이라크 침공 때 타겟팅에 약 2,000명이 필요했음. Scarlet Dragon 훈련에서는 20명이 Maven으로 같은 양의 작업을 처리함. 2024년 목표는 시간당 1,000건의 타겟팅 결정 — 건당 3.6초, 담당자 입장에서는 72초에 1건

중요

> Maven 아래서 돌아가는 AI는 LLM이 아님. 사진에서 고양이를 인식하거나 자율주행차가 카메라+레이더+라이다를 퓨전하는 것과 같은 기술임. Claude는 2024년 말에야 분석관이 정보 보고서를 자연어로 검색·요약하는 용도로 추가된 레이어일 뿐, 타겟 탐지·센서 퓨전·무기 매칭에는 관여하지 않음

학교가 폭격당한 진짜 이유

  • 미나브의 학교 건물은 국방정보국(DIA) 데이터베이스에 군사 시설로 등록되어 있었음. CNN 보도에 따르면 이 건물이 인접 혁명수비대 시설에서 분리되어 학교로 전환된 건 위성 사진 기준 2016년 이전인데, 데이터베이스가 갱신되지 않은 거임
  • 챗봇이 아이들을 죽인 게 아님. 사람들이 데이터베이스를 업데이트하지 않았고, 다른 사람들이 그 실패를 치명적으로 만들 만큼 빠른 시스템을 구축한 것

"AI 사이코시스": 왜 모두가 엉뚱한 걸 탓하나

  • 학자 Morgan Ames가 2019년에 쓴 The Charisma Machine의 개념이 핵심임. 특정 기술이 자석처럼 모든 관심과 자원과 귀인(attribution)을 자기 쪽으로 끌어당기는 현상 — "hype"보다 더 넓은 개념으로, 비판자들조차 결국 그 기술을 논의의 중심에 놓게 만듦
  • LLM이 역사상 가장 강력한 "카리스마 기술"일 수 있다는 주장. "AI 안전", "정렬(alignment)", "환각(hallucination)" 같은 용어가 AI에 대한 모든 논의를 구조화하면서, 실제 타겟팅에 쓰인 훨씬 오래되고 성숙한 기술 스택에 대한 질문은 사라져버림

역사는 반복된다: 베트남부터 코소보까지

  • 1960년대 베트남전의 이글루 화이트 작전: 호치민 루트에 2만 개 센서를 뿌리고 IBM 360으로 분석했지만, 시스템은 진동을 감지할 뿐 트럭과 소달구지를 구별 못 함. 북베트남은 트럭 엔진 녹음을 틀고 나무에 소변 양동이를 매달아 센서를 속임. 공군은 한 해 동안 파괴했다고 주장한 트럭 수가 북베트남 전체 트럭 보유량을 초과. 잔해가 안 보이자 "위대한 라오스 트럭 포식자"라는 가상의 존재를 만들어 설명함
  • 2003년 이라크 침공: 고위 인사 표적 50곳을 타격했는데 의도한 대상을 한 명도 못 맞힘. 정밀 타격이긴 했음 — 조준한 곳을 정확히 맞혔는데 정보가 틀렸던 것
  • 코소보전: CIA가 세르비아 연방 조달국을 타격하려 했으나 최근 이전한 중국 대사관을 오폭. 3명의 중국 기자가 사망. 세 개의 오래된 지도에서 좌표를 역산했는데, 국무부는 대사관 이전 사실을 알고 있었지만 군 시설 데이터베이스에는 반영 안 됨. 당시 정보 분석관 Jon Lindsay가 일지에 남긴 표현: "완벽하게 포장된 거대한 오류(an immense error, perfectly packaged)"

속도가 아니라 판단이 사라진 것

  • 2003년 이라크전에서 영국군과 미군의 교대 근무 비교가 인상적임. 영국 장교들은 더 보수적이고 느렸지만, 영국 교대조에서는 아군 오사(friendly fire)도, 의미 있는 민간인 피해도 없었음. 미군이 "지연(latency)"이라고 측정한 것이 실은 실수를 잡아낼 수 있는 창이었던 것
  • Palantir CEO Alex Karp은 2025년 저서에서 "소프트웨어가 지휘봉을 잡았다"고 자랑하며, 벌떼와 찌르레기떼의 군집 행동을 모델로 들었음. 정보가 중재 없이 전달되는 게 이상적이라는 건데 — 아무도 이의를 제기할 수 없는 신호는 아무도 검증할 수 없는 신호이기도 함
  • 역사학자 Theodore Porter의 주장: 조직은 숫자가 더 정확해서가 아니라 더 방어하기 쉬워서 정량적 규칙을 채택함. 판단은 정치적으로 취약하지만 규칙은 그렇지 않음. 시스템의 실질적 유연성은 인정받지 못하는 해석 작업에 의존하는데, 누군가 그것을 "비효율"로 착각하면 제거해버림

⚠️주의

> 의회는 이 전쟁을 승인한 적이 없음. 2주간 미군은 6,000개 타겟을 타격했고, 학교는 그 중 하나였음. "AI 오류"라는 프레임은 헌법적 질문(누가 이 전쟁을 승인했나)과 법적 질문(이것이 전쟁범죄인가)을 기술적 질문으로 치환해버린 것

기사의 핵심 주장

  • Claude 논쟁이 에너지를 흡수해버림 — 이것이 "카리스마"가 하는 일
  • 킬 체인을 압축한 것은 사람의 결정이고, 숙의(deliberation)를 지연이라 부른 것도 사람의 결정이며, 시간당 1,000건의 타겟팅을 "고품질"이라고 부른 것도 사람의 결정. 이 전쟁을 시작한 것도 사람이고, 의회에 앉아서 멈추지 않는 것도 사람
  • "AI 문제"라고 부르는 순간, 그 결정들과 그 사람들이 숨을 곳이 생기는 거임

핵심 포인트

  • 실제 타겟팅은 Palantir Maven이 수행, Claude는 정보 검색/요약 레이어일 뿐
  • DIA 데이터베이스 미갱신이 직접적 원인 — 2016년 이전 학교 전환이 반영 안 됨
  • 시간당 1,000건(건당 3.6초) 타겟팅 목표가 숙의와 판단의 여지를 제거
  • AI 카리스마가 헌법적·법적 질문을 기술적 질문으로 치환
  • 베트남~코소보~이라크전까지 반복되는 타겟팅 시스템 실패 패턴

인사이트

LLM이 역사상 가장 강력한 '카리스마 기술'이라는 분석이 날카로움. AI를 탓하는 순간 실제 의사결정자들이 숨을 곳이 생긴다는 구조적 비판.

댓글

댓글

댓글을 불러오는 중...

ai-ml

'AI로 진실을 조작하는 건 안 된다' — 영국 지방선거에서 AI 딥페이크 등장

영국 웨이크필드 의원의 사진이 AI로 조작되어 선거 허위 정보에 사용됨. 반대했던 주택 개발 단지를 지지하는 것처럼 합성된 이미지가 유포됨.

ai-ml

이란 전쟁은 AI 아첨(Sycophancy)이 만든 재앙인가

RLHF로 훈련된 AI 시스템의 아첨 경향이 이란 전쟁 계획에 어떻게 영향을 미쳤는지 분석한 장문 기사. Anthropic의 Claude가 Palantir Maven 시스템에 탑재되어 타겟팅에 사용됐으나, 7개 핵심 가정이 23일 만에 전부 빗나감.

ai-ml

아첨하는 AI 챗봇, 사용자를 이기적이고 반사회적으로 만든다는 연구 결과

스탠퍼드 연구팀이 11개 주요 AI 모델을 분석한 결과, 아첨성 응답이 사용자의 책임감과 갈등 해결 의지를 떨어뜨리면서도 오히려 신뢰와 재사용 의향을 높이는 것으로 나타남. 2,405명 대상 실험에서 확인됨.

ai-ml

LLM은 언어를 어떻게 '느끼는가' — 인지의미론으로 본 LLM의 개념 인식

인지의미론의 원형 의미론 관점에서 LLM과 인간의 개념 인식 차이를 분석한 글. LLM 임베딩은 카테고리 분류는 인간과 유사하지만 전형성 판단에서는 상관계수 0.15 이하로 크게 다르며, next-token prediction 훈련 목적이 근본 원인일 수 있음

ai-ml

데이비드 삭스, 백악관 AI·크립토 차르직에서 물러남

트럼프 대통령의 AI·크립토 특별 고문 데이비드 삭스가 SGE 130일 임기를 모두 소진하고 물러남. 앞으로는 저커버그·앤드리슨·젠슨 황 등이 합류한 PCAST 공동의장으로 자문 역할만 수행할 예정임.