본문으로 건너뛰기
피드

이란 학교 폭격의 범인은 AI가 아니라 업데이트 안 된 데이터베이스와 시간당 1,000건의 킬 체인이었음

ai-ml 약 9분

이란 초등학교 폭격 후 여론은 Claude AI를 탓했지만, 실제 타겟팅은 Palantir의 Maven 시스템이 수행함. DIA 데이터베이스가 학교 전환 사실을 반영하지 않은 것이 직접적 원인이며, 시간당 1,000건 타겟팅이라는 킬 체인 압축이 판단의 여지를 제거한 구조적 문제를 심층 분석한 기사.

  • 1

    실제 타겟팅은 Palantir Maven이 수행, Claude는 정보 검색/요약 레이어일 뿐

  • 2

    DIA 데이터베이스 미갱신이 직접적 원인 — 2016년 이전 학교 전환이 반영 안 됨

  • 3

    시간당 1,000건(건당 3.6초) 타겟팅 목표가 숙의와 판단의 여지를 제거

  • 4

    AI 카리스마가 헌법적·법적 질문을 기술적 질문으로 치환

  • 5

    베트남~코소보~이라크전까지 반복되는 타겟팅 시스템 실패 패턴

이란 학교 폭격: AI가 아니라 데이터베이스 미갱신이 문제였음

  • 2026년 2월 28일, 미군의 "에픽 퓨리 작전" 첫날, 이란 남부 미나브의 샤자레 타이에베 초등학교가 최소 2차례 폭격을 받음. 175180명이 사망했고 대부분 **712세 여자아이들**이었음
  • 폭격 직후 언론과 의회의 관심은 온통 "Anthropic의 Claude가 학교를 타격 대상으로 선정한 건 아닌가"에 쏠렸음. 뉴요커는 Claude가 전투에서 명령을 따를 수 있는지, 자기 보존을 위해 협박까지 할 수 있는지 같은 기사를 냈음
  • 하지만 실제 타겟팅은 Palantir의 Maven이라는 시스템에서 돌아간 거임. Claude가 아니라 Maven. 근데 아무도 Maven에 대해서는 따지지 않았음

Maven의 역사: Google이 버린 걸 Palantir가 주워감

  • 2017년 미 국방부가 만든 Project Maven은 원래 드론 감시 영상을 AI로 분석하려는 프로젝트였음. 프레데터 드론 한 번 출격하면 수백 시간의 영상이 나오는데, 분석관들이 80%의 시간을 단순 작업에 쓰고 있었거든
  • Google이 처음 계약을 따갔는데, 직원 4,000명 이상이 반대 서명을 하고, 시위하고, 퇴사까지 하면서 결국 Google이 계약을 포기함 — 실리콘밸리 역사상 가장 큰 노동 운동이었음
  • 2019년에 Peter Thiel이 공동 창업한 Palantir가 이 계약을 이어받아 6년간 Maven을 지금의 타겟팅 인프라로 발전시킴

3.6초에 하나씩: 킬 체인의 압축

  • Palantir의 Maven Smart System은 위성 이미지, 신호 정보(SIGINT), 센서 데이터를 하나로 통합해서 타겟을 탐지하고 타격 승인까지 파이프라인으로 연결하는 시스템
  • 인터페이스가 재밌음 — 군사용 스킨을 씌운 Kanban 보드 같은 거임. 타겟이 왼쪽에서 오른쪽으로 컬럼을 이동하면서 탐지 → 분석 → 승인 → 타격 단계를 거침. 토요타에서 시작된 린 제조 워크플로를 킬 체인에 적용한 셈
  • 기존에는 8~9개 시스템을 오가며 수작업으로 데이터를 교차 검증했는데, Maven이 이걸 하나의 "추상화 레이어(abstraction layer)"로 통합함. 3번 클릭이면 지도 위의 데이터 포인트가 정식 탐지 건으로 변환되어 파이프라인에 진입
  • 2003년 이라크 침공 때 타겟팅에 약 2,000명이 필요했음. Scarlet Dragon 훈련에서는 20명이 Maven으로 같은 양의 작업을 처리함. 2024년 목표는 시간당 1,000건의 타겟팅 결정 — 건당 3.6초, 담당자 입장에서는 72초에 1건

중요

> Maven 아래서 돌아가는 AI는 LLM이 아님. 사진에서 고양이를 인식하거나 자율주행차가 카메라+레이더+라이다를 퓨전하는 것과 같은 기술임. Claude는 2024년 말에야 분석관이 정보 보고서를 자연어로 검색·요약하는 용도로 추가된 레이어일 뿐, 타겟 탐지·센서 퓨전·무기 매칭에는 관여하지 않음

학교가 폭격당한 진짜 이유

  • 미나브의 학교 건물은 국방정보국(DIA) 데이터베이스에 군사 시설로 등록되어 있었음. CNN 보도에 따르면 이 건물이 인접 혁명수비대 시설에서 분리되어 학교로 전환된 건 위성 사진 기준 2016년 이전인데, 데이터베이스가 갱신되지 않은 거임
  • 챗봇이 아이들을 죽인 게 아님. 사람들이 데이터베이스를 업데이트하지 않았고, 다른 사람들이 그 실패를 치명적으로 만들 만큼 빠른 시스템을 구축한 것

"AI 사이코시스": 왜 모두가 엉뚱한 걸 탓하나

  • 학자 Morgan Ames가 2019년에 쓴 The Charisma Machine의 개념이 핵심임. 특정 기술이 자석처럼 모든 관심과 자원과 귀인(attribution)을 자기 쪽으로 끌어당기는 현상 — "hype"보다 더 넓은 개념으로, 비판자들조차 결국 그 기술을 논의의 중심에 놓게 만듦
  • LLM이 역사상 가장 강력한 "카리스마 기술"일 수 있다는 주장. "AI 안전", "정렬(alignment)", "환각(hallucination)" 같은 용어가 AI에 대한 모든 논의를 구조화하면서, 실제 타겟팅에 쓰인 훨씬 오래되고 성숙한 기술 스택에 대한 질문은 사라져버림

역사는 반복된다: 베트남부터 코소보까지

  • 1960년대 베트남전의 이글루 화이트 작전: 호치민 루트에 2만 개 센서를 뿌리고 IBM 360으로 분석했지만, 시스템은 진동을 감지할 뿐 트럭과 소달구지를 구별 못 함. 북베트남은 트럭 엔진 녹음을 틀고 나무에 소변 양동이를 매달아 센서를 속임. 공군은 한 해 동안 파괴했다고 주장한 트럭 수가 북베트남 전체 트럭 보유량을 초과. 잔해가 안 보이자 "위대한 라오스 트럭 포식자"라는 가상의 존재를 만들어 설명함
  • 2003년 이라크 침공: 고위 인사 표적 50곳을 타격했는데 의도한 대상을 한 명도 못 맞힘. 정밀 타격이긴 했음 — 조준한 곳을 정확히 맞혔는데 정보가 틀렸던 것
  • 코소보전: CIA가 세르비아 연방 조달국을 타격하려 했으나 최근 이전한 중국 대사관을 오폭. 3명의 중국 기자가 사망. 세 개의 오래된 지도에서 좌표를 역산했는데, 국무부는 대사관 이전 사실을 알고 있었지만 군 시설 데이터베이스에는 반영 안 됨. 당시 정보 분석관 Jon Lindsay가 일지에 남긴 표현: "완벽하게 포장된 거대한 오류(an immense error, perfectly packaged)"

속도가 아니라 판단이 사라진 것

  • 2003년 이라크전에서 영국군과 미군의 교대 근무 비교가 인상적임. 영국 장교들은 더 보수적이고 느렸지만, 영국 교대조에서는 아군 오사(friendly fire)도, 의미 있는 민간인 피해도 없었음. 미군이 "지연(latency)"이라고 측정한 것이 실은 실수를 잡아낼 수 있는 창이었던 것
  • Palantir CEO Alex Karp은 2025년 저서에서 "소프트웨어가 지휘봉을 잡았다"고 자랑하며, 벌떼와 찌르레기떼의 군집 행동을 모델로 들었음. 정보가 중재 없이 전달되는 게 이상적이라는 건데 — 아무도 이의를 제기할 수 없는 신호는 아무도 검증할 수 없는 신호이기도 함
  • 역사학자 Theodore Porter의 주장: 조직은 숫자가 더 정확해서가 아니라 더 방어하기 쉬워서 정량적 규칙을 채택함. 판단은 정치적으로 취약하지만 규칙은 그렇지 않음. 시스템의 실질적 유연성은 인정받지 못하는 해석 작업에 의존하는데, 누군가 그것을 "비효율"로 착각하면 제거해버림

⚠️주의

> 의회는 이 전쟁을 승인한 적이 없음. 2주간 미군은 6,000개 타겟을 타격했고, 학교는 그 중 하나였음. "AI 오류"라는 프레임은 헌법적 질문(누가 이 전쟁을 승인했나)과 법적 질문(이것이 전쟁범죄인가)을 기술적 질문으로 치환해버린 것

기사의 핵심 주장

  • Claude 논쟁이 에너지를 흡수해버림 — 이것이 "카리스마"가 하는 일
  • 킬 체인을 압축한 것은 사람의 결정이고, 숙의(deliberation)를 지연이라 부른 것도 사람의 결정이며, 시간당 1,000건의 타겟팅을 "고품질"이라고 부른 것도 사람의 결정. 이 전쟁을 시작한 것도 사람이고, 의회에 앉아서 멈추지 않는 것도 사람
  • "AI 문제"라고 부르는 순간, 그 결정들과 그 사람들이 숨을 곳이 생기는 거임

LLM이 역사상 가장 강력한 '카리스마 기술'이라는 분석이 날카로움. AI를 탓하는 순간 실제 의사결정자들이 숨을 곳이 생긴다는 구조적 비판.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.