---
title: "AI가 설계한 ‘7일 전쟁’은 왜 64일짜리 수렁이 됐나"
published: 2026-05-01T20:05:02.034Z
canonical: https://jeff.news/article/2028
---
# AI가 설계한 ‘7일 전쟁’은 왜 64일짜리 수렁이 됐나

미국과 이스라엘의 이란 작전은 AI 기반 표적 선정과 빠른 살상연쇄를 앞세웠지만, 전쟁은 64일째 끝나지 않고 있다. 메이븐의 표적 분류 정확도 60%, 여학교 공습 사망자 168명, 브렌트유 126달러 같은 숫자가 AI 전쟁의 한계를 꽤 적나라하게 보여준다.

## AI가 전쟁을 빠르게 만들었는데, 끝내진 못함

- 미국과 이스라엘이 2월 28일 시작한 ‘에픽 퓨리’ 작전은 AI 전쟁의 데뷔전처럼 포장됐음
  - 개전 24시간 만에 이란 내 표적 1000곳을 타격했고, 전체적으로는 표적 1만1000개를 분 단위로 솎아냈다는 게 기사 핵심 수치임
  - 그런데 5월 1일 기준 전쟁은 64일째 이어지는 중이고, ‘7일 안에 끝낸다’는 식의 단기 결전 그림은 완전히 꼬였음

- AI가 잘한 건 살상연쇄(Kill Chain)를 압축하는 쪽이었음
  - 공격 징후 탐지, 표적 선정, 타격, 피해 평가까지 이어지는 과정을 사람이 하던 속도보다 훨씬 빠르게 돌린 셈임
  - 문제는 전쟁이 엑셀 시트처럼 끝나지 않는다는 것임. 이란은 비대칭 저항과 호르무즈 해협 봉쇄로 판을 바꿔버림

> [!IMPORTANT]
> 기사에서 가장 센 숫자는 표적 1만1000개, 전쟁 64일, 메이븐 정확도 60%, 여학교 사망자 168명임. AI가 ‘많이, 빨리’ 때리는 데는 성공했지만 ‘정확히, 책임 있게, 끝까지’는 못 보여준 셈임.

## 메이븐 정확도 60%, 이 숫자가 꽤 아픔

- AI 표적화의 가장 큰 논란은 민간인 피해에서 터졌음
  - 2월 28일 이란 남부 미나브의 샤자레 타예베 여학교가 미군 공습을 받았고, 학생 등 168명이 사망했다고 기사에서 전함
  - 워싱턴포스트는 해당 학교가 미군 표적 목록에 있었다고 보도했고, 미 상원 민주당은 국방장관에게 AI가 표적 선정에 관여했는지 질의함

- 블룸버그가 인용한 내부 자료 기준으로 메이븐의 표적 분류 정확도는 약 60%였음
  - 숙련된 인간 분석가의 84%보다 낮은 수치라서, ‘AI가 인간보다 빠르다’는 말과 ‘AI가 인간보다 믿을 만하다’는 말은 완전히 다르다는 게 드러남
  - OECD AI 사고 데이터베이스는 4월 14일 이 사례를 ‘AI가 직접 인명 피해를 야기한 사례’로 등재했다고 기사에서 설명함

- 팔란티어 쪽은 최종 결정권은 인간 지휘관에게 있다는 ‘휴먼 인 더 루프’ 원칙을 내세움
  - 하지만 살상연쇄가 초 단위로 압축되면 인간 검토가 실질적 판단인지, 버튼 누르는 의식 절차인지 애매해짐
  - 이 지점에서 책임 소재가 기술 회사, 군 지휘부, 현장 지휘관 사이에 흐려지는 게 진짜 리스크임

## 현실은 알고리즘보다 지저분했음

- 이란은 정규전에서 밀렸지만, 비대칭 방식으로 AI 전쟁의 효율성을 흔들었음
  - 재래식 군 수뇌부와 중대형 함선은 개전 1주일 만에 큰 타격을 받았지만, 고속정 ‘모기 함대’와 자폭 드론으로 호르무즈 해협을 계속 압박함
  - 국제에너지기구(IEA)는 4월 30일 이를 ‘역사상 최대 규모 공급 차질’로 평가했다고 기사에서 전함

- 시장 충격도 바로 튀어나왔음
  - 브렌트유는 배럴당 126달러, 원화로 약 18만5700원까지 올랐고 4년 만의 최고치를 찍음
  - 미국 평균 휘발유 가격도 갤런당 4.30달러로 4년래 최고 수준에 도달함

- 협상도 AI 시나리오처럼 움직이지 않았음
  - 트럼프 대통령은 ‘짧고 강력한 추가 타격’을 검토 중이라고 악시오스가 전했고, 이란 대통령은 협상 중에도 공격받았다며 미국에 대한 완전한 불신을 선언함
  - 전쟁을 짧게 끝내려는 자동화 전략이 오히려 정치적 출구를 좁힌 꼴임

## 한국 입장에서도 남 얘기가 아님

- 한국 육군도 AI·드론·로봇을 묶은 유·무인 복합전투체계를 전방 경계작전에 실전 배치한다고 밝힘
  - 계룡대 정책설명회에서 나온 내용이고, 장성급 ‘미래전략부’ 신설도 검토 중이라고 기사에서 언급함
  - K-방산은 2024년 수출 95억 달러, 약 14조원을 기록했지만 데이터·소프트웨어 중심 전환이 늦으면 부가가치를 팔란티어 같은 데이터 기업에 뺏길 수 있다는 지적도 나옴

- 동아시아연구원(EAI)은 한국을 자율무기체계에 대규모 투자 중인 10개국 중 하나로 봄
  - 즉 한국도 ‘AI가 표적 추천해주면 사람이 승인한다’는 말을 그냥 원칙 수준으로 둘 수 없는 위치에 들어왔다는 뜻임
  - 표적 검증 절차, 책임 소재, 민간 피해 발생 시 조사 방식까지 법제화하지 않으면 수출 산업과 외교 리스크가 같이 터질 수 있음

> [!WARNING]
> ‘사람이 최종 승인한다’는 문장만으로는 부족함. AI가 60% 정확도로 표적을 분류하는 상황이라면, 사람이 언제·무엇을·어떤 근거로 거부할 수 있는지가 시스템 요구사항이 돼야 함.

---

## 기술 맥락

- 여기서 핵심 선택은 AI를 단순 보조 도구가 아니라 전장 의사결정 파이프라인 안으로 깊게 넣었다는 점이에요. 표적 후보를 빨리 뽑고 피해 평가까지 돌리면 군사 작전 속도는 올라가지만, 왜 그 표적이 맞는지 설명하고 검증하는 시간은 줄어들거든요.

- 메이븐의 60% 정확도 논란이 중요한 이유는, 이 수치가 모델 성능표에만 남는 숫자가 아니기 때문이에요. 추천 시스템에서 틀리면 클릭률이 떨어지지만, 군사 표적화에서 틀리면 민간인 피해와 외교적 책임으로 바로 이어져요.

- ‘휴먼 인 더 루프’도 구현 방식이 중요해요. 사람이 정말 판단할 수 있는 로그, 근거, 반박 권한, 승인 지연 권한이 있어야 통제 장치가 되지, 초 단위 작전 화면에서 승인 버튼만 누르는 구조면 책임 회피 장치에 가까워져요.

- 한국 방산 쪽에서 이 기사가 찜찜한 이유도 여기에 있어요. AI·드론·로봇 체계를 전방에 넣는 순간, 성능뿐 아니라 감사 가능성, 설명 가능성, 책임 소재가 제품 경쟁력의 일부가 되거든요.

## 핵심 포인트

- AI는 표적 1만1000개를 빠르게 걸러냈지만 전쟁 종결에는 실패함
- 메이븐의 표적 분류 정확도는 약 60%로 숙련 인간 분석가의 84%보다 낮게 제시됨
- 미나브 여학교 공습으로 168명이 사망하면서 AI 표적화 책임 문제가 커짐
- 한국도 AI·드론·로봇 기반 전장 전환을 추진 중이라 윤리와 책임 법제화가 실무 이슈가 됨

## 인사이트

AI가 전쟁의 속도를 올릴 수는 있어도, 전쟁을 끝내는 정치적 판단까지 자동화해주진 않는다는 얘기다. 특히 한국처럼 방산과 AI를 같이 키우는 나라에는 ‘휴먼 인 더 루프’가 구호가 아니라 법과 절차로 내려와야 한다는 압박이 커진다.
