본문으로 건너뛰기
피드

팔란티어 메이븐, 미군 타깃 선정 시스템으로 전장 인공지능의 민낯을 보여주다

ai-ml 약 4분

팔란티어의 메이븐 스마트 시스템이 미군의 이란 공습 초반 48시간 동안 1000개가 넘는 타깃 타격에 관여한 것으로 알려졌다. 미 국방부는 전장 의사결정에 인공지능을 깊게 넣으려 하지만, 완전자율 무기와 대중 감시를 둘러싼 윤리 논쟁도 같이 커지고 있다.

  • 1

    메이븐 스마트 시스템이 이란 공습 첫 48시간 동안 1000개 이상 타깃 타격에 역할

  • 2

    미 국방부 고위 인사가 팔란티어 행사에서 메이븐을 공개적으로 극찬

  • 3

    앤트로픽은 자사 거대언어모델의 완전자율 무기 및 대중 감시 사용에 반대

  • 4

    국방부는 앤트로픽을 공급망 위험 기업으로 지정하며 압박

  • 현대전에서 인공지능은 이미 선택지가 아니라 기본 인프라 쪽으로 가고 있음

    • 우크라이나 전쟁뿐 아니라 최근 이란 전쟁에서도 인공지능 무기 체계가 활약했다는 설명이 나옴
    • 미국은 무기 자체뿐 아니라 전장 의사결정 과정에도 인공지능 통합 시스템을 적용하고 있음
  • 중심에 있는 회사는 팔란티어임

    • 팔란티어가 개발한 메이븐 스마트 시스템(MSS)이 미군의 이란 공습 당시 첫 48시간 동안 1000개가 넘는 타깃을 타격하는 데 큰 역할을 한 것으로 알려짐
    • 미 국방부는 인공지능을 국방전략 전반에 접목하려는 의지가 강하고, 그 과정에서 팔란티어 같은 인공지능 방산업체의 비중이 커지고 있음
  • 팔란티어와 미 국방부의 밀착도 꽤 노골적으로 드러남

    • 지난 3월 중순 팔란티어가 연 콘퍼런스에 미 국방부 인공지능·디지털 담당 최고책임자(CDAO)가 직접 나와 메이븐을 소개함
    • 이 인사는 메이븐을 “전장에서의 작업 처리 과정을 획기적으로 바꾼 시스템”이라고 평가함
    • “우리는 클릭만 하면 된다”, “매일매일 개선되는 시스템은 메이븐이 처음”이라는 발언까지 나옴

⚠️주의

> “지휘관은 클릭만 하면 된다”는 말은 편의성 자랑처럼 들리지만, 전장 시스템에선 책임 소재와 인간 통제 문제가 바로 따라붙음. 누가 판단했고, 누가 검증했고, 누가 책임지는지가 핵심임.

  • 윤리 문제는 당연히 따라붙고 있음

    • 앤트로픽은 메이븐에도 탑재된 자사 거대언어모델(LLM) 클로드를 완전자율형 무기 체계와 대중 감시에 쓰는 것에 반대함
    • 이 문제로 앤트로픽과 미 국방부가 갈등을 빚었고, 국방부는 앤트로픽을 ‘공급망 위험’ 기업으로 지정하며 압박함
  • 기술적으로도 이건 단순한 모델 배포 문제가 아님

    • 전장 데이터, 타깃 후보, 의사결정 흐름, 인간 승인 절차가 한 시스템 안에 묶임
    • 모델이 추천하고 사람이 클릭하는 구조라면, 자동화와 인간 통제의 경계가 흐려질 수밖에 없음

기술 맥락

  • 메이븐 같은 시스템에서 중요한 선택은 인공지능을 무기 자체에만 넣는 게 아니라, 작전 처리 흐름 전체에 넣는 거예요. 타깃을 찾고, 우선순위를 매기고, 지휘관이 결정을 내리는 과정이 빨라지기 때문이에요.

  • 팔란티어가 주목받는 이유도 모델 하나를 잘 만들어서가 아니에요. 여러 데이터 소스와 의사결정 화면, 군 내부 워크플로우를 묶는 시스템 통합 역량이 전장에서는 훨씬 중요하거든요.

  • 다만 “클릭만 하면 된다”는 구조는 개발자에게도 익숙한 자동화의 함정을 보여줘요. 시스템이 추천을 너무 그럴듯하게 만들면, 사람은 검토자가 아니라 승인 버튼을 누르는 존재로 밀릴 수 있어요.

  • 앤트로픽과 국방부의 갈등은 모델 공급사가 사용 범위를 어디까지 통제할 수 있느냐는 문제예요. 거대언어모델이 국방 시스템의 일부가 되는 순간, 기술 계약은 곧 윤리와 정책의 문제로 바뀌어요.

전장 인공지능은 더 이상 데모 영상이나 연구 과제가 아니라, 타깃 선정과 작전 처리 흐름에 들어간 운영 시스템이 됐다. 개발자 입장에선 ‘모델 성능’만 볼 게 아니라, 누가 클릭하고 누가 책임지는지까지 봐야 하는 영역임.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.