---
title: "검찰, CCTV AI 분석으로 폭행 고의성 보강…증거 신뢰성 논쟁도 시작"
published: 2026-05-11T03:05:04.377Z
canonical: https://jeff.news/article/2566
---
# 검찰, CCTV AI 분석으로 폭행 고의성 보강…증거 신뢰성 논쟁도 시작

서울동부지검이 CCTV 영상을 AI로 분석해 피의자의 시선과 얼굴 방향을 확인하고 상해 혐의 기소 근거를 보강한 사례가 나옴. YOLOv8, SixDRepNet 같은 오픈소스 모델이 쓰였고, 수사 효율성 기대와 함께 증거능력·재현성·보안 문제가 쟁점으로 떠오름.

- 검찰이 CCTV 영상을 AI로 분석해 피의자의 폭행 고의성을 보강한 사례가 나옴
  - 서울동부지검 형사4부가 길거리에서 이른바 ‘묻지마 폭행’을 저지른 뒤 고의성을 부인한 A씨를 지난달 29일 상해 혐의로 기소한 사건임
  - 동부지검이 AI 분석 기법을 수사에 활용한 건 이번이 두 번째 사례로 알려짐

- 사건 자체는 꽤 구체적임
  - 지난 1월 13일 오후 6시쯤 서울 강동구의 한 골목길에서 발생함
  - 30대 남성 A씨가 길을 걷던 50대 여성 B씨를 빠른 속도로 들이받아 넘어뜨렸고, 피해자는 전치 6주의 상해를 입음
  - 장소는 지하철역에서 약 300m 떨어진 주거단지 인근 골목, 공용주차장을 사이에 둔 비교적 한적한 곳으로 조사됨

- 쟁점은 “정말 몰랐나?”였음
  - 경찰은 CCTV 등을 바탕으로 A씨를 검거했지만, A씨는 “갑자기 마음이 급해져 속도를 냈을 뿐, 여성과 부딪힌 줄은 몰랐다”는 취지로 진술함
  - 검찰은 범행 직후 A씨가 넘어진 피해자를 실제로 인지했는지에 집중함
  - 음주 정황이 없고 피해자와 일면식도 확인되지 않아, 검찰은 이상 동기 범죄 가능성에 무게를 둔 것으로 파악됨

- 여기서 AI 영상 분석이 들어감
  - 사람 객체를 인식하는 YOLOv8로 CCTV 속 인물 움직임을 분석함
  - 얼굴 방향과 각도를 분석하는 SixDRepNet으로 A씨의 시선과 얼굴 방향을 확인한 것으로 알려짐
  - 두 모델 모두 일반인도 무료로 사용할 수 있는 오픈소스 기반 모델임

```mermaid
sequenceDiagram
    participant 수사팀
    participant CCTV영상
    participant 객체탐지모델
    participant 얼굴방향모델
    participant 검찰판단
    수사팀->>CCTV영상: 원본 영상 확보
    CCTV영상->>객체탐지모델: 사람 위치와 움직임 분석
    객체탐지모델->>얼굴방향모델: 피의자 구간 추출
    얼굴방향모델->>검찰판단: 시선·얼굴 방향 결과 제공
    검찰판단->>수사팀: 고의성 보강 정황으로 검토
```

> [!WARNING]
> AI 분석 결과가 곧바로 객관적 증거가 되는 건 아님. 법정에서 인정받으려면 분석 과정이 검증 가능하고 재현 가능해야 함.

- 검찰 내부에서는 AI가 기존 포렌식을 보완할 수 있다고 봄
  - 기존에도 CCTV 확대, 속도 조절 같은 기본 영상 분석 매뉴얼은 있었음
  - AI를 쓰면 사람의 움직임과 시선 방향을 더 입체적으로 분석할 수 있다는 평가가 나옴
  - 담당 검사는 “기존 포렌식으로는 놓칠 수 있는 정황을 AI가 보완적으로 분석하는 방식”이라고 설명함

- 하지만 논란 포인트도 명확함
  - 생성형 AI나 영상 보정 기술이 원본에 없는 정보를 만들어낼 가능성을 완전히 배제할 수 없다는 지적이 있음
  - 오픈소스 모델을 쓴다면 모델 버전, 입력 영상, 전처리 방식, 파라미터까지 재현 가능해야 법정 다툼에서 버틸 수 있음
  - 사건 영상이 외부 서버로 유출될 가능성도 핵심 보안 리스크임

- 검찰은 현재 폐쇄망 환경에서 제한적으로 쓴다고 설명함
  - 담당 검사는 인터넷 연결 없이 작동하는 AI 시스템을 제한적으로 활용하고 있다고 강조함
  - 앞으로는 AI 분석 기법의 활용 범위와 검증 절차를 매뉴얼화해야 한다는 목소리가 검찰 내부에서도 나옴
  - 결국 기술 도입보다 더 어려운 건 증거능력, 신뢰성, 보안 기준을 어떻게 만들지임

---

## 기술 맥락

- 이번 사례에서 AI는 판사를 대신하거나 범죄를 자동 판단한 게 아니에요. CCTV에서 사람 위치를 찾고, 얼굴 방향을 추정해 기존 포렌식으로 놓칠 수 있는 정황을 보완하는 역할에 가까워요.

- YOLOv8이 쓰인 이유는 영상 속 객체를 빠르게 찾는 데 강하기 때문이에요. CCTV 분석에서는 프레임마다 사람이 어디에 있는지 잡아야 다음 단계에서 움직임이나 시선 분석을 할 수 있거든요.

- SixDRepNet은 얼굴 방향을 추정하는 쪽에 쓰였어요. 이 사건의 쟁점이 “피해자를 봤는가”였기 때문에, 단순히 충돌 장면만 보는 것보다 얼굴이 어느 방향을 향했는지가 중요한 정황이 된 거예요.

- 다만 법적 증거로 쓰려면 모델 성능표만으로는 부족해요. 같은 원본 영상과 같은 모델 버전, 같은 전처리 조건에서 같은 결과가 나와야 하고, 방어권 행사 과정에서도 검증 가능한 형태여야 하거든요.

- 폐쇄망 운영이 언급된 것도 그래서 중요해요. 사건 영상은 민감한 개인정보 덩어리라 외부 API나 클라우드로 보내면 수사 효율보다 보안 사고 리스크가 더 커질 수 있어요.

## 핵심 포인트

- 검찰이 기존 포렌식만으로 식별이 어려운 CCTV를 AI 영상 분석으로 보완함
- 사건은 서울 강동구 골목에서 30대 남성이 50대 여성을 빠르게 들이받아 전치 6주 상해를 입힌 내용임
- 피의자는 부딪힌 줄 몰랐다고 주장했지만, 검찰은 AI로 시선과 얼굴 방향을 분석해 인지 여부를 확인하려 함
- 활용 모델은 사람 객체 인식 YOLOv8과 얼굴 방향·각도 분석 SixDRepNet임
- AI 분석 결과의 법정 증거 인정 범위, 재현성, 수사자료 유출 통제가 핵심 쟁점임

## 인사이트

이건 ‘AI가 수사도 한다’는 자극적인 얘기보다, 오픈소스 컴퓨터 비전 모델이 공공 수사 절차에 들어올 때 어떤 검증·보안 기준이 필요한지 보여주는 사례임. 개발자에게도 모델 성능보다 재현 가능성과 폐쇄망 운영이 더 중요해지는 장면이라 볼 만함.
