본문으로 건너뛰기
피드

동부지검, 흐릿한 CCTV에 오픈소스 AI 붙여 폭행 고의성 보강

ai-ml 약 5분

서울동부지검이 흐릿한 CCTV 영상을 AI로 분석해 피의자가 피해자를 인지했는지 확인하고 상해 혐의 기소에 활용했다. YOLOv8로 사람 객체를 잡고 SixDRepNet으로 얼굴 방향과 각도를 분석했지만, 법정 증거로 어디까지 인정될지는 아직 쟁점이다.

  • 1

    검찰은 CCTV 분석에 YOLOv8과 SixDRepNet 같은 오픈소스 AI 모델을 활용했다

  • 2

    AI 분석은 피의자의 시선과 얼굴 방향을 근거로 피해자 인지 여부를 보강하는 데 쓰였다

  • 3

    증거 신뢰성, 재현성, 수사자료 보안이 향후 핵심 논쟁거리로 남아 있다

  • 서울동부지검이 흐릿한 CCTV를 AI로 다시 분석해서 폭행 사건의 고의성 판단을 보강함

    • 사건은 2026년 1월 13일 오후 6시쯤 서울 강동구 골목에서 발생
    • 30대 남성 A씨가 50대 여성 B씨를 빠른 속도로 들이받아 넘어뜨렸고, 피해자는 전치 6주 상해를 입음
    • A씨는 “마음이 급해져 속도를 냈을 뿐, 여성과 부딪힌 줄 몰랐다”는 취지로 고의성을 부인함
  • 검찰이 본 쟁점은 “A씨가 넘어진 피해자를 실제로 인지했나”였음

    • 기존 CCTV 확대나 속도 조절만으로는 애매한 정황을 AI 분석으로 보완하려 한 것
    • 동부지검이 AI 분석 기법을 수사에 활용한 건 이번이 두 번째 사례로 알려짐
    • 검찰은 지난 4월 29일 A씨를 상해 혐의로 기소함
  • 사용한 모델이 꽤 현실적임. 비싼 전용 솔루션만 쓴 게 아니라 오픈소스 AI 두 가지를 섞음

    • YOLOv8은 CCTV 화면에서 사람 객체를 포착하는 데 사용
    • SixDRepNet은 얼굴 방향과 머리 각도를 분석하는 데 사용
    • 둘 다 일반인도 무료로 사용할 수 있는 오픈소스 기반 모델임

⚠️주의

> AI가 “원본에 없던 정보”를 만들어내거나 과도하게 해석할 가능성은 법정에서 피할 수 없는 쟁점임. 그래서 분석 과정의 재현성과 검증 가능성이 모델 성능만큼 중요함.

  • 수사 실무 쪽에서는 AI 영상 분석을 “기존 포렌식의 보완재”로 보고 있음

    • 손성민 검사는 기존 포렌식으로 놓칠 수 있는 정황을 AI가 보완적으로 분석하는 방식이라고 설명함
    • 사람의 움직임, 얼굴 방향, 시선 방향 같은 요소를 더 입체적으로 볼 수 있다는 기대가 있음
    • 다만 AI 분석 결과가 곧바로 객관적 증거가 되는 건 아니고, 법원이 어디까지 인정할지가 관건임
  • 보안 문제도 큼. 수사자료는 그냥 클라우드 AI에 올릴 수 있는 데이터가 아님

    • 사건 영상이 외부 서버로 유출될 가능성을 어떻게 막을지가 핵심 과제
    • 검찰은 인터넷 연결 없이 폐쇄망 환경에서만 작동하는 AI 시스템을 제한적으로 활용하고 있다고 설명함
    • 앞으로는 AI 분석 기법의 활용 범위와 검증 절차를 매뉴얼화해야 한다는 목소리도 나옴
  • 개발자 입장에서 재밌는 지점은 “오픈소스 모델이 공공 수사 프로세스 안으로 들어왔다”는 부분임

    • 이제 논쟁은 단순히 모델이 맞췄냐가 아니라, 어떤 버전의 모델을 썼는지, 입력 영상 전처리는 어땠는지, 같은 환경에서 재현 가능한지로 옮겨감
    • 컴퓨터 비전 모델을 실서비스에 넣을 때 늘 따라오는 로깅, 감사 추적, 데이터 격리 문제가 법적 증거 영역에서는 훨씬 빡세게 요구될 수밖에 없음

기술 맥락

  • 이 사례에서 AI는 판사를 대신하는 도구가 아니라, 흐릿한 CCTV에서 사람이 놓치기 쉬운 정황을 구조화하는 보조 도구예요. 그래서 “AI가 범죄를 밝혀냈다”보다 “AI 분석 결과를 사람이 검증 가능한 형태로 수사 기록에 붙였다”에 가깝게 봐야 해요.

  • YOLOv8을 쓴 이유는 영상 안에서 사람 객체를 빠르게 찾는 데 강점이 있기 때문이에요. CCTV처럼 프레임이 많고 화질이 애매한 자료에서는 먼저 사람 위치를 안정적으로 잡아야 그다음 얼굴 방향이나 동작 해석으로 넘어갈 수 있거든요.

  • SixDRepNet은 얼굴 방향을 각도로 추정하는 모델이라서, 피의자가 피해자 쪽을 봤는지 같은 쟁점에 연결돼요. 다만 얼굴 방향이 곧바로 시선이나 인지 여부를 100% 증명하는 건 아니라서, 다른 정황과 함께 보조 근거로 다뤄야 해요.

  • 폐쇄망 운용이 강조된 것도 당연해요. 수사 영상은 민감한 개인정보와 사건 정보가 들어 있어서 외부 API로 보내는 순간 보안 문제가 생기거든요. 이런 환경에서는 모델 정확도뿐 아니라 배포 방식, 로그 관리, 버전 고정, 재현 가능한 분석 절차가 같이 중요해져요.

이건 단순히 “검찰도 AI 쓴다” 뉴스가 아니라, 오픈소스 컴퓨터 비전 모델이 법적 판단의 보조 근거로 들어가기 시작했다는 사례임. 개발자 입장에선 모델 정확도보다 재현성, 감사 가능성, 폐쇄망 운용 같은 엔지니어링 문제가 더 크게 보일 수밖에 없음.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.