---
title: "Grok이 만든 딥페이크 아동성착취물 — 법은 AI를 따라잡고 있나"
published: 2026-04-21T20:05:01.606Z
canonical: https://jeff.news/article/1853
---
# Grok이 만든 딥페이크 아동성착취물 — 법은 AI를 따라잡고 있나

미국에서 10대 소녀들이 X를 상대로 Grok 기반 딥페이크 CSAM 소송을 제기하면서 AI 생성물과 아동보호법의 간극이 드러났다. 한국 대법원은 아동 얼굴 합성 딥페이크에 대해 '실제 아동 등장'이 아니라는 이유로 아동성착취물 제작죄를 적용하지 않았고, 2026년 2월 개정안이 이 공백을 메우려 하고 있지만 일률적 하한형 적용의 형벌 비례성 문제가 남아있다.

- 일론 머스크가 X에 붙인 AI 이름 'Grok'은 SF소설에서 따온 "심층적으로 이해하고 공감하다"는 뜻임 — 근데 요즘 이 Grok이 디지털 성범죄까지 "Grok"해버려서 세계적 논란
  - 2026년 3월 가디언 보도에 따르면 미국 10대 소녀 3명이 X를 상대로 소송을 제기함. 누군가가 Grok으로 여학생들의 딥페이크 CSAM(Child Sexual Abuse Material, 아동 성착취물)을 만들어 유포했다는 주장
  - 한국에서도 '지인능욕'이라는 이름으로 이미 광범위하게 퍼진 문제

> [!IMPORTANT]
> 2026년 4월 성평등가족부 발표 — 지난 해 디지털 성범죄 피해자 1만 637명 중 10대가 28.5%. 특히 합성·편집 피해 유형에서는 10대가 46.3%를 차지함. 아동·청소년이 주 타깃이 되고 있음

### 법적 공백 — 아동 딥페이크는 '성착취물'이 아니다?

- 현재 아동 얼굴을 합성한 딥페이크는 성폭력처벌법상 '허위영상물 편집죄'로 처벌됨 — 7년 이하 징역 또는 5천만 원 이하 벌금
  - 문제는 청소년성보호법상 '아동·청소년 성착취물 제작죄'(무기징역 또는 5년 이상 징역)와 처벌 수위 차이가 엄청나다는 점
  - 아동 얼굴 딥페이크를 어느 법으로 처벌할지가 논쟁의 핵심

- 대법원 2024도17801 판결 — 16세 후배 얼굴을 성인 나체와 합성한 사건에서 허위영상물 편집죄만 유죄, 아동성착취물 제작죄는 무죄 판결
  - 이유: 합성사진은 창작자가 만든 '이미지'일 뿐 실제 아동이 등장한 게 아니고, 외관상 '명백하게' 아동으로 인식되지 않는다는 이유
  - 법정형이 살인죄급으로 중해서 확장해석을 엄격히 금지한다는 죄형법정주의 원칙을 그대로 적용한 결과

### 개정안은 나왔지만 과연 만능인가

- 2026년 2월 청소년성보호법 개정안 발의 — AI로 만든 아동의 '성적 디지털 위조물'도 성착취물 제작죄로 처벌 대상 포함
  - 개정되면 아동 얼굴을 쓴 AI 딥페이크는 '명백히 아동으로 인식되는지'를 따지지 않고도 무기징역 또는 5년 이상 징역 가능
  
- 근데 필자(부장검사)가 던지는 문제의식 — 살인죄급 하한형을 "일률적으로" 적용하는 게 과연 타당한가
  - 유포 목적으로 지인능욕방 만든 케이스 → 엄벌 공감대 있음
  - 서로 동의하에 만든 합성 사진, 상상 속 애니메이션 캐릭터 창작물 등은 다른 잣대 필요하지 않나?
  - 형벌 비례성 측면에서 구분이 필요하다는 주장

- 결론 — AI는 삶을 개선하지만 "범죄의 문턱도 낮추고 있다". 법이 기술 속도에 뒤처지지 않고 최후의 보루가 되려면 사건별 맥락을 살필 수 있는 유연성도 필요함

---

## 기술 맥락

딥페이크 CSAM 문제는 단순히 '법이 느리다'로 끝날 이슈가 아니에요. 진짜 논쟁은 AI 생성물의 법적 지위가 어디에 놓이는지에 있거든요.

기존 형법은 '실제 아동이 등장하는 성착취물'을 전제로 설계되어 있어요. 그래서 대법원도 "합성사진은 창작된 이미지일 뿐"이라며 아동성착취물 제작죄 적용을 거부한 거예요. 기술이 실사와 구분 불가능한 합성을 만들어내는 시대에, 법은 여전히 "실제 존재 여부"라는 20세기 기준으로 판단하고 있는 셈이죠.

개정안이 '성적 디지털 위조물'이라는 새로운 범주를 도입한 건 이 격차를 메우려는 시도예요. 근데 여기서 두 번째 문제가 발생해요 — 아동성착취물 제작죄는 피해자 동의 여부와 배포 목적을 따지지 않고 살인죄급 하한형을 일률 적용하거든요. 조직적 유포자와 개인적 창작물을 같은 잣대로 처벌하면 비례성 원칙과 충돌한다는 거예요.

개발자 관점에서 보면 Grok처럼 콘텐츠 필터가 약한 모델이 배포될 때, 플랫폼 책임 범위도 같이 논의 테이블에 올라와요. 모델 제공자의 가드레일이 어디까지 법적 책임을 커버하는지는 아직 답이 없는 영역이거든요.

## 핵심 포인트

- Grok으로 제작된 딥페이크 CSAM 사건으로 미국에서 X 대상 소송 진행 중
- 2025년 디지털 성범죄 피해자 1만 637명 중 10대가 28.5%, 합성·편집 피해에선 46.3%
- 대법원 2024도17801 판결 — 아동 얼굴 합성은 '실제 등장'이 아니라며 아동성착취물죄 무죄
- 2026년 2월 개정안 발의로 AI 딥페이크도 '성적 디지털 위조물'로 포함 추진
- 살인죄급 하한형을 모든 케이스에 일률 적용하는 게 타당한지 비례성 논쟁 존재

## 인사이트

AI 생성물의 법적 지위가 명확하지 않아 같은 행위도 처벌 수위가 극명하게 갈리는 상황이다. 개발자 입장에서도 모델 가드레일과 플랫폼 책임의 경계가 법적으로 재정의되는 과정을 주시할 필요가 있다.
