0
메타 AI가 쏟아내는 '쓰레기' 아동학대 신고 — 수사관들 "익사 직전"
ai-ml
요약
기사 전체 정리
메타 AI가 쏟아내는 '쓰레기' 아동학대 신고 — 수사관들 "익사 직전"
AI가 만든 신고의 홍수
- 메타의 AI 콘텐츠 모더레이션이 대량의 쓸모없는 아동 성학대(CSAM) 신고를 생성하고 있음. 미국 ICAC(인터넷 아동범죄 수사반) 요원이 법정에서 "메타에서 오는 신고 중 상당수는 그냥 쓰레기"라고 증언함
- ICAC에 접수되는 사이버 신고 건수가 2024년 대비 2025년에 2배로 증가함. 특히 인스타그램 관련 신고가 최근 수개월간 급증함
- 메타는 NCMEC(실종·착취아동센터) 최대 신고자임. 2024년 전체 2,050만 건 중 메타가 1,380만 건(67%)을 차지함
신고 품질 문제
- 신고 내용에 범죄가 아닌 정보가 포함되거나, 범죄가 의심되지만 핵심 이미지·영상·텍스트가 누락된 경우가 많음
- 예를 들어 10대 소녀들이 좋아하는 연예인에 대해 대화하는 내용이 CSAM 신고로 접수되기도 함 — 사람이면 절대 안 할 실수를 AI가 하고 있음
- AI가 생성한 신고는 사람이 리뷰하지 않았기 때문에 수사관이 열람하려면 영장이 필요함 (수정헌법 4조). 이 절차 때문에 수사가 더욱 지연됨
암호화 논쟁과 메타 내부 문서
- 2019년 메타 내부 문서가 공개됨. 콘텐츠 정책 책임자 모니카 비커트는 메신저 종단간 암호화에 대해 **"우리는 회사로서 나쁜 일을 하려 하고 있다. 너무 무책임하다"**고 경고함
- 메타 직원들의 추산에 따르면, 메신저 암호화 시 법 집행기관에 데이터를 제공할 수 없게 되는 사건이 아동 착취 600건, 성착취 협박 1,454건, 테러 152건, 학교 총기 위협 9건에 달했음
- 메신저 암호화는 결국 2023년에 도입됨. 아동 안전 단체들은 이를 강하게 비판해옴
Report Act 이후 상황 악화
- 2024년 11월 발효된 Report Act는 온라인 서비스 제공자의 신고 의무를 강화함. CSAM뿐 아니라 계획된 학대, 아동 성매매 등도 신고해야 하고 증거 보존 기간도 늘어남
- 이 법 시행 이후 메타의 실효성 없는 신고가 급증함. 메타가 법 위반을 피하려고 AI 필터를 과도하게 넓힌 것으로 보임
- 반면 실제 CSAM 유포에 대한 유효 신고는 이전보다 줄었다고 ICAC 요원이 증언함
현장의 목소리
- "사기가 바닥나고 있다. 신고에 파묻혀 있는데 진짜 수사를 하고 싶다" — ICAC 수사관
- "인력으로 이 물량을 감당할 수 없다. 쏟아지는 홍수를 따라잡을 방법이 없다"
- 모든 신고를 의무적으로 검토해야 하기 때문에, 쓸모없는 신고가 실제 아동학대 수사 자원을 잠식하는 구조임
중요
> AI 모더레이션의 "많이 신고하면 안전하다"는 접근이 오히려 수사 역량을 마비시키고 있음. 법적 의무 강화 + AI 과잉 탐지 + 영장 요건이 결합되면서, 진짜 피해 아동을 보호해야 할 자원이 가짜 신고 처리에 소모되는 역설적 상황이 벌어지고 있음
댓글
댓글
댓글을 불러오는 중...