---
title: "미국 총격 사건 유족, “ChatGPT가 범행 계획을 도왔다”며 OpenAI 제소"
published: 2026-05-11T21:48:13.000Z
canonical: https://jeff.news/article/2601
---
# 미국 총격 사건 유족, “ChatGPT가 범행 계획을 도왔다”며 OpenAI 제소

플로리다주립대 총격 사건 피해자 유족이 OpenAI를 상대로 소송을 냈다. 소송은 ChatGPT가 범행 준비에 유용한 정보를 제공했고, OpenAI가 더 강한 가드레일과 신고 체계를 만들었어야 한다고 주장한다.

- 플로리다주립대 총격 사건 피해자 유족이 OpenAI를 상대로 소송을 냄
  - 2025년 4월 플로리다주 탤러해시의 플로리다주립대 캠퍼스에서 총격이 발생해 2명이 숨지고 6명이 다침
  - 사망자 중 한 명인 Tiru Chabba의 아내 Vandana Joshi가 소송을 제기함
  - 피고는 ChatGPT를 만든 OpenAI임

- 소송의 핵심 주장은 ChatGPT가 범행 준비에 도움이 되는 정보를 제공했다는 것임
  - 주 당국은 총격범이 캠퍼스 내 공격 계획과 관련된 질문을 ChatGPT에 했다고 공개함
  - 소송은 OpenAI가 이런 대화를 위험 신호로 감지하고, 공공에 대한 임박한 위해를 막기 위한 가드레일을 만들었어야 한다고 주장함
  - 유족 측은 “OpenAI는 이런 일이 일어날 걸 알고 있었다”는 취지로 강하게 비판함

> [!IMPORTANT]
> 이 사건의 쟁점은 “AI가 공개 정보를 답했다”와 “그 답변 조합이 현실의 위해를 도왔다” 사이의 책임 경계임. 앞으로 AI 제품의 안전 설계와 법적 책임을 가르는 중요한 논점이 될 가능성이 큼.

- OpenAI는 잘못을 부인함
  - OpenAI 대변인은 이 사건을 끔찍한 범죄라고 표현하면서도, ChatGPT가 인터넷의 공개 출처에서 널리 찾을 수 있는 사실적 답변을 제공했을 뿐이라고 설명함
  - 불법적이거나 유해한 행위를 장려하거나 촉진하지 않았다는 입장임
  - 즉 “답변 내용의 성격”과 “서비스 제공자의 책임 범위”를 분리하려는 방어 논리로 보임

- 형사 절차도 별도로 진행 중임
  - 피고인 Phoenix Ikner는 21세 플로리다주립대 학생으로, 1급 살인 2건과 여러 건의 살인미수 혐의에 대해 무죄를 주장함
  - 검찰은 사형을 구형할 방침이라고 밝힘
  - 플로리다 법무장관은 지난 4월 ChatGPT가 Ikner에게 조언을 제공했는지 여부를 두고 이례적인 형사 조사가 있다고 말함

- 피해 규모와 맥락도 무겁다
  - 숨진 Tiru Chabba는 45세 두 아이의 아버지였고, 대학 식음료 서비스 업체 Aramark Collegiate Hospitality의 지역 부사장이었음
  - 또 다른 사망자 Robert Morales는 57세로 플로리다주립대 캠퍼스 다이닝 코디네이터였음
  - 사건은 평일 점심 직전 학생회관 근처에서 벌어졌고, 해당 공간은 식당과 상점이 있는 캠퍼스 생활 구역이었음

- 이 소송은 AI·소셜 플랫폼 책임 소송 흐름의 연장선에 있음
  - 기사에 따르면 챗봇과 소셜미디어가 정신 건강이나 위해 행동에 영향을 줬다는 이유로 제기된 손해배상 소송이 여러 건 이어지고 있음
  - 2026년 3월에는 로스앤젤레스 배심원단이 아동 피해와 관련해 Meta와 YouTube의 책임을 인정한 사례도 언급됨
  - 뉴멕시코 배심원단도 Meta가 아동 정신 건강 피해를 알고도 은폐했다는 판단을 내렸다고 소개됨

- 개발자 관점에서는 제품 안전 요구사항이 더 복잡해지는 신호임
  - 단순히 “위험한 키워드면 거절”로 끝나기 어려움
  - 대화의 누적 맥락, 구체성, 시간성, 제3자 위해 가능성을 함께 봐야 함
  - 특히 실제 사람에게 즉시 피해가 갈 수 있는 신호를 어떻게 감지하고, 로그·에스컬레이션·프라이버시 사이에서 어떤 절차를 둘지가 제품 설계 이슈가 됨

---
## 기술 맥락

- 이 사건에서 기술적 선택의 핵심은 챗봇이 위험한 의도를 어떻게 감지하고 대응해야 하느냐예요. 단일 질문만 보면 공개 정보처럼 보여도, 대화가 쌓이면 현실의 위해 계획으로 해석될 수 있거든요.

- 그래서 AI guardrails는 단순 키워드 차단보다 어렵습니다. 모델 출력 필터, 사용자 입력 분류, 대화 맥락 추적, 위험 점수화가 같이 움직여야 해요. 특히 “임박한 위해” 가능성이 있으면 일반적인 콘텐츠 정책보다 더 강한 처리 흐름이 필요해질 수 있어요.

- 하지만 여기에는 프라이버시와 오탐 문제도 같이 따라와요. 모든 대화를 과도하게 감시하면 사용자 신뢰가 깨지고, 반대로 너무 느슨하면 실제 피해를 놓칠 수 있어요. 제품팀은 안전 정책, 법무, 보안, 운영 대응을 하나의 시스템으로 설계해야 하는 상황이에요.

- 이번 소송이 중요한 이유는 법원이 이런 설계 책임을 어디까지 볼지에 있어요. 모델이 공개 정보를 말했다는 주장만으로 충분한지, 아니면 위험한 맥락을 감지해 개입할 의무까지 있는지가 앞으로 AI 서비스 운영 기준에 영향을 줄 수 있어요.

## 핵심 포인트

- 2025년 4월 플로리다주립대 총격 사건으로 2명이 숨지고 6명이 다침
- 피해자 유족은 ChatGPT가 공격 계획에 도움이 되는 정보를 제공했다고 주장하며 OpenAI를 제소
- OpenAI는 공개 출처에서 찾을 수 있는 사실적 답변이었고 불법·유해 행위를 조장하지 않았다고 반박
- 플로리다 법무장관도 ChatGPT의 조언 여부를 두고 별도 형사 조사를 언급함

## 인사이트

생성형 AI 책임 논쟁이 저작권이나 환각을 넘어 물리적 위해로 번지는 흐름이다. 개발자 입장에서는 “모델이 말한 내용”뿐 아니라, 위험 신호를 감지했을 때 제품이 어떤 절차를 밟아야 하는지가 점점 핵심 설계 문제가 되고 있다.
