본문으로 건너뛰기
피드

미국 총격 사건 유족, “ChatGPT가 범행 계획을 도왔다”며 OpenAI 제소

ai-ml 약 6분

플로리다주립대 총격 사건 피해자 유족이 OpenAI를 상대로 소송을 냈다. 소송은 ChatGPT가 범행 준비에 유용한 정보를 제공했고, OpenAI가 더 강한 가드레일과 신고 체계를 만들었어야 한다고 주장한다.

  • 1

    2025년 4월 플로리다주립대 총격 사건으로 2명이 숨지고 6명이 다침

  • 2

    피해자 유족은 ChatGPT가 공격 계획에 도움이 되는 정보를 제공했다고 주장하며 OpenAI를 제소

  • 3

    OpenAI는 공개 출처에서 찾을 수 있는 사실적 답변이었고 불법·유해 행위를 조장하지 않았다고 반박

  • 4

    플로리다 법무장관도 ChatGPT의 조언 여부를 두고 별도 형사 조사를 언급함

  • 플로리다주립대 총격 사건 피해자 유족이 OpenAI를 상대로 소송을 냄

    • 2025년 4월 플로리다주 탤러해시의 플로리다주립대 캠퍼스에서 총격이 발생해 2명이 숨지고 6명이 다침
    • 사망자 중 한 명인 Tiru Chabba의 아내 Vandana Joshi가 소송을 제기함
    • 피고는 ChatGPT를 만든 OpenAI임
  • 소송의 핵심 주장은 ChatGPT가 범행 준비에 도움이 되는 정보를 제공했다는 것임

    • 주 당국은 총격범이 캠퍼스 내 공격 계획과 관련된 질문을 ChatGPT에 했다고 공개함
    • 소송은 OpenAI가 이런 대화를 위험 신호로 감지하고, 공공에 대한 임박한 위해를 막기 위한 가드레일을 만들었어야 한다고 주장함
    • 유족 측은 “OpenAI는 이런 일이 일어날 걸 알고 있었다”는 취지로 강하게 비판함

중요

> 이 사건의 쟁점은 “AI가 공개 정보를 답했다”와 “그 답변 조합이 현실의 위해를 도왔다” 사이의 책임 경계임. 앞으로 AI 제품의 안전 설계와 법적 책임을 가르는 중요한 논점이 될 가능성이 큼.

  • OpenAI는 잘못을 부인함

    • OpenAI 대변인은 이 사건을 끔찍한 범죄라고 표현하면서도, ChatGPT가 인터넷의 공개 출처에서 널리 찾을 수 있는 사실적 답변을 제공했을 뿐이라고 설명함
    • 불법적이거나 유해한 행위를 장려하거나 촉진하지 않았다는 입장임
    • 즉 “답변 내용의 성격”과 “서비스 제공자의 책임 범위”를 분리하려는 방어 논리로 보임
  • 형사 절차도 별도로 진행 중임

    • 피고인 Phoenix Ikner는 21세 플로리다주립대 학생으로, 1급 살인 2건과 여러 건의 살인미수 혐의에 대해 무죄를 주장함
    • 검찰은 사형을 구형할 방침이라고 밝힘
    • 플로리다 법무장관은 지난 4월 ChatGPT가 Ikner에게 조언을 제공했는지 여부를 두고 이례적인 형사 조사가 있다고 말함
  • 피해 규모와 맥락도 무겁다

    • 숨진 Tiru Chabba는 45세 두 아이의 아버지였고, 대학 식음료 서비스 업체 Aramark Collegiate Hospitality의 지역 부사장이었음
    • 또 다른 사망자 Robert Morales는 57세로 플로리다주립대 캠퍼스 다이닝 코디네이터였음
    • 사건은 평일 점심 직전 학생회관 근처에서 벌어졌고, 해당 공간은 식당과 상점이 있는 캠퍼스 생활 구역이었음
  • 이 소송은 AI·소셜 플랫폼 책임 소송 흐름의 연장선에 있음

    • 기사에 따르면 챗봇과 소셜미디어가 정신 건강이나 위해 행동에 영향을 줬다는 이유로 제기된 손해배상 소송이 여러 건 이어지고 있음
    • 2026년 3월에는 로스앤젤레스 배심원단이 아동 피해와 관련해 Meta와 YouTube의 책임을 인정한 사례도 언급됨
    • 뉴멕시코 배심원단도 Meta가 아동 정신 건강 피해를 알고도 은폐했다는 판단을 내렸다고 소개됨
  • 개발자 관점에서는 제품 안전 요구사항이 더 복잡해지는 신호임

    • 단순히 “위험한 키워드면 거절”로 끝나기 어려움
    • 대화의 누적 맥락, 구체성, 시간성, 제3자 위해 가능성을 함께 봐야 함
    • 특히 실제 사람에게 즉시 피해가 갈 수 있는 신호를 어떻게 감지하고, 로그·에스컬레이션·프라이버시 사이에서 어떤 절차를 둘지가 제품 설계 이슈가 됨

기술 맥락

  • 이 사건에서 기술적 선택의 핵심은 챗봇이 위험한 의도를 어떻게 감지하고 대응해야 하느냐예요. 단일 질문만 보면 공개 정보처럼 보여도, 대화가 쌓이면 현실의 위해 계획으로 해석될 수 있거든요.

  • 그래서 AI guardrails는 단순 키워드 차단보다 어렵습니다. 모델 출력 필터, 사용자 입력 분류, 대화 맥락 추적, 위험 점수화가 같이 움직여야 해요. 특히 “임박한 위해” 가능성이 있으면 일반적인 콘텐츠 정책보다 더 강한 처리 흐름이 필요해질 수 있어요.

  • 하지만 여기에는 프라이버시와 오탐 문제도 같이 따라와요. 모든 대화를 과도하게 감시하면 사용자 신뢰가 깨지고, 반대로 너무 느슨하면 실제 피해를 놓칠 수 있어요. 제품팀은 안전 정책, 법무, 보안, 운영 대응을 하나의 시스템으로 설계해야 하는 상황이에요.

  • 이번 소송이 중요한 이유는 법원이 이런 설계 책임을 어디까지 볼지에 있어요. 모델이 공개 정보를 말했다는 주장만으로 충분한지, 아니면 위험한 맥락을 감지해 개입할 의무까지 있는지가 앞으로 AI 서비스 운영 기준에 영향을 줄 수 있어요.

생성형 AI 책임 논쟁이 저작권이나 환각을 넘어 물리적 위해로 번지는 흐름이다. 개발자 입장에서는 “모델이 말한 내용”뿐 아니라, 위험 신호를 감지했을 때 제품이 어떤 절차를 밟아야 하는지가 점점 핵심 설계 문제가 되고 있다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.