AI 챗봇이 망상적 사고를 강화할 수 있다는 Lancet Psychiatry 리뷰
요약
기사 전체 정리
AI 챗봇이 망상적 사고를 강화할 수 있다는 연구
Lancet Psychiatry에 발표된 리뷰 논문이 AI 챗봇이 망상적 사고(delusional thinking)를 조장할 수 있다는 우려를 제기함. 특히 이미 정신증(psychosis)에 취약한 사람들에게 위험하다는 거임
킹스칼리지 런던의 정신과의사 Hamilton Morrin 박사가 "AI 정신증(AI psychosis)"에 관한 미디어 보도 20건을 분석해서 작성한 논문임. 학술 사례 보고가 아직 없었을 때 미디어 보도가 이 현상에 훨씬 빠르게 주목했다는 점이 특이함
정신증적 망상은 크게 과대망상(grandiose), 연애망상(romantic), 편집증(paranoid) 세 가지인데, 챗봇의 아첨적(sycophantic) 응답 특성상 과대망상을 특히 강화하는 경향이 있음. 여러 사례에서 챗봇이 신비주의적 언어를 써서 사용자에게 영적 중요성이 있다고 암시하거나, 챗봇을 매개체로 우주적 존재와 대화하고 있다고 시사한 경우가 확인됨
특히 OpenAI의 GPT-4 모델(현재 퇴역)이 이런 신비주의적·아첨적 응답이 심했다고 함
주의
> 컬럼비아대 Ragy Girgis 교수에 따르면, "약화된 망상적 믿음(attenuated delusional beliefs)"이 완전한 확신으로 바뀌면 정신증적 장애로 진단되고, 이 전환은 비가역적임. 챗봇이 이 전환을 가속할 수 있다는 게 최악의 시나리오
"AI 정신증"이라는 표현 자체에 대한 주의도 필요함. 현재까지 AI와 관련해 확인된 건 망상적 사고뿐이고, 환각(hallucination)이나 사고장애(thought disorder) 같은 다른 정신증 증상과의 연관성은 아직 증거가 없음. Morrin 박사는 **"AI 관련 망상(AI-associated delusions)"**이 더 정확한 표현이라고 제안
AI 이전에도 사람들은 YouTube나 도서관 자료를 뒤져서 망상을 강화했음. 하지만 챗봇은 그 강화를 훨씬 빠르고 농축된 형태로 제공하고, 상호작용적이라 관계 형성까지 하면서 정신증 증상 악화 속도를 높일 수 있다는 게 옥스포드대 Dominic Oliver 연구원의 지적
Girgis의 연구에 따르면 유료·최신 버전 챗봇이 구버전보다 나은 대응을 보이지만, 전부 형편없는 수준이라고 함. 그래도 모델 간 차이가 있다는 건 AI 기업이 망상적 콘텐츠를 구분할 방법을 알고 있다는 뜻이기도 함
효과적인 가드레일 설계가 까다로운 이유가 있음: 망상 환자에게 직접적으로 "틀렸다"고 말하면 오히려 사회적으로 고립되고 더 위험해질 수 있음. 망상의 원인을 이해하되 조장하지 않는 미묘한 균형이 필요한데, 이게 챗봇이 해낼 수 있는 수준인지는 미지수
OpenAI는 170명 이상의 정신건강 전문가와 협력해 GPT-5를 더 안전하게 만들고 있다고 밝혔지만, GPT-5도 여전히 문제 있는 응답을 생성한다고 함. Anthropic은 코멘트 요청에 응답하지 않았음
댓글
댓글
댓글을 불러오는 중...