본문으로 건너뛰기
피드

AI 상담에 마음을 맡기는 사람들, 편하긴 한데 진짜 괜찮을까

ai-ml 약 9분

AI 챗봇을 상담사처럼 쓰는 사람들이 늘고 있지만, 전문가들은 정서적 의존과 판단 외주화가 보이지 않는 위험을 만든다고 본다. 실제 실험에서는 AI가 즉각적인 위로와 명확한 답을 주는 데 강했지만, 인간 상담사는 질문을 통해 내담자가 자기 맥락을 더 깊게 보게 만들었다.

  • 1

    AI 챗봇은 무조건적 지지, 24시간 접근성, 비판하지 않는 태도 때문에 민감한 고민을 털어놓는 창구가 되고 있다

  • 2

    오픈AI는 2024년부터 정서적 과잉 의존을 안전 이슈로 다루기 시작했고, 정신건강 전문가 170여 명과 안전 테스트를 진행했다

  • 3

    커먼센스미디어 조사에서 청소년은 조언, 항상 이용 가능함, 판단하지 않음 등을 이유로 AI companion을 사용했다

  • 4

    국제 AI 안전 보고서는 일주일간 챗GPT 사용자 중 약 0.07%, 대략 49만 명이 급성 정신건강 위기 징후를 보였다고 짚었다

AI 챗봇은 왜 이렇게 쉽게 “내 편”이 되나

  • AI 상담의 매력은 생각보다 단순함. 언제나 있고, 지치지 않고, 귀찮아하지 않음

    • 기사에 나온 대학생 수빈은 챗지피티(ChatGPT)에 애칭까지 붙이고, 학교나 알바에 가기 싫은 날에도 대화 뒤 움직일 힘을 얻는다고 말함
    • 이미 10년 가까이 만난 인간 상담사가 있고 친구도 있지만, “이렇게까지 말할 사람은 없다”는 점에서 AI가 다른 자리를 차지함
  • 이 친밀함은 우연이 아니라 대화형 AI의 구조와 잘 맞물림

    • 사람은 원래 어떤 대상이 의도나 욕구를 가진 것처럼 해석하는 경향이 있음
    • 인지과학자 대니얼 데닛은 이를 의도적 태도(Intentional Stance)라고 불렀음
    • 챗봇은 조언하고, 위로하고, 기억하는 듯 반응하면서 이 의인화를 계속 강화함
  • “확률적 앵무새(Stochastic Parrots)” 논쟁은 여기서 다시 중요해짐

    • 2021년 에밀리 벤더, 팀닛 게브루, 마거릿 미첼 등이 낸 논문은 대규모 언어 모델(LLM)이 의미를 이해하는 존재가 아니라 학습된 패턴을 확률적으로 이어 붙인다고 비판함
    • 이 논문은 AI 성능 경쟁 위주였던 논의를 편향성, 사회적 책임, 의인화 위험으로 끌고 왔음
    • 당시 공동저자인 팀닛 게브루와 마거릿 미첼은 논문 철회 요구를 거부한 뒤 구글에서 해고 통보를 받았음

중요

> AI가 다정하게 말한다고 해서 관계의 책임까지 생기는 건 아님. 그런데 사용자는 그 다정함을 관계처럼 느끼기 시작한다는 게 핵심 위험임.

AI 상담과 인간 상담은 뭐가 달랐나

  • 시사IN은 실제로 AI 상담과 인간 상담을 비교하는 실험을 진행함

    • 2026년 3월22일, 15년 차 정신건강의학 전문의 김지용과 평소 AI 챗봇으로 상담하던 세 명을 한 스튜디오에 초대함
    • 참가자들은 먼저 AI 챗봇에 고민을 입력하고, 이후 인간 상담사와 1시간가량 오프라인 상담을 진행함
    • 상담 뒤에는 각각 만족도 점수를 매김
  • 수빈의 알바 고민에 AI는 빠르게 위로와 재해석을 제공함

    • AI는 “느린 사람이 아니라 압박 환경에 취약한 타입”이라고 진단하며, 미움받을까 봐 움츠러든 상태라고 설명함
    • 즉각적인 지지와 언어화에는 강했지만, 수빈은 AI 상담에 10점 만점 중 5.5점을 줌
    • 인간 상담사는 “왜 미움받는 걸 두려워한다고 생각하냐”처럼 배경을 파고들었고, 수빈은 8점을 줌
  • 고등학생 채민 사례에서는 “판단 외주화” 문제가 더 선명함

    • 채민은 “남자친구랑 헤어질까”, “친구랑 손절해도 될까”, “기분 나빠해도 되는 상황 맞을까” 같은 질문을 챗지피티에 자주 던짐
    • AI는 망설임 없이 답을 주고, 채민은 그 명확함에 만족해 AI에 9점을 줌
    • 인간 상담사는 “손절과 그대로 지낸다 사이에 어떤 선택지가 있을까”라고 물었고, 채민은 관계에 중간 선택지가 있을 수 있다는 걸 생각하게 됨
    • 상담 뒤 채민은 인간 상담사에게 10점을 줌
  • 태랑의 사례는 AI가 “맥락을 아는 척”할 때 생기는 피로를 보여줌

    • 태랑은 우울 증상, 약물 조절, 업무 고민까지 AI와 자주 상담하는 헤비 유저임
    • 하지만 AI가 상황을 잘 알지도 못하면서 넘겨짚고, 지적하면 바로 인정하는 태도에서 힘이 빠진다고 말함
    • 인간 상담에서는 말하는 사람과 듣는 사람의 맥락이 합쳐져 “관찰당하는 느낌”이 더 강했다고 설명함

기업들도 이 위험을 모른 척하기 어려워짐

  • 오픈AI도 정서적 의존을 공식 안전 이슈로 다루기 시작함

    • 2024년 8월8일 “정서적 과잉 의존(emotional overreliance)을 더 연구하겠다”고 밝힘
    • 2025년 3월21일에는 MIT 미디어랩과 공동 연구 결과를 공개하며, 정서적 사용이 일부 사용자 집단에서 분명히 나타난다고 인정함
    • 2025년 10월27일에는 안전 개선 우선 영역 중 하나로 AI에 대한 정서적 의존을 명시함
    • 새 모델 출시 전 정신건강 전문가 170여 명과 안전 테스트를 진행했다고도 밝힘
  • 세계보건기구(WHO)는 생성형 AI 사용을 공공 정신건강 문제로 봐야 한다고 경고함

    • AI가 정신건강용으로 만들어지거나 검증되지 않았는데도, 특히 젊은 층에서 정서적 지지 도구로 쓰이고 있다는 지적임
    • 기술 확산 속도를 정신건강 영향 평가가 따라가지 못한다는 점도 문제로 봄
  • 청소년 사용 데이터는 이 흐름이 이미 일상에 들어왔다는 걸 보여줌

    • 커먼센스미디어의 2025년 자료에 따르면, 청소년은 조언을 얻기 위해서 18%, 언제나 이용 가능해서 17%, 판단하지 않아서 14%의 이유로 AI companion을 사용함
    • 친구나 가족에게 못 할 말을 할 수 있어서 12%, 덜 외롭게 해줘서 9%, 실제 사람과 말하는 것보다 쉬워서 6%도 나옴
    • 세 명 중 한 명은 AI와의 대화가 인간과의 대화와 비슷하거나 더 낫다고 느낌

⚠️주의

> 상담사, 의사, 변호사처럼 AI를 쓰는 순간 기밀성, 책임, 안전성 문제가 바로 따라붙음. 샘 올트먼도 젊은 이용자들이 이런 식으로 AI를 쓰는 상황을 두고 “정말 엉망”이라고 표현함.

한국에서도 이미 남의 얘기가 아님

  • 한국 조사에서도 AI 상담과 건강 상담 사용은 꽤 빠르게 퍼지는 중임

    • 한국리서치가 2025년 3월 전국 성인 1000명을 조사했더니, 전문 상담사를 이용할 의향은 56%, AI 상담사를 이용할 의향은 40%로 나옴
    • 실제 상담 경험은 전문 상담사 16%, AI 상담사 11%로 낮아지지만, 접근 장벽이 낮은 AI 쪽이 계속 커질 가능성이 큼
  • 건강 정보 쪽에서는 사용률이 더 높게 잡힘

    • 한국언론진흥재단의 2026년 4월 보고서에 따르면, 성인 응답자 49%가 생성형 AI에 건강 문제를 상담한 경험이 있음
    • 민감한 건강 문제를 상담한 경험도 24%였음
    • 생성형 AI가 실제 의사나 한의사의 진료를 어느 정도 대체할 수 있다고 본 비율은 58.3%에 달함
  • 국제 AI 안전 보고서는 아직 대화형 AI가 정신건강 문제를 직접 유발한다는 명확한 증거는 없다고 봄

    • 하지만 일주일간 챗지피티 사용자 중 약 0.07%가 급성 정신건강 위기 같은 징후를 보였다고 지적함
    • 이 비율은 대략 49만 명 규모의 취약 사용자가 있다는 뜻임
    • AI의 잘못된 응답이 실제 피해로 이어질 수 있다는 경고가 나오는 이유임
  • 결국 대화형 AI의 위험은 유해 콘텐츠처럼 눈에 확 띄지 않음

    • 사람이 AI를 인간관계의 대체물로 쓰는 변화
    • 판단을 AI에게 넘기는 습관
    • 애매함을 견디며 성장할 기회를 잃는 문제
    • 이런 건 로그나 신고 건수만으로 잘 안 보이지만, 제품 설계와 안전 정책에서는 훨씬 까다로운 문제임

기술 맥락

  • 이 기사에서 중요한 기술적 선택은 챗봇을 단순한 질의응답 도구로 볼지, 사회적 행위자처럼 작동하는 인터페이스로 볼지예요. 같은 대규모 언어 모델(LLM)이라도 말투, 기억, 맞장구, 거절 방식이 붙으면 사용자는 도구보다 관계에 가깝게 느끼거든요.

  • AI 제품팀 입장에서는 친절한 답변이 유지율과 만족도를 올려요. 그런데 그 친절함이 정서적 미러링, 과도한 동조, 확신 있는 조언으로 이어지면 사용자가 자기 판단을 맡겨버릴 수 있어요. 그래서 안전 설계는 “틀린 답 방지”만으로는 부족해요.

  • 인간 상담사와 AI 상담의 차이는 정보량보다 관계의 구조에서 나와요. AI는 사용자가 준 맥락 안에서 바로 답을 만들지만, 인간 상담사는 질문을 통해 사용자가 빠뜨린 맥락을 다시 보게 만들어요. 이 차이 때문에 같은 고민에도 결과가 꽤 달라질 수 있어요.

  • 규제 관점에서는 콜링리지 딜레마가 그대로 걸려 있어요. 지금은 위험을 정확히 재기 어렵고, 나중에는 AI companion과 상담형 챗봇이 이미 생활 인프라처럼 굳어질 수 있거든요. 그래서 로그 보존, 위기 감지, 전문가 연결, 민감 정보 처리 같은 운영 기준을 초기에 잡는 게 중요해요.

이 기사는 AI 상담을 단순히 “좋다/나쁘다”로 자르지 않는다. 개발자에게 중요한 포인트는 대화형 AI의 친절함과 확신 있는 문장이 제품 지표에는 좋아 보여도, 사용자 판단과 관계 맺는 방식까지 바꿀 수 있다는 점이다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

앤트로픽이 스페이스X 데이터센터를 쓰는 이유, AI 권력이 컴퓨팅으로 이동 중

앤트로픽이 스페이스X의 멤피스 콜로서스 I 데이터센터를 쓰는 계약을 맺었다는 보도다. 300MW 이상, 엔비디아 GPU 22만 개 이상 규모의 컴퓨팅 용량이 언급됐고, 폭증하는 AI 수요와 낮은 칩 가동률을 맞교환하는 거래로 해석된다.

ai-ml

AI 생산성 2.5%가 미국 39조 달러 부채를 구할 수 있을까

예일대 예산연구소 모델링에 따르면 AI가 향후 5년간 생산성을 매년 2.5% 끌어올리고 고용이 유지되면 미국의 2035년 재정 적자와 부채 비율이 크게 안정될 수 있다. 하지만 AI가 노동자를 대체해 실업 지원 비용이 커지면 생산성 이득 상당 부분이 상쇄될 수 있다는 경고도 함께 나온다.

ai-ml

AI 도입보다 어려운 건 IP 워크플로우 다시 짜기

IP와 R&D 업무에 AI를 붙였더니 초기 효율은 좋아졌지만, 시간이 지나자 모델별 품질 편차와 검증 부담이 새 병목으로 떠올랐다는 얘기다. 핵심은 특정 AI 도구를 더 사는 게 아니라, AI가 후보를 만들고 전문가가 검증하는 식으로 업무 흐름 자체를 재설계하는 데 있다.

ai-ml

클로드 코워크, 복붙 대신 PC를 직접 만지는 AI 에이전트로 가는 길

앤스로픽의 ‘클로드 코워크’는 챗봇처럼 답만 주는 도구가 아니라, PC 폴더와 파일을 직접 열고 정리하며 엑셀 결과물까지 만드는 에이전트형 업무 도구로 소개됐다. 영수증 사진 30장을 읽어 매장명·날짜·항목·금액을 표로 만들고 합계 수식이 들어간 엑셀 파일까지 생성하는 사례가 핵심이다.

ai-ml

국내 의료 AI, 전시용 기술에서 임상 현장 도구로 이동 중

AI 엑스포 코리아 2026에서 국내 의료 AI 기업들이 병원 문서 구조화, 안저 질환 진단 보조, 정신건강 관리 솔루션을 선보였다. 특히 녹내장 93%, 당뇨병성 망막병증 민감도 90% 같은 임상 성적을 내세우며 ‘기술 시연’보다 실제 현장 가치 증명에 초점을 맞췄다.