본문으로 건너뛰기
피드

위버스, 구글 클라우드 대화형 AI로 245개국 팬 문의 처리

ai-ml 약 5분

위버스가 글로벌 팬 지원 시스템에 구글 클라우드의 대화형 AI와 CX 에이전트 스튜디오를 도입했다. 티켓 예매, 굿즈 구매, 플랫폼 기능 문의를 24시간 처리하고, 3월 도입 이후 245개 국가·지역의 고객 문의를 AI 자동화로 처리했다고 밝혔다.

  • 1

    위버스가 구글 클라우드의 머신러닝·자연어 처리 기반 대화형 AI를 팬 지원 시스템에 적용

  • 2

    CX 에이전트 스튜디오를 기반으로 글로벌 팬덤 대상 실시간 지원 체계를 구축

  • 3

    3월 도입 이후 245개 국가 및 지역에서 들어온 고객 문의를 처리

  • 4

    기존 데이터 분석 플랫폼을 BigQuery로 이전한 흐름과 AI 고객지원 자동화가 연결됨

  • 위버스가 구글 클라우드의 대화형 AI를 글로벌 팬 지원 시스템에 붙임

    • 대상 업무는 티켓 예매, MD 구매, 플랫폼 기능 관련 문의
    • 목표는 전 세계 팬들에게 24시간 즉각적인 고객지원을 제공하는 것
    • 머신러닝과 자연어 처리(NLP)를 활용해 팬 문의를 자동으로 처리하는 구조임
  • 이번 도입의 핵심 제품은 구글 클라우드의 CX 에이전트 스튜디오임

    • 위버스는 이걸 기반으로 AI 자동화 고객지원 체계를 구축함
    • 수백만 명 규모 사용자 요구에 맞춰 즉시 확장할 수 있다는 점을 강조함
    • 시간대와 언어가 제각각인 글로벌 팬덤을 상대해야 해서, 단순 FAQ 봇으로는 한계가 큰 영역임

중요

> 숫자로 보면 꽤 큰 케이스임. 위버스는 지난 3월 시스템 도입 이후 245개 국가 및 지역에서 들어온 고객 문의를 AI 자동화로 처리했다고 밝힘.

  • 이 프로젝트는 고객지원만 따로 붙인 게 아니라, 기존 데이터 인프라 전환의 연장선임

    • 위버스는 앞서 대형 아티스트 이벤트 때 발생하는 트래픽 폭주에 대응하기 위해 데이터 분석 플랫폼을 BigQuery로 이전함
    • 데이터와 AI 환경을 통합해 팬 행동을 더 깊게 이해하고, 플랫폼 성능을 최적화하는 토대를 만들었다는 설명임
    • 즉 고객 문의 자동화와 데이터 분석 인프라가 따로 노는 게 아니라 같은 방향으로 묶인 셈임
  • 위버스가 이걸 필요로 한 이유는 팬덤 서비스 특유의 운영 복잡성 때문임

    • 글로벌 아티스트 활동이 있을 때 트래픽과 문의가 동시에 폭증함
    • 팬들은 각자 다른 언어, 시간대, 구매 흐름, 이벤트 조건을 갖고 들어옴
    • 최준원 대표는 이런 운영 복잡성이 혁신적인 기술 솔루션 없이는 해결하기 어렵다고 설명함
  • 앞으로는 처리 효율을 더 끌어올리는 게 목표임

    • 위버스는 연내 처리 효율을 두 배로 높이겠다고 밝힘
    • 장기적으로는 최신 AI 기술을 계속 탐구해 고객 불편 없는 서비스를 제공하겠다는 계획임
    • 실제 서비스 운영에서 AI 성패는 '대답을 그럴듯하게 한다'보다 피크 타임에 얼마나 안정적으로 버티는지가 더 중요함

기술 맥락

  • 위버스 사례에서 중요한 선택은 고객지원 AI만 도입한 게 아니라, 데이터 분석 기반과 AI 자동화를 같이 묶었다는 점이에요. 글로벌 팬덤 서비스는 이벤트가 뜨는 순간 트래픽, 결제, 배송, 문의가 한꺼번에 몰리기 때문에 고객지원만 따로 최적화해선 한계가 있거든요.

  • BigQuery 이전이 먼저 언급되는 이유도 여기에 있어요. 사용자 행동과 문의 패턴을 대규모로 분석할 수 있어야 어떤 질문이 반복되는지, 어느 이벤트에서 병목이 생기는지, 어떤 언어권 지원이 부족한지 볼 수 있어요.

  • CX 에이전트 스튜디오 같은 도구를 쓰는 이유는 다국어와 24시간 대응을 사람만으로 해결하기 어렵기 때문이에요. 특히 팬덤 플랫폼은 특정 아티스트 일정에 따라 문의가 폭발적으로 늘어나서, 평소 인력 기준으로는 피크 타임을 감당하기 힘들어요.

  • 다만 이런 자동화는 답변 품질 관리가 핵심이에요. 티켓, 결제, 굿즈 문의는 틀린 답을 주면 바로 고객 불만으로 이어지니까, AI가 처리할 범위와 사람에게 넘길 기준을 촘촘히 잡아야 해요.

이건 화려한 AI 데모보다 훨씬 현실적인 적용 사례다. 글로벌 서비스에서 문의 폭주, 다국어, 시간대 문제를 동시에 줄이려면 결국 데이터 플랫폼과 고객지원 자동화를 같이 묶어야 한다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.