본문으로 건너뛰기
피드

알리바바, 에이전트 AI를 클라우드 매출 엔진으로 만들 수 있을까

ai-ml 약 5분

알리바바가 Accio Work, 타오바오 AI 쇼핑 도우미, 로봇 이니셔티브를 앞세워 AI 기능을 커머스와 클라우드 매출로 연결하려는 흐름이 보인다. 핵심은 23만 개 이상 기업이 쓰기 시작한 에이전트 AI가 실제 클라우드 사용량과 현금흐름으로 이어질 수 있느냐다.

  • 1

    Accio Work 자율 에이전트 비즈니스 팀을 구축한 기업이 23만 곳을 넘었다

  • 2

    알리바바는 커머스, 물류, 클라우드 전반에 풀스택 AI 역량을 붙이려는 중이다

  • 3

    AI와 클라우드 투자가 커지는 만큼 잉여현금흐름 압박과 칩 접근성 리스크도 같이 커진다

  • 알리바바가 AI를 ‘보여주기용 기능’에서 ‘돈 되는 클라우드 사용량’으로 바꾸려는 그림이 슬슬 선명해지고 있음

    • 알리바바 인터내셔널 디지털 커머스 그룹은 최근 몇 주 동안 23만 개 넘는 기업이 Accio Work 자율 에이전트 비즈니스 팀을 구축했다고 밝힘
    • 타오바오 쇼핑 어시스턴트, 로봇 이니셔티브, AI 기반 클라우드 상품 확장까지 같이 나오면서 방향은 꽤 노골적임
    • 커머스에서 AI를 쓰게 만들고, 그 사용량이 클라우드 매출로 이어지는 구조를 만들겠다는 얘기임
  • Accio Work의 핵심은 B2B 판매자 업무를 ‘AI 에이전트 팀’으로 밀어 넣는 데 있음

    • Alibaba.com 판매자들이 일상적인 매장 운영에서 자율 에이전트를 쓰게 되면, AI는 별도 앱이 아니라 커머스 운영 도구가 됨
    • 이게 대규모로 유지되면 알리바바의 풀스택 AI와 클라우드 기능이 상거래, 물류, 운영 전반에서 계속 호출되는 구조가 생김
    • 투자자들이 기대하는 포인트도 여기임. AI가 멋진 데모가 아니라 클라우드 매출 성장 촉매가 될 수 있느냐는 것

중요

> 숫자로 보면 꽤 세다. Accio Work를 구축한 기업이 23만 곳을 넘었다는 건, 알리바바가 AI 에이전트를 실제 업무 플로우 안에 꽂아 넣을 초기 분포망을 이미 갖고 있다는 뜻임.

  • 다만 이 스토리는 ‘AI 투자비를 감당할 수 있느냐’라는 질문을 피해갈 수 없음

    • 기사에서는 AI와 클라우드 자본 지출이 3억 8,000만 위안 이상 지속될 경우 잉여현금흐름이 압박받을 수 있다고 짚음
    • 고급 칩 접근성, AI 경쟁 심화, 빠른 상거래 투자에 따른 수익성 악화도 리스크로 남아 있음
    • 그러니까 알리바바 주식을 보려면 “AI와 클라우드 지출이 영구적인 마진 훼손 없이 현금흐름으로 돌아올 것인가”를 믿어야 하는 셈
  • 애널리스트들의 숫자는 기대와 의심이 같이 섞여 있음

    • 한 투자 내러티브는 2029년까지 매출 1,352억 위안, 수익 1,544억 위안을 예상함
    • 이를 위해서는 연 10.0% 매출 성장과 현재 928억 위안에서 약 616억 위안의 수익 증가가 필요함
    • 해당 관점에서는 공정가치를 189.08달러로 잡고, 현재가 대비 34% 상승 여지가 있다고 봄
  • 반대로 더 보수적인 추정도 있음

    • 일부 낮은 추정치는 2028년 매출을 약 1조 1,936억 위안, 수익을 약 1,549억 위안으로 봄
    • Accio Work와 타오바오 AI 도구가 기대만큼 빠르게 실적에 반영되지 않을 수 있다는 쪽임
    • 결국 같은 AI 뉴스라도 “클라우드 수익화가 시작됐다”로 볼지, “아직 돈 많이 쓰는 단계다”로 볼지에 따라 해석이 갈림

기술 맥락

  • 알리바바의 선택은 AI를 독립 제품으로만 파는 게 아니라, 기존 커머스 운영 흐름 안에 넣는 쪽이에요. 판매자가 매장 운영, 상품 관리, 고객 대응에서 에이전트를 계속 쓰면 자연스럽게 클라우드 연산과 모델 호출이 늘어나거든요.

  • 이 방식이 중요한 이유는 알리바바가 이미 거대한 B2B와 소비자 커머스 접점을 갖고 있기 때문이에요. 새 서비스를 따로 영업하는 것보다, 기존 판매자 도구에 AI를 붙이는 편이 채택 장벽이 낮아요.

  • 대신 비용 구조가 문제예요. AI 에이전트는 모델 추론, 데이터 처리, 워크플로 자동화가 계속 붙기 때문에 사용량이 늘수록 인프라 비용도 같이 올라가요. 그래서 3억 8,000만 위안 이상으로 언급된 AI와 클라우드 투자가 매출보다 빨리 커지면 현금흐름이 눌릴 수 있어요.

  • 개발자 관점에서 보면 이건 “AI 기능을 만들었다”가 아니라 “AI 기능이 어떤 플랫폼 사용량을 만드는가”의 문제예요. 제품 안에 에이전트를 넣을 때도 결국 과금 단위, 호출 빈도, 운영 자동화 범위를 같이 설계해야 수익화가 가능해요.

이 뉴스의 포인트는 ‘AI 기능 출시’ 자체보다, 알리바바가 자기 커머스 생태계 안에서 AI 사용량을 클라우드 매출로 바꾸려 한다는 점이다. 한국 기업 입장에서도 에이전트 AI가 제품 기능이 아니라 인프라 소비를 만드는 구조로 가는 흐름은 꽤 참고할 만하다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.