본문으로 건너뛰기
피드

클라우드플레어, 에이전트 AI 전환 내세우며 1,100명 감원

ai-ml 약 3분

클라우드플레어가 전 세계 인력의 약 20%인 1,100명 이상을 감원하고 AI 에이전트와 자동화 중심으로 조직을 재편한다고 밝혔다. 1분기 매출 6억3,980만 달러 직후 나온 조치라 단순 경영난보다는 AI 시대 운영 방식 재설계에 가깝다는 설명이 붙었다.

  • 1

    클라우드플레어가 전 세계 인력 약 20%인 1,100명 이상을 해고

  • 2

    1분기 매출 6억3,980만 달러 발표 직후 진행된 전략적 조직 재편

  • 3

    최근 3개월 동안 내부 AI 도구 활용률이 600% 이상 증가

  • 4

    퇴직자에게 2026년 말까지 기본급을 포함한 보상 패키지와 주식 베스팅 연장 제공

  • 클라우드플레어가 전 세계 인력의 약 20%, 1,100명 이상을 감원함

    • 회사는 이번 조치를 AI 에이전트와 자동화 중심의 조직 재구성으로 설명함
    • 더 눈에 띄는 건 시점임. 1분기 실적 6억3,980만 달러를 발표한 직후라 “실적이 나빠서 줄였다”는 그림과는 좀 다름
  • 경영진은 비용 절감이 아니라 AI 시대의 운영 방식을 다시 정의하는 과정이라고 강조함

    • 공동 창업자인 매튜 프린스와 미셸 자틀린은 사내 메모에서 고성장 기업이 AI 시대에 어떻게 가치를 만들고 운영돼야 하는지 다시 짜는 과정이라고 설명함
    • 회사가 AI를 시장에 파는 데서 끝나는 게 아니라, 내부적으로도 가장 까다로운 고객처럼 쓰겠다는 메시지임

중요

> 숫자가 세다. 클라우드플레어는 전 세계 인력의 약 20%를 줄이면서도, 이걸 경영난이 아니라 “에이전트 AI 시대” 대응으로 포장하고 있음.

  • 내부 AI 사용량은 이미 폭증했다는 설명이 붙음

    • 최근 3개월 동안 클라우드플레어 내부 AI 도구 활용률이 600% 이상 증가했다고 함
    • 엔지니어링, 인사, 재무, 마케팅 등 전 부서에서 매일 수천 건의 AI 에이전트 세션이 발생한다고 밝힘
    • 이 정도면 일부 팀의 생산성 실험이 아니라 회사 운영 방식 자체를 바꾸는 단계로 보는 게 맞음
  • 회사는 여러 차례 나눠 감원하는 대신 한 번에 크게 정리하는 방식을 택했다고 설명함

    • 조직 혼란을 줄이고 남은 직원들에게 업무의 명확성과 안정성을 주기 위한 결정이라는 논리임
    • 퇴직자에게는 2026년 말까지의 전액 기본급이 포함된 퇴직금 패키지를 지급하고, 주식 베스팅 기간도 연장한다고 밝힘
  • 개발자 입장에서 이 뉴스가 찝찝한 이유는 AI가 이제 도구가 아니라 조직 설계 기준으로 쓰이고 있다는 점임

    • “AI 써서 생산성 올리자” 수준이 아니라, AI를 전제로 팀 크기와 업무 경계를 다시 계산하는 흐름임
    • 특히 클라우드플레어처럼 보안·인프라 회사가 이런 결정을 내리면 다른 테크 기업에도 강한 신호가 될 수 있음
    • 앞으로 채용, 평가, 조직 개편에서 “AI로 대체 가능한 업무인가”가 더 노골적인 기준이 될 가능성이 큼

이 기사는 AI가 인력 감축의 명분으로 쓰이는 전형적인 흐름을 보여준다. 개발자에게 중요한 건 ‘AI를 쓰느냐’가 아니라, 회사가 AI를 기준으로 조직 구조와 업무 단위를 어떻게 다시 쪼개는지다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.