본문으로 건너뛰기
피드

GitHub, Copilot 개인 요금제 신규 가입 중단 — Pro에서 Opus 제거, 사용량 한도 강화

ai-ml 약 5분

GitHub이 Copilot 개인 요금제(Pro/Pro+/Student) 신규 가입을 일시 중단하고 사용량 한도를 조이는 조치를 발표함. 에이전틱 워크플로우가 토큰 소비를 감당 못 할 수준으로 끌어올리면서 '요청 몇 개가 플랜 가격을 초과하는' 상황이 흔해졌기 때문. Pro 플랜에서는 Opus 모델이 제거되고, Pro+에만 Opus 4.7이 남음.

  • 1

    Pro, Pro+, Student 신규 가입 일시 중단 — 기존 고객 경험 보호 목적

  • 2

    Pro 플랜에서 Opus 모델 전면 제거, Pro+에서는 Opus 4.7만 유지 (4.5/4.6도 곧 제거)

  • 3

    Pro+는 Pro 대비 5배 이상의 사용량 한도 제공 — 한도 부족 시 업그레이드 유도

  • 4

    세션 한도와 주간(7일) 한도 두 가지 모두 토큰 소비량 × 모델 배수로 계산

  • 5

    5월 20일 이전에 Billing settings에서 취소하면 남은 기간 전액 환불 가능

  • GitHub이 Copilot 개인 요금제(Individual plans)에 칼을 댐 — 신규 가입 중단, 사용량 한도 축소, 모델 제공 범위 조정
    • 대상은 Pro, Pro+, Student 세 플랜 전부. 이미 쓰고 있는 사람은 유지되지만 신규 유입은 당분간 막힘
    • GitHub도 "파괴적인 조치인 건 안다"고 솔직하게 인정하면서 공지를 올림

중요

> 5월 20일까지 Billing settings에서 구독 취소하면 남은 기간 전액 환불. 한도가 안 맞으면 빨리 결정해야 함.

왜 갑자기 이러는 건데?

  • 에이전틱 워크플로우(agentic workflows)가 컴퓨팅 수요 구조를 완전히 바꿔놓음
    • 장시간 돌아가고 병렬로 실행되는 세션들이 기존 요금제 설계가 감당 못 할 수준으로 자원을 빨아들임
    • 에이전트/서브에이전트가 복잡한 코딩 문제를 풀어내면서 한 번에 처리하는 일이 기하급수적으로 늘어남
  • GitHub이 공식적으로 "요청 몇 개만 처리해도 플랜 가격을 초과하는 비용이 드는 게 흔해졌다"고 실토함
    • 기존 가격 구조로는 지속 불가능한 수준. 안 건드리면 전체 사용자한테 서비스 품질 저하가 옴

실제로 뭐가 바뀌나

  • Pro, Pro+, Student 신규 가입 일시 중단
    • 기존 고객을 더 잘 모시기 위한 조치라고 함
  • 개인 요금제 사용량 한도 전반 강화
    • Pro+는 Pro 대비 5배 이상 한도 제공 — 한도 부족하면 Pro+로 업그레이드하라는 신호
    • VS Code와 Copilot CLI에 현재 사용량이 표시되도록 UI 추가해서 한도 근처인지 볼 수 있게 함
  • Opus 모델은 Pro 플랜에서 제거
    • Pro+에서는 Opus 4.7만 남김
    • 체인지로그에서 예고한 대로 Opus 4.5, Opus 4.6도 Pro+에서 곧 제거 예정

한도 구조 뜯어보기

  • Copilot은 두 종류의 한도가 공존 — 세션 한도주간(7일) 한도
    • 둘 다 "토큰 소비량 × 모델 배수(multiplier)"로 계산됨
  • 세션 한도는 피크 타임에 서비스가 뻗는 걸 막기 위한 것
    • 대부분 사용자는 안 걸리게 설정. 걸리면 윈도우가 리셋될 때까지 기다려야 함
  • 주간 한도는 최근에 새로 도입됨 — 병렬로 오래 돌아가는 요청이 "감당 안 되는 비용"을 찍는 걸 통제하기 위함
    • 주간 한도에 걸려도 premium request가 남았으면 Auto model selection으로는 계속 쓸 수 있음
    • 모델 직접 선택은 주간 리셋 후에 다시 열림
  • 프리미엄 요청(premium requests)과 사용량 한도는 별개 개념이라는 점을 강조
    • 프리미엄 요청은 "어떤 모델을 몇 번 쓸 수 있는가"
    • 사용량 한도는 "정해진 시간 동안 토큰을 얼마나 소비할 수 있는가"
    • 프리미엄 요청이 남아있어도 사용량 한도에 걸릴 수 있음

💡

> 한도 근처 갔을 때 대처법 — 단순 작업엔 배수 작은 모델 쓰고, plan mode로 효율 올리고, /fleet 같은 병렬 도구는 아껴 쓰기. Pro라면 Pro+로 올리면 한도 5배+.

행간 읽기

  • "이건 우리가 풀어야 할 문제"라며 사용자 탓 안 하는 건 잘함
    • 다만 결국 "더 비싼 Pro+로 올려라"라는 메시지가 깔려 있음
  • 에이전트 시대에 정액제 모델의 한계가 드러나는 첫 대형 사례로 볼 수 있음
    • 지속 가능한 구조를 만드는 동안 임시방편이라고 명시. 장기적으론 다른 과금 구조 나올 가능성

에이전트 시대에 정액제 기반 AI 코딩 도구의 경제 모델이 무너지는 첫 대형 신호로 보임. GitHub이 '요청 몇 개로 플랜 가격을 초과한다'고 직접 말할 정도면 다른 코딩 AI 서비스들도 비슷한 조치를 따라올 가능성이 높음.

댓글

댓글

댓글을 불러오는 중...

ai-ml

엔비디아, '개인 PC로 AI 직구동' 네모트론·네모클로 공개 — 한국형 데이터셋도 오픈소스

엔비디아가 서울 네모트론 개발자 데이에서 로컬 AI '네모트론'과 에이전트 실행 환경 '네모클로'를 공개했다. 블랙웰 아키텍처로 효율 55배 개선, 1200억 파라미터 LLM '네모트론 3 울트라' 출시 예정, 한국어 데이터셋 '네모트론-페르소나-코리아'를 오픈소스로 공개했다. 클라우드 API 비용 부담 없이 기기 내부에서 AI를 돌리는 구조가 핵심이다.

ai-ml

'덕테이프' 정체는 챗GPT 이미지 2.0 — 오픈AI vs 어도비 이미지 AI 정면충돌

오픈AI가 LM아레나에서 '덕테이프'로 불리던 신모델을 '챗GPT 이미지 2.0'으로 공개했다. 자기회귀 방식으로 텍스트 깨짐 문제를 개선하고 추론 기반 인포그래픽 생성까지 지원한다. 같은 날 어도비는 오픈AI/앤스로픽/구글 모델을 오케스트레이션하는 CX엔터프라이즈로 브랜드 일관성 차별화 전략을 내놓으며 맞불을 놨다.

ai-ml

Grok이 만든 딥페이크 아동성착취물 — 법은 AI를 따라잡고 있나

미국에서 10대 소녀들이 X를 상대로 Grok 기반 딥페이크 CSAM 소송을 제기하면서 AI 생성물과 아동보호법의 간극이 드러났다. 한국 대법원은 아동 얼굴 합성 딥페이크에 대해 '실제 아동 등장'이 아니라는 이유로 아동성착취물 제작죄를 적용하지 않았고, 2026년 2월 개정안이 이 공백을 메우려 하고 있지만 일률적 하한형 적용의 형벌 비례성 문제가 남아있다.

ai-ml

Kimi 팀이 오픈소스로 푼 'Vendor Verifier' — 추론 벤더가 모델을 제대로 돌리는지 검증하는 도구

Kimi가 K2.6 모델 공개와 함께 오픈소스 모델을 돌리는 추론 프로바이더들의 구현 정확도를 검증하는 KVV(Kimi Vendor Verifier)를 공개함. Pre-Verification, OCRBench, MMMU Pro, AIME2025, K2VV ToolCall, SWE-Bench 등 6개 벤치로 KV cache 버그, 양자화 degradation, ToolCall JSON Schema 오류 등을 잡아내고, vLLM/SGLang/KTransformers 업스트림에 직접 패치를 기여함.

ai-ml

중국 문샷AI, 오픈소스 'Kimi-K2.6' 공개 — GPT-5.4·Claude Opus 4.6 꺾었다고 주장

중국 문샷AI가 오픈소스 LLM Kimi-K2.6을 공개했다. SwiGLU 활성화 함수, 384개 전문가 MoE 구조(프롬프트당 8개 활성), 멀티헤드 레이턴트 어텐션(MLA)을 채택해 하드웨어 효율을 극대화했다. 4억 파라미터 비전 인코더로 멀티모달 입력을 처리하고 최대 300개 에이전트 병렬 실행을 지원한다.