0
4월 24일까지 옵트아웃 안 하면 GitHub이 너의 프라이빗 레포로 AI 학습함
security
요약
기사 전체 정리
4월 24일까지 옵트아웃 안 하면 GitHub이 너의 프라이빗 레포로 AI 학습함
- GitHub이 Free, Pro, Pro+ Copilot 사용자 대상으로 4월 24일부터 Copilot 사용 데이터를 AI 모델 훈련에 활용하겠다고 발표함. 옵트아웃 안 하면 자동 적용되는 구조임
- 여기서 말하는 "사용 데이터"가 꽤 범위가 넓음 — Copilot에 보내는 입력, 출력, 코드 스니펫, 커서 주변 코드 컨텍스트, 파일명, 레포 구조, 네비게이션 패턴까지 전부 포함됨
- GitHub 직원이 HN에 직접 나와서 "프라이빗 레포 데이터를 그냥 가져가는 건 아니고, Copilot 인터랙션 데이터만 수집하는 거다"라고 해명함. Copilot 안 쓰면 영향 없다는 거임
주의
> Copilot을 프라이빗 레포에서 쓰는 순간, 그 레포의 상당 부분이 컨텍스트로 모델에 들어감. "프라이빗 레포는 안 건드린다"는 말이 사실상 무의미해지는 구조임
- Business/Enterprise 요금제는 제외됨. 근데 Enterprise가 시트당 $21.99부터 시작하고 영업팀 컨택 필수라서, 개인 개발자 입장에서는 옵트아웃이 유일한 선택지임
- HN 댓글에서 핵심 반박이 나왔는데 — "프라이빗이라고 라벨 붙여놓고 TOS 한 구석에 '너 코드 다 가져다 쓸 수 있음' 써놓는 건 사실상 거짓말 아니냐"는 거임. 프라이빗 레포인데 학습 데이터로 들어가면 결국 다른 사람한테 재표면화(resurface)될 수 있다는 지적임
- 2023년부터 이걸 예측한 사람도 있었음 — "E2E 암호화 안 된 데이터를 회사가 자유롭게 읽을 수 있으면, 결국 TOS 바꿔서 AI 학습에 쓸 거다. 인센티브가 너무 강하다"
- GitHub 측 변명은 "다른 제품들은 이미 사용 데이터로 학습하고 있고, 우리도 내부적으로 1년 넘게 학습해서 큰 개선을 봤다"는 거임. 결국 경쟁 논리로 정당화하는 셈
- 다크 패턴 비판도 나옴 — Windows 10→11 업그레이드 팝업처럼 "지칠 때까지 yes 누르게 만드는 건 동의가 아니다"라는 거임. 옵트아웃 방식 자체가 사용자에게 불리한 디폴트를 강제하는 구조라는 지적
- 실용적 조언: Copilot 안 쓰면 당장은 안전하지만, 미래를 위해 지금이라도 옵트아웃 설정 해두는 게 좋음. 설정은 GitHub Copilot 세팅에서 가능함
댓글
댓글
댓글을 불러오는 중...