---
title: "Godot 관리자 비명 \"AI가 생성한 쓰레기 PR 리뷰에 기진맥진\""
published: 2026-04-18T06:05:03.902Z
canonical: https://jeff.news/article/1791
---
# Godot 관리자 비명 "AI가 생성한 쓰레기 PR 리뷰에 기진맥진"

생성형 AI 코드가 쏟아지면서 고도 엔진 수석 관리자는 '검토·거절 과정이 소모적'이라 토로했고, 2026 상반기 Game Developer 설문에선 생성형 AI 도입률이 36%에서 29%로 반전, 개발자 47%가 AI가 게임 품질을 저하시킬 것이라 응답했다. 감지가 어려운 '조용한 실패'가 장기 프로젝트 안정성을 위협한다는 지적이 핵심이다.

- AI가 게임 개발의 만능 해결사가 될 거라던 장밋빛 전망이 꺾이는 중
  - 실무 현장에서는 **'AI 슬롭(AI slop)'**과 **'조용한 실패(Silent Failures)'**라는 새로운 부담이 더 크게 체감됨
  - 특히 오픈소스 엔진처럼 외부 기여가 활발한 프로젝트에서 부작용이 가장 명확하게 드러남

### 고도(Godot) 엔진 관리자의 비명

- **레미 베르셸드(Rémi Verschelde)** 수석 관리자가 SNS에 올린 글이 화제
  - 고도는 디스코드 커뮤니티 3위급 인기 오픈소스 엔진, 흥행작 '슬레이 더 스파이어2'도 고도로 제작됨
  - "생성형 AI로 만들어진 코드들에 고통받고 있다"고 토로
- 문제의 양상
  - 오픈소스라 누구나 PR을 날릴 수 있는데, 최근 제출되는 코드 중 **조잡하고 작동조차 안 하는 AI 생성물**이 과도하게 섞여 들어옴
  - 겉보기엔 그럴듯하지만 엔진 구조를 이해 못 한 채 짠 코드, 테스트도 안 거친 코드가 상당수
  - "이런 AI 쓰레기 코드를 검토·거절하는 과정이 매우 소모적이고 관리자를 기운 빠지게 한다"

### 조용한 실패 — 버그 추적이 더 어려워진다

- IEEE 스펙트럼 보도 — 최신 AI 모델들이 **'조용한 실패(Silent Failures)'** 를 만들어냄
  - 겉으로는 정상 작동하는 것처럼 보이는데, 특정 상황에서만 터지는 버그
  - 인간이 처음부터 짠 코드보다 **문제 추적·해결에 더 오래 걸림**
  - 어느 부분이 AI 생성인지 명확히 표기 안 되면 유지보수가 더 꼬이게 됨

> [!WARNING]
> AI가 생성한 '그럴듯한 코드'는 리뷰에서 쉽게 통과되기 때문에 프로덕션에 들어간 뒤 터진다. 장기 프로젝트 안정성을 위협하는 가장 실질적인 리스크.

### 수치로 본 개발자 인식 전환

- Game Developer 설문(2026 상반기)
  - 생성형 AI 도구 도입률 **29%** (전년 동기 36% 대비 **감소**) — 2025년 상반기 급증 후 반전
  - 응답 개발자 **47%가 AI가 게임 품질을 저하시킬 것**이라 우려
  - 긍정적 영향 예상은 **11%에 불과**
- 비용 전망도 악화
  - 2025년 상반기 "AI로 비용 절감" 낙관 응답 27% → 2026년 초 **21%로 감소**
  - "AI로 오히려 비용 증가" 응답은 전년 대비 **8% 증가**

### 그래서 어떻게 할 건데

- 전문가 제안은 "**인간 중심**으로 돌아가자"
  - AI 생성 코드·에셋·텍스트는 **반드시 인간 개발자의 검토·피드백**을 거쳐야 함
  - 핵심 로직과 플레이어 경험 직결 부분은 AI는 보조, 품질·책임은 인간
- 예산 배정의 재조정이 필요
  - 고도 관리자의 사례처럼 저품질 AI 생성물을 걸러내는 **'인간 관리자' 비용**도 AI 도입 예산에 포함시켜야 함
- 개발자 역량 재정의
  - AI 코드를 분석·디버깅하고 한계를 보완하는 **'고차원적 개발 역량'** 이 요구됨
  - AI를 붙여넣기 도구가 아니라 **협력자**로 쓸 수 있게 교육·학습 기회 제공

> [!IMPORTANT]
> AI 도입률 29%, AI 품질 우려 47% — 이 두 수치는 "AI 과신 사이클의 두 번째 단계"에 들어섰다는 강력한 신호. 도입이 아니라 **관리 비용과 품질 검증 체계**가 다음 경쟁력 변수다.

---

## 기술 맥락

AI 슬롭(AI slop)이라는 표현은 2024년쯤 영어권에서 퍼지기 시작한 용어예요. AI가 대량 생성한 저품질 콘텐츠를 뜻하는데, 처음엔 이미지·글에서 쓰이다가 이제 코드까지 확장됐어요. 특징이 "멀리서 보면 그럴듯한데 가까이 보면 비어있다"는 거예요.

조용한 실패(Silent Failures)가 전통 버그보다 위험한 이유는 감지 시점 때문이에요. 컴파일 에러나 런타임 크래시는 즉시 잡히지만, 조용한 실패는 특정 입력 조건에서만 틀린 답을 반환해요. 테스트 커버리지를 벗어난 엣지 케이스에 숨어있다가 프로덕션에서 터지는 게 전형적이거든요. 특히 게임 로직에서는 "게임이 크래시하진 않는데 밸런스가 이상해진다" 같은 형태로 나타나요.

고도 엔진 같은 오픈소스 프로젝트가 왜 특히 타격받냐 하면, 메인테이너 자원은 유한한데 들어오는 PR은 AI로 무한 양산 가능한 비대칭 구조 때문이에요. 기여자는 ChatGPT에 10분 프롬프트 돌려 PR을 날리지만, 메인테이너는 그걸 제대로 리뷰하는데 1~2시간 걸리거든요. 이건 결국 "AI가 공유지의 비극을 가속시킨다"는 구조적 문제예요.

Game Developer 설문의 29%라는 숫자가 인상적인 건, 일반적인 기술 하이프 사이클에서 "실망의 계곡(Trough of Disillusionment)" 구간에 진입했다는 신호거든요. 1년 만에 도입률이 감소세로 돌아선 건 드문 현상이고, 다음 단계인 "계몽의 경사"로 가려면 인간-AI 협업 워크플로우가 제대로 정립돼야 한다는 얘기예요.

## 핵심 포인트

- Godot 수석 관리자 레미 베르셸드가 AI 생성 저품질 PR 검토 부담을 공개 토로
- 생성형 AI 도입률 36%→29%로 반전, 개발자 47%가 품질 저하 우려
- '조용한 실패(Silent Failures)'는 인간 작성 코드보다 디버깅·유지보수 비용이 더 큼
- AI 관리 비용을 예산에 포함하고 인간 중심 검수 체계를 강화해야 한다는 제안

## 인사이트

AI 과신 사이클이 '실망의 계곡'에 진입했다는 실증적 신호. 오픈소스 프로젝트는 PR 생산과 리뷰 사이의 비대칭 때문에 특히 취약하다.
