---
title: "Yeah — LLM으로 yes/no 질문에 답하는 CLI 도구, exit code로 반환"
published: 2026-03-21T22:46:03.000Z
canonical: https://jeff.news/article/865
---
# Yeah — LLM으로 yes/no 질문에 답하는 CLI 도구, exit code로 반환

LLM에게 yes/no 질문을 던지고 exit code(0/1/2)로 답을 받는 Go CLI 도구. Anthropic/OpenAI 지원, 셸 스크립트 조건문으로 활용 가능하며 '안전하지 않다'고 솔직하게 경고.

- `yeah`은 LLM에게 yes/no 질문을 던지고, 답을 **exit code로 반환**하는 CLI 도구임. true면 0, false면 1, 에러면 2. 출력도 없고 프롬프트도 없음. 그냥 exit code만 돌아옴

- `go install github.com/crawshaw/yeah@latest`로 설치. 설정은 전부 환경변수:
  - `YEAH_PROVIDER`: anthropic 또는 openai (기본값 anthropic)
  - `YEAH_MODEL`: 기본 claude-sonnet-4-5-20250929 / gpt-4.1
  - `YEAH_GATEWAY`: LLM 게이트웨이 URL (기본값 exe.dev 게이트웨이)
  - API 키 없이 게이트웨이만으로도 사용 가능

- 셸 스크립트에서 조건문으로 쓸 수 있는 게 포인트. `if yeah "is today a holiday"; then ...` 같은 식

- 만든 사람도 안전성에 대해 솔직함: "모든 LLM 기반 도구가 그렇듯, LLM만큼만 안전함. **즉, 안전하지 않음.** LICENSE의 보증 면책 조항이 여기서 엄청나게 열심히 일하고 있다"는 문구가 인상적

> [!TIP]
> 장난감 같아 보이지만, CI 파이프라인에서 "이 PR은 보안 관련 변경인가?" 같은 퍼지한 판단을 자동화하는 데 의외로 쓸모있을 수 있음

## 핵심 포인트

- exit code만 반환하는 미니멀 설계 (0=true, 1=false, 2=error)
- Anthropic/OpenAI 지원, 게이트웨이로 API 키 없이 사용 가능
- 셸 스크립트 조건문으로 퍼지한 판단 자동화
- 만든 사람도 안전하지 않다고 솔직하게 인정

## 인사이트

LLM을 Unix 철학(한 가지를 잘 하는 도구)에 맞춘 재밌는 실험. 실용성은 논쟁의 여지가 있지만 아이디어가 깔끔함.
