본문으로 건너뛰기
피드

프롬프트 안 바꾸고 LLM 내부를 직접 조종한다 — Steerling-8B의 개념 대수

ai-ml 약 5분

Guide Labs가 8B 파라미터 해석 가능한 디퓨전 언어 모델 Steerling-8B을 공개. 개념 모듈 아키텍처로 추론 시점에 개념을 주입/억제/조합할 수 있으며, 2000 샘플 평가에서 품질 84% 유지하면서 개념 점수를 0.015→0.783으로 올림.

  • 1

    모든 출력 로짓이 개념 활성화의 선형 함수라 예측 가능한 조종이 가능

  • 2

    개념 주입, 억제, 다중 개념 동시 조종(concept algebra) 지원

  • 3

    2000 샘플 평가에서 조화 평균 0.997로 품질-개념 trade-off 거의 없음

  • 4

    프롬프팅/RLHF/SAE 등 기존 방식의 한계를 구조적으로 해결

기존 조종 방식은 왜 다 불만족스러운가

  • Guide Labs에서 Steerling-8B이라는 8B 파라미터 해석 가능한(interpretable) 디퓨전 언어 모델을 공개했는데, 핵심 아이디어가 꽤 깔끔함: 모델 내부에 "개념 모듈(concept module)"이라는 아키텍처 병목을 넣어서, 모든 예측이 사람이 해석 가능한 개념을 거치도록 강제하는 거임
  • 현재 LLM 조종 방법들을 하나씩 까는데 꽤 정확함:
    • 프롬프팅: 접근은 쉽지만 신뢰할 수 없음. 시스템 프롬프트는 적대적 입력으로 우회 가능하고, few-shot 예제는 컨텍스트를 잡아먹으면서 일반화도 안 됨
    • 파인튜닝/RLHF: 가중치를 전역으로 수정하니까 하나 잡으면 다른 데가 조용히 망가짐. 사소한 행동 변경에도 수천 개의 라벨 데이터가 필요하고, 새 목표마다 재훈련해야 함
    • 사후 해석 방법(SAE, linear probe, activation patching): 모델이 애초에 갖고 있지 않을 수도 있는 개념을 발견하려고 하는 거임. probe가 정보를 감지했다고 모델이 그걸 생성에 쓴다는 보장이 없고, 두 개의 패치를 동시에 적용하면 합산 효과가 나올 거라는 보장도 없음

개념 주입과 개념 억제

  • 개념 주입(concept injection) 데모가 인상적임: "Things to know before you start: 1." 같은 도메인 중립적 프롬프트 하나를 놓고, 프롬프트는 그대로 둔 채 내부 개념만 바꿔서 5개의 완전히 다른 도메인 출력을 생성함
  • 개념 억제(concept suppression)도 됨: 임대차 분쟁 관련 프롬프트에서 "임대인-임차인 법률 관계" 개념(concept #12348)을 꺼버리면, 모델이 해당 법률 용어를 아예 사용하지 않게 됨. 추론 시점에 특정 개념의 기여를 개념 활성화 레이어에서 직접 삭제하는 방식(bottleneck intervention)임
  • 그리고 이게 진짜 쓸모있는 부분인데, 다중 개념 동시 조종(concept algebra)이 가능함. 콘텐츠 모더레이션에서 독성은 억제하면서 유창성은 유지한다든지, 의료 어시스턴트가 의학적 가이던스는 제공하면서 법적 리스크는 회피하게 한다든지 — 이런 게 개념 연산으로 조합 가능하다는 거임

정량 평가

  • 100개 개념 x 20개 프롬프트 = 2,000 샘플로 체계적 평가를 돌림. Mistral-24B를 LLM 판정자로 써서 개념 점수(0-2)와 품질 점수(0-2)를 매김
  • 비조종(unsteered) 상태에서 개념 점수 0.015 → 조종 후 0.783으로 올라감. 생성 품질은 기존 대비 84% 유지
  • 조화 평균(harmonic mean)이 0.997로, 한쪽을 올리면 다른 쪽이 무너지는 trade-off가 거의 없음을 보여줌

💡

> 기술적 핵심: 출력 로짓이 개념 활성화와 개념 임베딩의 선형 함수이기 때문에, 변수를 직접 조작하면 예측 가능한 효과가 나옴. 프롬프트 엔지니어링이나 RLHF와는 근본적으로 다른 메커니즘임.

  • Steerling-8B은 베이스 모델(instruction-tuned 아님)이고, 디퓨전 디코딩에서 mask-aligned injection이라는 기법을 씀 — 아직 결정되지 않은 위치에만 개념 임베딩을 주입하고, 언마스킹되면 자연스럽게 소멸시켜서 텍스트 품질을 유지하는 방식

해석 가능성을 사후 분석이 아니라 아키텍처 레벨에서 설계에 녹인 접근. 콘텐츠 모더레이션이나 도메인 특화 어시스턴트에서 실용적 가치가 클 수 있음.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.