---
title: "오픈AI 모델 사칭한 악성 저장소, 허깅페이스 트렌딩 1위까지 올라감"
published: 2026-05-11T12:05:04.377Z
canonical: https://jeff.news/article/2352
---
# 오픈AI 모델 사칭한 악성 저장소, 허깅페이스 트렌딩 1위까지 올라감

오픈AI 공개형 모델을 사칭한 악성 저장소가 허깅페이스 인기 목록 1위에 오른 사례가 발견됐다. 해당 저장소는 약 18시간 동안 다운로드 24만4천 건과 좋아요 667개를 기록했지만, 실제로는 윈도 이용자의 브라우저 정보, 디스코드 계정, 암호화폐 지갑 데이터를 훔치는 악성코드를 내려받게 만들었다.

- 오픈AI 모델을 사칭한 악성 저장소가 허깅페이스(Hugging Face) 트렌딩 1위까지 올라감
  - 저장소 이름은 ‘Open-OSS/privacy-filter’였음
  - 오픈AI가 공개한 개인정보 탐지·삭제 모델 ‘프라이버시 필터(Privacy Filter)’를 흉내 낸 것임
  - 정상 저장소 설명을 거의 그대로 베껴서 진짜 모델처럼 보이게 만들었음

- 숫자도 꽤 그럴듯하게 꾸며져 있었음
  - 해당 저장소는 비활성화되기 전 약 18시간 동안 다운로드 24만4천 건을 기록함
  - 좋아요도 667개까지 붙었고, 허깅페이스 인기 목록 1위에 올랐음
  - 보안업계는 이 수치가 실제 인기라기보다 신뢰를 만들기 위해 부풀려졌을 가능성이 크다고 봄

> [!WARNING]
> 트렌딩 1위, 다운로드 수, 좋아요 숫자만 보고 AI 모델을 믿으면 위험함. 공격자가 바로 그 숫자를 신뢰 장치처럼 꾸밀 수 있기 때문임.

- 사용자가 안내대로 파일을 실행하면 악성 스크립트가 작동하는 구조였음
  - 이후 외부 서버에서 추가 파일을 내려받음
  - 최종적으로 정보탈취형 악성코드가 실행됨
  - 화면 캡처, 브라우저 정보, 디스코드 계정 정보, 암호화폐 지갑 관련 데이터를 수집하도록 설계돼 있었음

- 허깅페이스는 현재 해당 저장소 접근을 차단한 상태임
  - 조사 과정에서 비슷한 방식으로 악성코드를 배포한 다른 저장소들도 추가로 발견됨
  - 이 저장소들도 유명 AI 모델 이름을 활용해 사용자를 속이는 방식이었음

- 개발자와 연구자 입장에선 패키지 보안 습관을 모델 저장소에도 적용해야 함
  - 게시자 계정이 진짜인지 확인해야 함
  - 모델 로딩 과정에서 임의 스크립트 실행이나 외부 파일 다운로드가 있는지 봐야 함
  - 특히 윈도 실행 파일, 파워셸, 배치 파일, 난독화된 스크립트가 섞여 있으면 바로 의심해야 함

---

## 기술 맥락

- 이번 공격은 AI 모델 저장소를 소프트웨어 패키지처럼 악용한 사례예요. 허깅페이스에서 모델을 받는 흐름이 개발자에게 익숙해지면서, 공격자도 그 신뢰 경로를 노린 거예요.

- 사칭 저장소가 위험한 이유는 이름과 설명만으로도 충분히 그럴듯해 보이기 때문이에요. 특히 유명 기업의 모델명을 붙이고 문서까지 베끼면 바쁜 개발자는 게시자 검증을 건너뛰기 쉽거든요.

- 다운로드 수와 좋아요가 조작됐을 가능성이 언급된 점도 중요해요. 오픈소스 생태계에서는 숫자가 신뢰의 대리 지표처럼 쓰이는데, 그 지표 자체가 공격 표면이 될 수 있어요.

- 모델 실행 과정에서 외부 파일을 내려받는 구조는 꼭 봐야 해요. 모델 가중치나 설정을 받는 척하면서 실행 파일이나 스크립트를 끌어오면, 연구 환경이나 개발 PC가 바로 정보탈취형 악성코드에 노출될 수 있어요.

## 핵심 포인트

- 악성 저장소는 오픈AI의 개인정보 탐지·삭제 모델 ‘프라이버시 필터’를 사칭
- 비활성화 전 약 18시간 동안 다운로드 24만4천 건, 좋아요 667개 기록
- 실행 시 외부 서버에서 정보탈취형 악성코드를 내려받아 화면 캡처, 브라우저 정보, 디스코드 계정, 지갑 데이터를 수집

## 인사이트

AI 오픈소스 생태계에서도 별점, 다운로드 수, 트렌딩 순위가 신뢰 지표로 충분하지 않다는 걸 보여준 사건임. 모델 저장소도 이제 npm 패키지 보듯이 게시자, 실행 스크립트, 외부 다운로드를 확인해야 함.
