본문으로 건너뛰기
피드

클로드 오퍼스 4.7이 익명 글쓴이를 문체만으로 맞히기 시작했다

ai-ml 약 9분

저자는 Claude Opus 4.7이 공개하지 않은 글, 고등학교 시절 글, 전혀 다른 장르의 글까지 보고 자신을 Kelsey Piper로 맞혔다고 말해. 단순한 AI 신기술 체험기가 아니라, 온라인 익명성이 대규모 언어 모델(LLM)의 문체 식별 능력 때문에 얼마나 빨리 약해질 수 있는지를 다루는 글이야.

  • 1

    Claude Opus 4.7은 125단어짜리 미공개 정치 칼럼 초안만 보고 저자를 Kelsey Piper로 추정함

  • 2

    저자는 시크릿 모드, 친구 컴퓨터, API 테스트에서도 같은 결과가 나왔다고 밝힘

  • 3

    교육 리포트, 영화 리뷰, 판타지 소설, 15년 전 대학 지원 에세이처럼 장르와 시점이 다른 글에서도 식별이 성공함

  • 4

    모델의 설명은 자주 헛소리에 가까웠지만, 실제 식별 능력 자체는 매우 강력했다는 게 저자의 관찰임

  • 5

    공개 실명 글이 많은 사람은 익명 계정, Glassdoor 후기, 내부 고발성 글에서도 재식별 위험이 커질 수 있음

  • 저자는 원래 온라인 익명성에 꽤 강하게 찬성하는 입장임

    • 사회는 생각보다 쉽게 멀쩡한 말과 삶을 '말하면 안 되는 것'으로 만들어버릴 수 있다고 봄
    • 성소수자, 소수 의견을 가진 사람, 직장을 잃을 위험이 있는 사람에게 익명성은 단순 편의가 아니라 보호막이라는 관점임
  • 그런데 저자는 Claude Opus 4.7을 써보고, 인터넷 익명성 논쟁이 곧 iPod Touch처럼 낡은 얘기가 될 수 있다고 느낌

    • 이유는 간단함. Claude Opus 4.7이 저자가 공개한 적 없는 글을 보고 저자를 맞혔기 때문임
    • 심지어 고등학교 때 쓴 글, 공개 글과 장르가 전혀 다른 글까지 식별했다고 함

어떤 테스트를 했나

  • 첫 테스트는 125단어짜리 미공개 정치 칼럼 초안이었음

    • 저자는 Claude Opus 4.7에 이 텍스트만 붙여넣고 저자를 맞혀보라고 함
    • Claude는 가장 가능성 높은 저자로 Kelsey Piper를 제시함
    • 같은 텍스트에 대해 ChatGPT는 Matt Yglesias, Gemini는 Scott Alexander를 찍었다고 함
  • 계정 정보가 샌 건 아닌지 확인하기 위해 환경도 바꿔 봄

    • 저자는 메모리 기능을 켜지 않았고, 계정에 본인 정보도 넣지 않았다고 말함
    • 시크릿 모드에서 테스트했고, 친구 컴퓨터에서도 같은 결과가 나옴
    • API로 테스트했을 때도 같은 식별 결과가 나왔다고 함
  • 정치 칼럼이라서 맞힌 것 아니냐는 의심도 있어서, 완전히 다른 글로도 시험함

    • 학생 글쓰기 발달을 다룬 미공개 학교 리포트 초안에서도 Claude는 Kelsey Piper라고 답함
    • 영화 리뷰처럼 저자가 공개적으로 거의 쓰지 않은 장르에서도 Claude와 ChatGPT가 저자를 맞힘
    • 판타지 소설 초안은 500단어 정도가 필요했지만, Claude는 역시 저자를 맞혔다고 함
    • 15년 전 대학 지원 에세이처럼 문체가 지금보다 훨씬 덜 다듬어진 글에서도 Claude와 ChatGPT가 맞혔다고 함

중요

> 핵심은 모델이 '정답을 설명할 수 있느냐'가 아니라 '정답을 맞히느냐'임. 저자는 모델의 이유 설명이 자주 엉터리였지만, 식별 능력 자체는 무시하기 어렵다고 봄.

모델 설명은 별로 믿을 게 못 됨

  • Claude와 ChatGPT가 내놓은 근거 설명은 꽤 자주 이상했다고 함

    • Claude는 저자가 리뷰한 영화 To Be or Not to Be를 효과적 이타주의자들이 유명하게 좋아한다고 주장했는데, 저자는 사실이 아니라고 봄
    • ChatGPT는 대학 지원 에세이를 보고 '복잡한 정책 아이디어를 설명하는 사람이 될 스타일'이라 Kelsey Piper로 좁혔다고 말함
  • 저자는 이런 설명을 사후 합리화로 봄

    • 모델은 사람이 감지하기 어려운 문체 습관을 잡아낸 뒤, 셜록 홈즈식 추리처럼 보이는 말을 만들어내는 것에 가깝다는 얘기임
    • 그러니까 설명이 헛소리라고 해서 식별 능력까지 없다고 보면 안 됨
    • 환각(hallucination)은 여전히 해결된 문제가 아니지만, underlying skill은 매우 강력할 수 있음

익명성은 누구에게 위험해지나

  • 지금 당장 가장 위험한 사람은 실명으로 공개 글을 많이 남긴 사람임

    • 저자처럼 인터넷에 오랫동안 글을 많이 써온 사람은, 익명으로 쓴 글도 공개 코퍼스와 문체가 연결될 수 있음
    • 학계나 업계 연구자들도 초안이나 대화 중에 본인이 식별됐다는 사례를 보고했다고 함
  • 반대로 실명 공개 글이 거의 없는 사람은 아직 상대적으로 안전함

    • 저자는 실명으로 많은 글을 공개하지 않은 친구들의 글도 테스트했는데, AI는 그들을 직접 식별하지 못했다고 함
    • 즉 지금의 위험은 '모든 사람을 한 문단으로 맞힘'이라기보다는, 공개 코퍼스가 충분한 사람에게 먼저 온다는 쪽에 가까움
  • 그래도 모델은 무섭게 가까운 추정을 할 수 있었음

    • 공개 소셜 계정이나 온라인 글이 별로 없는 친구의 Discord 발언을 테스트했을 때, Claude 4.7은 그 친구를 맞히지는 못함
    • 대신 같은 채널에 있던 가까운 친구 두 명, 그중 인터넷 존재감이 있는 사람들을 후보로 냈다고 함
    • 저자는 우리가 하위문화와 주변 사람에게서 문체 습관을 흡수하기 때문에, 생각보다 적은 텍스트로도 식별성이 생긴다고 봄
  • 앞으로 필요한 공개 텍스트 양은 줄어들 가능성이 큼

    • 저자는 1~2년 안에 회사가 Glassdoor에 남긴 상세 익명 후기를 AI에 붙여넣고 누가 썼는지 알아낼 수 있는 시대가 올 수 있다고 예측함
    • 실제 가능 시점은 그 사람에 대한 데이터가 학습 데이터에 얼마나 있는지, 익명 텍스트를 얼마나 많이 남겼는지에 달려 있음

익명으로 글 쓰려면 뭐가 달라지나

  • 단순히 이름을 숨기는 것만으로는 부족해질 수 있음

    • 공개 실명 글과 익명 글 사이의 문체 지문이 연결되면, 계정명이나 이메일을 숨겨도 의미가 줄어듦
    • 특히 장문 후기, 내부 고발, 커뮤니티 장기 활동처럼 텍스트가 쌓이는 경우가 위험함
  • 저자는 피하려면 평소와 의도적으로 다른 스타일로 써야 할 것 같다고 말함

    • 또는 AI에게 모든 글을 다시 쓰게 하는 방법도 있겠지만, 저자는 그런 세상을 달가워하지 않음
    • 익명성 보호가 자연스러운 글쓰기와 충돌하기 시작한다는 점이 꽤 씁쓸함
  • 이 글의 결론은 '좋은 변화'가 아니라 '예측 가능한 변화'에 가까움

    • 저자에게 먼저 일어난 이유는 성인기 내내 인터넷에 글을 많이 썼기 때문이라고 봄
    • 하지만 글을 많이 쓰는 사람이라면 결국 비슷한 일을 겪게 될 가능성이 높다고 함
    • 익명 게시자들이 모두 사라지거나 옛 글을 전부 지우길 바라는 건 아니지만, 최소한 놀라지는 말아야 한다는 게 저자의 메시지임

기술 맥락

  • 여기서 중요한 기술적 선택은 모델이 명시적인 신원 데이터 없이도 문체 신호를 활용한다는 점이에요. 이름, 계정, 메타데이터가 없어도 문장 길이, 어휘 선택, 논리 전개 방식 같은 패턴이 공개 글과 연결될 수 있거든요.

  • 예전의 문체 분석은 특정 후보군과 통계 모델을 놓고 비교하는 느낌이 강했어요. 대규모 언어 모델은 훨씬 넓은 텍스트를 이미 학습한 상태라, 사용자가 그냥 글을 붙여넣고 질문하는 것만으로 비슷한 효과를 얻을 수 있다는 게 달라요.

  • 저자가 강조한 건 모델의 설명 가능성과 성능을 분리해서 봐야 한다는 거예요. Claude가 왜 Kelsey Piper라고 판단했는지 말로 설명할 때는 틀린 근거를 만들었지만, 실제 식별 결과는 반복해서 맞았어요. 보안 관점에선 설명이 허술해도 공격자는 결과만 쓰면 되니까요.

  • 익명성 위협은 공개 코퍼스가 많은 사람부터 시작돼요. 블로그, 기사, 논문, 커뮤니티 장문 글이 쌓인 개발자나 연구자는 실명 텍스트가 충분해서, 익명으로 쓴 긴 글이 모델에게 비교 대상으로 잡힐 수 있어요.

  • 그래서 앞으로 익명 글쓰기의 방어는 계정 분리만으로 끝나지 않을 가능성이 커요. 문체를 의도적으로 바꾸거나, 글을 재작성하거나, 애초에 긴 텍스트를 남기지 않는 식의 선택이 필요해질 수 있는데, 이건 표현의 자유와 기록 문화에 꽤 직접적인 비용을 만들어요.

LLM의 문체 식별은 보안 제품의 명시적 기능이 아니라도 이미 사용자들이 실험할 수 있는 능력이 됐다는 게 불편한 지점이야. 익명성을 지키려면 '내 이름 안 쓰면 됨'이 아니라, 공개 코퍼스와 문체 지문까지 위협 모델에 넣어야 하는 시대가 오고 있음.

댓글

댓글

댓글을 불러오는 중...

ai-ml

알파벳 실적에서 보이는 AI 수직계열화의 힘

애널리스트들은 알파벳이 검색이나 광고 하나에 기대는 회사가 아니라, 클라우드·유튜브·AI 칩·데이터센터까지 여러 축에서 성장하고 있다고 평가했어. 특히 구글 클라우드 성장, 제미나이 도입, TPU 판매가 AI 수익화 흐름을 강화하는 신호로 읽혔어.

ai-ml

구글 클라우드, 자체 AI 칩 TPU를 외부 데이터센터에도 판다

구글 클라우드가 자체 개발 AI 칩 TPU를 일부 외부 고객에게 판매하기 시작해. 지금까지 클라우드 안에서 쓰는 가속기 성격이 강했다면, 이제는 고객 자체 데이터센터에도 들어가는 하드웨어 사업으로 확장되는 흐름이야.

ai-ml

알파벳이 웃은 이유, AI 투자보다 구글 클라우드 매출이 먼저 증명했다

빅테크 실적 발표 이후 시장은 AI에 돈을 얼마나 쓰는지가 아니라 그 돈이 매출로 돌아오는지를 보기 시작했어. 알파벳은 구글 클라우드 매출이 63% 급증하며 아마존과 마이크로소프트보다 훨씬 강한 성장률을 보여줬고, 그 결과 주가도 6% 넘게 뛰었어.

ai-ml

카카오 플레이MCP, 오픈소스 AI 에이전트 오픈클로와 붙었다

카카오의 MCP 기반 개방형 플랫폼 플레이MCP가 오픈소스 AI 에이전트 오픈클로 연동을 지원한다. 카카오톡, 톡캘린더, 카카오맵 같은 카카오 서비스와 200여 개 외부 서버를 에이전트가 호출해 반복 업무를 자동화할 수 있게 된 게 핵심이다.

ai-ml

이번 주 허깅페이스, 1.6조 파라미터 오픈소스와 오픈AI 프라이버시 필터가 흔들었다

이번 글은 허깅페이스에서 주목받은 AI 모델과 데모를 묶어 DeepSeek-V4-Pro, OpenAI Privacy Filter, Waypoint 1.5의 의미를 정리함. 공통 키워드는 MoE, 오픈소스, 온디바이스 보안, 실시간 월드 모델이며, 한국 개발자에게도 모델 선택과 AI 인프라 설계 관점에서 참고할 만한 수치가 많음.