본문으로 건너뛰기
피드

메타 스마트 안경 영상 검수하던 노동자들, 사생활 침해 폭로 뒤 일자리 잃었다

security 약 7분

메타가 AI 학습을 위해 쓰던 케냐 기반 외주업체 Sama와의 대형 계약을 종료하면서 논란이 커지고 있다. Sama 노동자들은 메타 스마트 안경 이용자가 촬영한 화장실 장면이나 성관계 장면 같은 민감한 영상을 봐야 했다고 주장했고, 계약 종료로 1,108명이 해고될 예정이라고 한다. 메타는 기준 미달 때문이라고 말하지만, 노동자 단체는 폭로에 대한 보복이라고 보고 있다.

  • 1

    메타는 Sama와의 AI 학습 관련 계약을 종료했고 Sama는 1,108명 해고를 예고했다

  • 2

    Sama 노동자들은 메타 스마트 안경으로 촬영된 매우 민감한 사생활 영상을 검수했다고 주장했다

  • 3

    메타는 사용자 동의를 받아 AI 성능 개선을 위해 사람이 콘텐츠를 검토한다고 설명했다

  • 4

    영국 ICO와 케냐 개인정보 감독기관이 관련 프라이버시 우려를 조사하고 있다

  • 5

    Sama는 과거 페이스북 콘텐츠 검수 계약에서도 트라우마와 노동 환경 문제로 논란을 겪었다

  • 메타가 AI 학습 외주업체 Sama와의 대형 계약을 끊으면서 압박을 받고 있음

    • Sama는 케냐 기반 노동자들이 포함된 AI 학습·검수 업무를 해온 회사
    • 계약 종료로 Sama 노동자 1,108명이 해고될 예정이라고 밝힘
    • 문제는 이 계약 종료가 노동자들이 스마트 안경 영상 검수 경험을 폭로한 지 두 달도 안 돼 벌어졌다는 점임
  • 노동자들이 말한 내용은 꽤 심각함

    • 지난 2월 스웨덴 매체 Svenska Dagbladet과 Goteborgs-Posten은 Sama 노동자들의 증언을 보도함
    • 노동자들은 메타 스마트 안경 이용자가 화장실에 가는 장면이나 성관계 장면을 봐야 했다고 주장함
    • 한 노동자는 “거실부터 나체까지 모든 걸 본다”고 말했다고 보도됨
    • 또 다른 사례에서는 한 남성의 안경이 침실에서 계속 녹화돼, 아내로 보이는 여성이 옷을 벗는 장면이 찍혔다고 함

⚠️주의

> 스마트 안경 프라이버시 문제는 “사용자가 뭘 찍었나”에서 끝나지 않음. 그 영상이 AI 개선 명목으로 사람 검수자에게까지 갈 수 있다는 게 진짜 민감한 지점임.

  • 메타의 설명은 “동의받은 AI 품질 개선” 쪽임

    • 메타는 사용자가 Meta AI와 공유한 스마트 안경 콘텐츠를 외주 노동자가 검토할 수 있다고 인정함
    • 목적은 고객 경험 개선이고, 다른 회사들도 하는 일반적인 관행이라고 설명함
    • BBC에는 “사진과 영상은 사용자에게 비공개이며, 제품 성능 개선을 위해 명확한 사용자 동의를 받고 사람이 AI 콘텐츠를 검토한다”고 밝힘
    • 동시에 Sama와의 계약 종료 이유는 “기준을 충족하지 못했기 때문”이라고 주장함
  • Sama는 메타의 기준 미달 주장을 정면으로 부인함

    • Sama는 메타를 포함한 고객 업무에서 운영, 보안, 품질 기준을 계속 충족해왔다고 밝힘
    • 자신들이 해당 기준을 어겼다는 통보를 받은 적이 없다고도 말함
    • 케냐 노동자 단체 쪽은 메타가 노동자들의 폭로 때문에 계약을 끝낸 것 아니냐고 보고 있음
    • Africa Tech Workers Movement의 Naftali Wambalo는 메타가 말하는 기준이 사실상 “비밀 유지 기준” 아니냐고 비판함
  • 규제기관도 움직이기 시작함

    • 스웨덴 매체 보도 직후 영국 개인정보 감독기관 ICO는 메타에 “우려스러운” 보도라며 질의함
    • 케냐 개인정보 감독기관도 스마트 안경이 제기한 프라이버시 우려에 대해 조사에 들어감
    • 이 이슈는 단순 노동 분쟁이 아니라 웨어러블 카메라, AI 학습 데이터, 개인정보 규제 문제가 겹친 사안이 됨
  • 제품 자체는 편리함을 전면에 내세우고 있음

    • 메타는 9월 Ray-Ban, Oakley와 함께 AI 기반 안경 제품군을 공개함
    • 기능에는 텍스트 번역, 사용자가 보고 있는 것에 대한 질문 응답 등이 포함됨
    • 특히 시각장애인이나 저시력 사용자에게 유용할 수 있다는 장점도 있음
    • 안경 프레임 한쪽에는 카메라 녹화 중임을 알리는 불빛이 들어오도록 되어 있음
  • 그런데 카메라가 얼굴에 붙는 순간, 오남용 가능성도 같이 커짐

    • 메타 스마트 안경은 케냐에서 여성을 동의 없이 촬영하는 문제와도 연결돼 언급됨
    • 촬영 표시등이 있다고 해도 주변 사람이 항상 인지하거나 거부할 수 있는 건 아님
    • 사용자가 직접 공유한 콘텐츠라 해도, 그 안에 찍힌 제3자가 동의했는지는 전혀 다른 문제임
  • Sama는 이번이 처음 논란이 아님

    • Sama는 미국에 본사를 둔 외주업체로, 기술 일자리 제공을 목표로 한 비영리 조직에서 출발했고 지금은 “윤리적” B-Corp를 내세움
    • 하지만 과거 메타의 페이스북 콘텐츠 검수 계약에서도 큰 비판과 법적 분쟁을 겪었음
    • 당시 일부 전직 직원은 폭력적이고 충격적인 콘텐츠에 노출됐다고 말했고, Sama는 나중에 그 업무를 맡은 것을 후회한다고 밝힘
  • AI 산업의 밑바닥 노동 문제가 다시 드러난 셈임

    • 겉으로는 스마트 안경과 AI 비서라는 멋진 제품 이야기지만, 뒤에서는 사람이 민감한 영상을 보고 라벨링하고 응답 품질을 검수함
    • 한 노동자는 AI 생태계로 들어가는 길이라고 들었지만, 이런 기반 위에 산업 전체를 세우는 건 너무 취약하다고 말함
    • “AI가 알아서 한다”는 말 뒤에 숨어 있는 사람, 데이터, 동의 문제를 제품 설계 단계에서 피할 수 없다는 얘기임

기술 맥락

  • 메타의 선택은 스마트 안경에서 Meta AI로 공유된 사진과 영상을 제품 성능 개선에 쓰고, 필요하면 사람이 검토하게 하는 방식이에요. 왜냐하면 모델이 실제 사용자의 시야와 질문을 제대로 이해하는지 보려면 현실 데이터가 강력한 학습 재료가 되거든요.

  • 문제는 이 데이터가 일반적인 텍스트 로그보다 훨씬 민감하다는 점이에요. 스마트 안경은 사용자의 얼굴에 붙어 있어서 거실, 침실, 화장실 같은 공간까지 들어갈 수 있고, 그 안에는 사용자가 아닌 제3자의 정보도 자연스럽게 섞여요.

  • 휴먼 리뷰 자체는 AI 업계에서 흔한 품질 관리 방식이에요. 하지만 이 기사에서는 검수 대상이 사적인 영상이고, 검수 노동자가 외주 구조 안에 있으며, 계약 종료와 폭로 시점까지 맞물리면서 단순한 모델 개선 프로세스가 아니라 거버넌스 문제가 돼요.

  • 개발팀 관점에서는 “동의를 받았다”는 한 줄로 끝낼 수 없는 케이스예요. 어떤 데이터가 수집되는지, 누가 볼 수 있는지, 제3자 정보는 어떻게 처리되는지, 외주 검수자의 접근 권한과 심리적 안전은 어떻게 보장되는지가 제품 신뢰를 좌우해요.

AI 제품의 ‘마법 같은’ 사용자 경험 뒤에 누가 어떤 데이터를 보고 있는지 다시 묻게 만드는 기사다. 스마트 안경처럼 카메라가 항상 몸에 붙는 기기는 동의, 검수, 외주 노동 문제가 한꺼번에 터질 수밖에 없다.

댓글

댓글

댓글을 불러오는 중...

security

미토스급 AI가 6개월 안에 더 나온다? 보안 검증 체계가 급해졌다

티오리 박세준 대표는 앤트로픽의 클로드 미토스급 범용 AI 모델이 6~12개월 안에 더 등장할 수 있다고 전망했다. 이런 모델은 제로데이 취약점 탐지에 유용하지만 공격 자동화에도 악용될 수 있어, AI 생성 코드를 기계 속도로 검증하는 체계가 필요하다는 주장이다.

security

티빙, 아카마이로 계정 탈취와 디도스 방어 체계 강화했다

아카마이가 서울에서 열린 ‘시큐리티 데이 서울’에서 AI 공급망 보안 전략과 티빙 협력 사례를 공개했다. 티빙은 아카마이 보안 플랫폼을 도입해 크리덴셜 스터핑, 계정 탈취, 고도화된 디도스 공격에 대응하고, 대작 콘텐츠 공개 시점의 트래픽 폭주 상황에서도 가용성을 유지하는 데 초점을 맞췄다.

security

리눅스 로컬 권한 상승 취약점 '카피 페일', 732바이트 파이썬으로 루트 획득 가능

카피 페일은 2017년 이후 배포된 주류 리눅스 커널에 영향을 주는 로컬 권한 상승 취약점으로, 레이스 조건이나 커널별 오프셋 없이 같은 732바이트 파이썬 스크립트로 루트 권한을 얻을 수 있다고 공개됐어. 원인은 커널 암호화 API의 에이에프 알고리즘과 스플라이스 경로가 얽히며 페이지 캐시에 4바이트 쓰기가 가능해지는 논리 버그로 설명됨.

security

Forgejo에서 RCE까지 이어지는 취약점 사슬이 발견됐다는 공개 압박

보안 연구자가 Fedora의 Forgejo 전환을 계기로 코드를 살펴보다가 SSRF, 인증 결함, DoS, 정보 유출, TOCTOU 등 여러 취약점을 발견했고 일부를 묶어 RCE와 OAuth2 권한 상승까지 만들 수 있었다고 밝혔다. 그는 세부 익스플로잇을 바로 공개하지 않고, 취약함을 입증하는 출력만 공개해 프로젝트가 전체 보안 감사를 하도록 압박하는 'carrot disclosure' 방식을 택했다.

security

Rust가 못 잡는 버그들: uutils 44개 CVE에서 나온 시스템 코드 체크리스트

Canonical이 Ubuntu 25.10부터 기본 포함한 Rust 기반 GNU coreutils 재구현체 uutils에서 44개 CVE를 공개했다. 이 버그들은 버퍼 오버플로 같은 메모리 안전 문제가 아니라, 경로 TOCTOU, Unix 바이트 처리, panic, GNU 호환성 차이처럼 Rust 컴파일러가 잡아주지 않는 시스템 경계의 문제였다.