본문으로 건너뛰기
피드

미토스급 AI가 6개월 안에 더 나온다? 보안 검증 체계가 급해졌다

security 약 5분

티오리 박세준 대표는 앤트로픽의 클로드 미토스급 범용 AI 모델이 6~12개월 안에 더 등장할 수 있다고 전망했다. 이런 모델은 제로데이 취약점 탐지에 유용하지만 공격 자동화에도 악용될 수 있어, AI 생성 코드를 기계 속도로 검증하는 체계가 필요하다는 주장이다.

  • 1

    클로드 미토스 프리뷰는 자율형 에이전트 기반으로 기존에 발견되지 않은 제로데이 취약점을 찾을 수 있다

  • 2

    미토스급 범용 모델이 6~12개월 안에 더 등장하면 공격 자동화 속도가 크게 빨라질 수 있다

  • 3

    보안 템플릿, 비밀키 스캔, 정적 애플리케이션 보안 테스트, AI 코드 리뷰, 런타임 모니터링이 함께 필요하다

  • “미토스급 AI 모델이 빠르면 6개월 안에 더 나온다”는 경고가 나왔음

    • 박세준 티오리 대표는 개인정보 기술포럼에서 중국 등 AI 연구 조직들이 미토스 수준의 범용 인텔리전스를 구현하는 데 6~12개월 정도밖에 남지 않았다고 말함
    • 포인트는 앤트로픽 미토스에 직접 접근하지 못해도, 비슷한 성능의 범용 모델이 곧 널릴 수 있다는 것임
  • 여기서 말하는 미토스는 단순 챗봇이 아니라, 취약점 탐지까지 가능한 자율형 에이전트 모델임

    • 앤트로픽의 클로드 미토스 프리뷰는 사이버보안 전용 모델은 아니지만 코딩과 추론 능력이 강함
    • 기존에 발견하지 못했던 제로데이 취약점을 찾아낼 수 있는 모델로 소개됨
    • 방어자에겐 사전 점검 도구지만, 공격자에겐 자동화된 취약점 발굴 도구가 될 수 있음

⚠️주의

> 박세준 대표의 메시지는 꽤 직설적임. “몇 년 뒤”가 아니라 “몇 개월 안”에 공격 속도와 방어 기본값이 바뀔 수 있다는 얘기임.

  • 특히 개인정보를 다루는 코드에서는 위험이 더 커짐

    • 코드 시스템은 데이터베이스를 다루고 권한 분리를 처리함
    • 여기서 취약점이 생기면 단순 버그가 아니라 개인정보 탈취로 이어질 수 있음
    • AI가 만든 코드가 많아질수록 “잘 돌아가네”만 보고 배포하는 습관이 더 위험해짐
  • 그래서 제안된 기본 원칙은 간단함. “AI가 생성한 코드는 증명되기 전까지 믿지 말자”임

    • 박 대표는 개인정보를 다루는 코드일수록 이 원칙이 더 중요하다고 강조함
    • AI 코딩 시대에는 사람 손으로 하나씩 보는 속도만으로는 부족하고, 기계 속도에 맞춘 검증 체계가 필요하다는 주장임
  • 첫 번째 방어선은 안전한 기본값을 미리 깔아두는 것임

    • 보안 템플릿, 승인된 빌딩 블록, 골든 패스를 제공해 에이전트가 매번 보안을 새로 발명하지 않게 해야 함
    • 개발자가 편해서 우회하는 길보다, 안전한 길이 기본 경로가 되도록 만드는 접근임
  • 두 번째는 자동 게이트임. 비밀키, 정적 분석, 권한 검사를 배포 흐름에 박아야 함

    • 비밀키 스캔으로 토큰이나 인증 정보가 코드에 섞이는 문제를 잡음
    • 정적 애플리케이션 보안 테스트(SAST)로 실행 전 취약 패턴을 검사함
    • 권한 관련 검증도 자동화해서, 리뷰어의 컨디션에만 기대지 않게 만듦
  • 세 번째는 AI 기반 코드 리뷰와 런타임 모니터링임

    • SAST가 놓치는 비즈니스 로직 오류나 여러 파일에 걸친 신뢰 경계 위반을 AI 리뷰로 보완하자는 얘기임
    • 개인정보 유출 가능성, 권한 검증 누락도 리뷰 대상에 포함됨
    • 배포 뒤에는 이상 탐지, 격리, 개인정보 접근 패턴 모니터링이 필요함
  • 그래도 마지막 단계에는 사람이 있어야 한다는 결론도 중요함

    • 자동화 기반 검증은 필수지만, 아키텍처 설계나 새로운 위협 연구는 사람이 맡아야 한다는 입장임
    • 결국 “AI로 다 막자”가 아니라, 반복 검증은 자동화하고 고난도 판단은 사람에게 남기는 구조임

기술 맥락

  • 여기서 중요한 선택은 AI 생성 코드를 일반 코드처럼 리뷰하는 게 아니라, 기본적으로 불신하고 검증 파이프라인을 통과시킨다는 점이에요. 이유는 모델이 코드를 빠르게 만들수록 취약한 코드도 같은 속도로 늘어날 수 있기 때문이에요.

  • SAST와 비밀키 스캔을 자동 게이트로 두는 이유는 사람이 매번 같은 실수를 잡는 구조가 오래 못 가기 때문이에요. 특히 개인정보를 다루는 서비스는 키 유출, 권한 검증 누락, 데이터베이스 접근 실수가 바로 사고로 이어질 수 있거든요.

  • AI 기반 코드 리뷰가 따로 언급된 건 정적 분석만으로는 비즈니스 로직 오류를 잡기 어렵기 때문이에요. 예를 들어 파일 하나만 보면 정상처럼 보여도, 여러 파일을 거치며 신뢰 경계가 깨지는 문제는 문맥을 봐야 드러나요.

  • 런타임 모니터링까지 가져가는 이유는 배포 전 검증이 완벽할 수 없기 때문이에요. 이상 탐지와 개인정보 접근 패턴 감시는 실제 운영 환경에서만 보이는 공격이나 오남용을 잡기 위한 마지막 방어선에 가까워요.

이 기사의 핵심은 “AI가 코드를 잘 짠다”가 아니라 “AI가 취약점도 빨리 찾고, 공격자도 그 속도를 쓸 수 있다”는 점이다. 개인정보를 다루는 서비스라면 AI 생성 코드를 편의 기능이 아니라 공급망 리스크로 봐야 할 타이밍이다.

댓글

댓글

댓글을 불러오는 중...

security

메타 스마트 안경 영상 검수하던 노동자들, 사생활 침해 폭로 뒤 일자리 잃었다

메타가 AI 학습을 위해 쓰던 케냐 기반 외주업체 Sama와의 대형 계약을 종료하면서 논란이 커지고 있다. Sama 노동자들은 메타 스마트 안경 이용자가 촬영한 화장실 장면이나 성관계 장면 같은 민감한 영상을 봐야 했다고 주장했고, 계약 종료로 1,108명이 해고될 예정이라고 한다. 메타는 기준 미달 때문이라고 말하지만, 노동자 단체는 폭로에 대한 보복이라고 보고 있다.

security

티빙, 아카마이로 계정 탈취와 디도스 방어 체계 강화했다

아카마이가 서울에서 열린 ‘시큐리티 데이 서울’에서 AI 공급망 보안 전략과 티빙 협력 사례를 공개했다. 티빙은 아카마이 보안 플랫폼을 도입해 크리덴셜 스터핑, 계정 탈취, 고도화된 디도스 공격에 대응하고, 대작 콘텐츠 공개 시점의 트래픽 폭주 상황에서도 가용성을 유지하는 데 초점을 맞췄다.

security

리눅스 로컬 권한 상승 취약점 '카피 페일', 732바이트 파이썬으로 루트 획득 가능

카피 페일은 2017년 이후 배포된 주류 리눅스 커널에 영향을 주는 로컬 권한 상승 취약점으로, 레이스 조건이나 커널별 오프셋 없이 같은 732바이트 파이썬 스크립트로 루트 권한을 얻을 수 있다고 공개됐어. 원인은 커널 암호화 API의 에이에프 알고리즘과 스플라이스 경로가 얽히며 페이지 캐시에 4바이트 쓰기가 가능해지는 논리 버그로 설명됨.

security

Forgejo에서 RCE까지 이어지는 취약점 사슬이 발견됐다는 공개 압박

보안 연구자가 Fedora의 Forgejo 전환을 계기로 코드를 살펴보다가 SSRF, 인증 결함, DoS, 정보 유출, TOCTOU 등 여러 취약점을 발견했고 일부를 묶어 RCE와 OAuth2 권한 상승까지 만들 수 있었다고 밝혔다. 그는 세부 익스플로잇을 바로 공개하지 않고, 취약함을 입증하는 출력만 공개해 프로젝트가 전체 보안 감사를 하도록 압박하는 'carrot disclosure' 방식을 택했다.

security

Rust가 못 잡는 버그들: uutils 44개 CVE에서 나온 시스템 코드 체크리스트

Canonical이 Ubuntu 25.10부터 기본 포함한 Rust 기반 GNU coreutils 재구현체 uutils에서 44개 CVE를 공개했다. 이 버그들은 버퍼 오버플로 같은 메모리 안전 문제가 아니라, 경로 TOCTOU, Unix 바이트 처리, panic, GNU 호환성 차이처럼 Rust 컴파일러가 잡아주지 않는 시스템 경계의 문제였다.