본문으로 건너뛰기
피드

블루록, 파이썬 기반 엠시피 서버 실행 흐름을 코드 수정 없이 추적하는 오픈소스 공개

ai-ml 약 5분

블루록이 파이썬 기반 엠시피 서버의 도구 호출, 세션 활동, 모듈 로딩, 서브프로세스 실행을 런타임에서 추적하는 오픈소스 도구를 공개했다. 에이전트형 인공지능 시스템이 실제 운영 중 무엇을 실행하는지 보기 어려운 문제가 커지면서, 엠시피 서버 내부 동작을 구조화된 이벤트로 남기려는 시도다.

  • 1

    코드 수정 없이 파이썬 엠시피 서버의 런타임 동작을 추적할 수 있음

  • 2

    도구 호출, 세션, 모듈 로딩, 서브프로세스 실행을 구조화된 이벤트로 수집함

  • 3

    제이슨과 엔디제이슨 출력으로 기존 관측 스택과 연동하기 쉽게 설계됨

  • 4

    아파치 2.0 라이선스 오픈소스로 공개돼 자체 확장과 내부 도입이 가능함

  • 에이전트형 인공지능 도입이 늘면서, 이제 엠시피 서버도 그냥 붙이는 걸 넘어 “운영 중 실제로 뭘 했는지” 보여줘야 하는 단계로 들어감

    • 엠시피 서버는 인공지능 에이전트가 외부 도구와 시스템을 호출하는 연결 계층으로 쓰임
    • 문제는 요청 로그만 봐서는 어떤 도구가 호출됐고, 어떤 의존성이 로드됐고, 어떤 시스템 동작이 벌어졌는지 따라가기 어렵다는 점임
  • 블루록이 공개한 ‘엠시피 파이썬 훅스’는 파이썬 기반 엠시피 서버 실행 흐름을 런타임에서 잡아내는 오픈소스 도구임

    • 애플리케이션 코드를 수정하거나 별도 계측 코드를 심지 않아도 이벤트 캡처를 시작할 수 있음
    • 기존 엠시피 서버를 감싸는 방식으로 도구 호출, 호출 인수, 세션 이벤트, 모듈 활동을 구조화된 이벤트로 확인하게 해줌

중요

> 핵심은 “코드 수정 없이” 운영 가시성을 붙인다는 점임. 이미 돌아가는 엠시피 서버에도 후반 개발 단계나 운영 환경에서 관측 레이어를 얹을 수 있다는 얘기임.

  • 수집 범위가 단순 로그보다 꽤 넓음

    • 엠시피 도구 호출과 세션 활동, 클라이언트와 서버 상호작용을 추적함
    • 서브프로세스 실행이나 보안상 민감한 시스템 작업 같은 런타임 신호도 포착함
    • 전체 실행 환경에서 모듈 로딩과 의존성 흐름까지 따라가도록 설계됨
  • 출력은 제이슨과 엔디제이슨 기반 구조화 이벤트로 제공됨

    • 기존 관측 스택으로 넘기기 쉽게 만든 선택임
    • 블루록은 오픈텔레메트리 파이프라인, 그라파나, 기타 모니터링 시스템과 연계할 수 있도록 출력 형식을 제공한다고 밝힘
  • 이 도구가 노리는 사용자는 엠시피 서버를 실험하는 개인 개발자뿐 아니라, 에이전트 기반 시스템을 운영하는 플랫폼팀임

    • 개인 개발자는 몇 분 안에 기존 서버의 이벤트 활동을 확인할 수 있음
    • 조직은 엠시피 프로토콜 이벤트를 내부 모니터링 체계에 노출하고, 도구 실행 경로를 추적하는 데 쓸 수 있음
  • 라이선스는 아파치 2.0이라 기업 내부 도입에도 비교적 부담이 낮음

    • 런타임 훅 구현 방식을 직접 확인하고 자체 사용 사례에 맞춰 확장할 수 있음
    • 특정 벤더 관측 플랫폼에 묶이지 않고, 수집된 이벤트를 기존 보안·관측·분석 도구로 라우팅할 수 있다는 점도 포인트임
  • 프리펙트 대표이자 패스트엠시피 창시자인 제러마이아 로윈도 비슷한 문제를 짚음

    • 팀들이 엠시피와 에이전트 아키텍처는 빠르게 도입했지만, 도구 실행과 런타임 동작에 대한 가시성은 따라잡지 못했다는 얘기임
    • 블루록 대표 해럴드 변도 에이전트 실행 계층의 도구 실행 가시성이 선택 사항이 아니라 요구사항이 되고 있다고 설명함

기술 맥락

  • 엠시피 서버에서 어려운 건 “호출했다”는 사실보다 “호출 과정에서 무슨 일이 연쇄적으로 벌어졌는지”예요. 에이전트는 외부 도구를 동적으로 고르고 실행하니까, 일반적인 요청 로그만으로는 실행 경로를 복원하기 힘들거든요.

  • 블루록이 코드 수정 없는 런타임 훅 방식을 택한 이유도 여기에 있어요. 이미 운영 중인 파이썬 엠시피 서버에 관측 코드를 직접 심으려면 워크플로가 바뀌고 배포 부담도 생기는데, 런타임에서 감싸면 뒤늦게라도 가시성을 붙일 수 있어요.

  • 특히 모듈 로딩과 서브프로세스 실행을 본다는 점이 중요해요. 엠시피 도구 호출 자체는 정상처럼 보여도, 의존성 내부에서 예기치 않은 동작이 발생할 수 있어서 운영팀 입장에서는 호출 인수와 실행 흔적을 같이 봐야 판단이 가능해요.

  • 제이슨과 엔디제이슨 출력은 화려한 기능이라기보다 현실적인 선택이에요. 조직마다 그라파나, 오픈텔레메트리, 자체 보안 분석 도구가 이미 다르기 때문에, 특정 플랫폼 전용 포맷보다 구조화된 이벤트를 흘려보내는 쪽이 도입 장벽이 낮아요.

엠시피 서버가 빠르게 늘어나는 지금, 진짜 문제는 연결 자체보다 운영 중 에이전트가 무슨 일을 벌였는지 설명할 수 있느냐다. 이 도구는 엠시피 생태계가 장난감 데모에서 운영 시스템으로 넘어갈 때 필요한 관측성 레이어에 가깝다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

제미나이 도구 호출 능력을 2,600만 파라미터 모델로 증류한 니들 공개

Cactus Compute가 Gemini 3.1의 도구 호출 능력을 2,600만 파라미터짜리 초소형 모델 Needle로 증류해 공개했다. 맥이나 PC에서 로컬 파인튜닝까지 가능하고, 프로덕션 환경에서는 프리필 6,000 토큰/초, 디코드 1,200 토큰/초를 낸다고 주장한다. 개인용 AI 기기에서 함수 호출만 빠르게 처리하는 작은 모델 실험으로 보면 꽤 흥미로운 공개다.

ai-ml

딥시크 V4 인덱서, 6기가바이트 메모리로 백만 토큰까지 밀어붙인 논문

딥시크 V3.2와 V4의 압축 희소 어텐션에서 병목이 되는 인덱서 단계를 스트리밍 방식으로 바꿔, 기존 구현이 6만5536 토큰에서 메모리 부족으로 죽던 문제를 104만8576 토큰까지 확장했다. 핵심은 전체 점수 텐서를 만들지 않고 청크 단위로 top-k를 나눠 계산한 뒤 병합하는 방식이며, 단일 엔비디아 H200에서 피크 메모리 6.21기가바이트를 기록했다. 다만 논문은 인덱서 단계만 다루며, 실제 체크포인트 기반 종단간 성능이나 더 빠른 어텐션 커널을 주장하진 않는다.

ai-ml

챗지피티가 학습에 좋다던 유명 논문, 결국 철회됨

챗지피티가 학생 학습 성과에 큰 도움이 된다고 주장했던 논문이 출판 약 1년 만에 철회됐어. 스프링거 네이처는 분석의 불일치와 결론 신뢰 부족을 이유로 들었고, 문제의 논문은 이미 500회 넘게 인용된 뒤였어.

ai-ml

샘 올트먼, 법정에서 “머스크가 오픈AI 지배권을 자녀에게 넘기려 했다”고 증언

샘 올트먼이 캘리포니아 오클랜드 연방법원 배심원 앞에서 일론 머스크가 오픈AI의 장기 지배권을 원했고, 사망 후엔 자녀에게 넘기는 방안까지 언급했다고 증언했다. 머스크는 오픈AI가 비영리로 출발했는데도 영리화됐다고 소송을 제기했지만, 올트먼은 오히려 머스크가 영리 전환과 테슬라 편입을 밀었다는 취지로 반박했다.

ai-ml

혜전대, AI로 스마트팜 생산·가공·유통 교육 모델 만든다

혜전대가 2026년 교육부·한국연구재단의 AID 전환 중점 전문대학 지원사업에 충남 지역 연합형 사업단으로 선정됐다. 연암대와 역할을 나눠 스마트팜 생산부터 가공·유통까지 전주기를 디지털화하는 교육 모델을 만들겠다는 내용이다.