본문으로 건너뛰기
피드

딥클로드, 클로드 코드 실행 루프는 그대로 두고 모델만 딥시크로 바꾸는 우회로 공개

ai-ml 약 8분

딥클로드는 클로드 코드의 파일 편집, 셸 실행, 깃 작업, 에이전트 루프는 그대로 쓰면서 모델 호출만 딥시크 V4 프로나 오픈라우터 같은 앤트로픽 호환 백엔드로 돌리는 도구다. 핵심 주장은 같은 개발자 경험을 유지하면서 출력 토큰 가격을 100만 토큰당 15달러에서 0.87달러 수준으로 낮출 수 있다는 것. 다만 이미지 입력, 일부 호환 계층 기능, 모델별 추론 품질 차이는 그대로 감수해야 한다.

  • 1

    클로드 코드의 도구 루프와 터미널 경험은 유지하고, 생각하는 모델만 딥시크 V4 프로로 바꾸는 구조

  • 2

    딥시크 기준 출력 토큰 가격은 100만 토큰당 0.87달러로, 앤트로픽 오퍼스의 15달러 대비 약 17배 저렴

  • 3

    로컬 프록시를 쓰면 세션 중에도 딥시크, 오픈라우터, 앤트로픽 백엔드를 슬래시 명령으로 전환 가능

  • 4

    이미지 입력, 일부 엠시피 서버 도구, 앤트로픽식 프롬프트 캐시 제어는 호환 계층에서 제약이 있음

  • 딥클로드는 클로드 코드의 몸통은 그대로 두고, 머리만 다른 모델로 갈아끼우는 프로젝트임

    • 파일 읽기, 파일 수정, 셸 실행, 깃 작업, 서브에이전트 생성, 여러 단계 자동 코딩 루프는 그대로 클로드 코드가 담당함
    • 달라지는 건 모델 API 호출 대상임. 기본 앤트로픽 대신 딥시크 V4 프로, 오픈라우터, 파이어웍스 AI 같은 앤트로픽 호환 백엔드로 보냄
  • 숫자로 보면 이 프로젝트가 왜 관심을 끄는지 바로 보임

    • 앤트로픽 오퍼스는 출력 100만 토큰당 15달러로 제시됨
    • 딥시크 V4 프로는 출력 100만 토큰당 0.87달러, 입력 100만 토큰당 0.44달러로 제시됨
    • 작성자는 같은 사용자 경험으로 약 17배 저렴하게 쓸 수 있다고 주장함
    • 딥시크 V4 프로는 라이브코드벤치(LiveCodeBench) 96.4% 점수도 내세움

중요

> 핵심은 “새 코딩 에이전트”가 아니라 “클로드 코드의 에이전트 루프를 유지한 채 모델 비용만 낮추는 어댑터”라는 점임.

  • 비용 시뮬레이션도 꽤 노골적임

    • 가벼운 사용량, 월 10일 정도면 앤트로픽 맥스 200달러 대비 딥클로드는 약 20달러로 잡음
    • 무거운 사용량, 월 25일 정도면 약 50달러로 잡음
    • 자동 루프를 많이 돌리는 경우에도 약 80달러로 잡아서 60% 절감이라고 설명함
    • 딥시크의 자동 컨텍스트 캐싱(context caching) 때문에 반복 턴에서는 시스템 프롬프트와 파일 맥락 비용이 크게 줄어든다는 게 포인트임
  • 설정 방식은 클로드 코드가 이미 보는 환경변수를 이용함

    • ANTHROPIC_BASE_URL로 API 엔드포인트를 바꾸고, ANTHROPIC_AUTH_TOKEN으로 백엔드 키를 넣는 식임
    • 오퍼스, 소넷, 하이쿠 계층 모델명도 각각 환경변수로 지정할 수 있음
    • 딥클로드는 이 값을 세션 단위로 세팅하고, 종료 시 원래 설정으로 되돌리는 방식이라고 설명함
  • 백엔드는 작업 성격에 따라 고르는 구조임

    • 딥시크는 기본값이고, 입력 100만 토큰당 0.44달러, 출력 100만 토큰당 0.87달러로 제시됨
    • 오픈라우터도 같은 가격대로 제시되며, 미국과 유럽에서 지연시간이 낮다는 설명이 붙음
    • 파이어웍스 AI는 입력 1.74달러, 출력 3.48달러로 더 비싸지만 추론 속도가 빠른 쪽으로 소개됨
    • 앤트로픽은 입력 3달러, 출력 15달러지만 어려운 문제에서는 여전히 강한 선택지로 남겨둠
  • 제약도 있음. 그냥 완전 대체품이라고 보면 낭패 볼 수 있음

    • 딥시크의 앤트로픽 호환 엔드포인트는 이미지나 비전 입력을 지원하지 않음
    • 병렬 도구 호출은 딥시크 쪽에서 최대 128개까지 지원하지만, 클로드 코드가 기본적으로 순차 호출을 보낸다고 설명함
    • 엠시피(MCP) 서버 도구는 호환 계층을 통해 지원되지 않는다고 적혀 있음
    • 앤트로픽의 cache_control은 무시되고, 대신 딥시크 자체 자동 캐싱을 쓴다는 구조임
  • 흥미로운 부분은 세션 중 모델 전환임

    • 로컬 프록시가 localhost:3200에서 돌고, 클로드 코드의 /v1/messages 호출을 현재 선택된 백엔드로 넘김
    • /_proxy/mode로 딥시크, 오픈라우터, 앤트로픽 모드를 바꿀 수 있음
    • 클로드 코드 명령 폴더에 deepseek.md, anthropic.md, openrouter.md를 넣으면 세션 안에서 /deepseek, /anthropic, /openrouter로 전환 가능하다고 설명함
sequenceDiagram
    participant 개발자
    participant 클로드코드
    participant 로컬프록시
    participant 딥시크
    participant 앤트로픽
    개발자->>클로드코드: 코드 수정 요청
    클로드코드->>로컬프록시: 모델 API 호출
    로컬프록시->>딥시크: 현재 백엔드로 메시지 전달
    딥시크-->>로컬프록시: 응답 반환
    로컬프록시-->>클로드코드: 도구 호출 계획 전달
    클로드코드->>개발자: 파일 수정, 셸 실행, 결과 보고
    개발자->>로컬프록시: 백엔드 전환 요청
    로컬프록시->>앤트로픽: 이후 요청을 새 백엔드로 전달
  • 원격 제어 모드도 살짝 복잡하지만 재미있음

    • 브라우저나 모바일에서 클로드 코드 세션 URL을 열 수 있게 해주는 기능은 앤트로픽 브리지 웹소켓을 필요로 함
    • 다만 모델 호출 자체는 로컬 프록시를 통해 딥시크로 보낼 수 있다고 설명함
    • 즉 연결 인프라는 앤트로픽을 타고, 비싼 모델 호출은 다른 곳으로 돌리는 식임
    • 조건은 클로드 코드 로그인, 클로드 구독, 노드.js 18 이상임
  • 실무 감각으로 보면 “싼 모델로 80%, 강한 모델로 20%” 전략을 노린 도구임

    • 루틴한 리팩터링, 테스트 수정, 파일 탐색, 반복 구현은 딥시크로 돌려 비용을 낮춤
    • 복잡한 추론이나 애매한 설계 판단은 앤트로픽 백엔드로 전환해서 처리함
    • 코딩 에이전트를 오래 켜놓고 자주 쓰는 개발자일수록 이런 백엔드 스위칭의 체감이 커질 가능성이 높음

기술 맥락

  • 이 프로젝트의 선택은 에이전트 자체를 새로 만드는 게 아니라, 이미 검증된 클로드 코드의 도구 루프를 그대로 쓰는 쪽이에요. 파일 수정, 셸 실행, 깃 조작 같은 부분은 모델보다 제품 완성도가 더 중요하거든요.

  • 비용을 줄이는 지점은 모델 호출 레이어예요. 코딩 에이전트는 한 번 답하고 끝나는 챗봇이 아니라, 파일 맥락을 계속 읽고 여러 턴을 반복해서 토큰이 빨리 쌓이거든요. 그래서 출력 100만 토큰당 15달러와 0.87달러 차이가 실제 사용료 차이로 바로 튀어나와요.

  • 로컬 프록시를 둔 이유는 클로드 코드를 뜯어고치지 않고도 백엔드를 바꾸기 위해서예요. 클라이언트에는 앤트로픽 API처럼 보이게 하고, 내부에서는 딥시크나 오픈라우터로 라우팅하면 기존 워크플로를 거의 유지할 수 있거든요.

  • 다만 호환 API는 항상 경계가 있어요. 이미지 입력, 엠시피 서버 도구, 앤트로픽식 캐시 제어처럼 공급자 고유 기능은 그대로 복제되기 어렵거든요. 그래서 이 도구는 완전 대체라기보다, 반복 코딩 작업의 비용을 낮추는 실용적인 우회로에 가까워요.

코딩 에이전트 비용이 월 구독료보다 토큰 사용량 문제로 번지는 흐름을 제대로 찌른 프로젝트다. 실무에서는 저렴한 모델로 반복 작업을 돌리고, 어려운 설계나 디버깅만 강한 모델로 넘기는 하이브리드 패턴이 꽤 현실적으로 보인다.

댓글

댓글

댓글을 불러오는 중...

ai-ml

메가존클라우드, AWS 에이전틱 AI 실습 행사 국내 운영 맡는다

메가존클라우드가 AWS 에이전틱 AI 게임데이의 공식 운영 파트너로 선정돼 5월 중 국내 기업 대상 실습형 프로그램을 연다. 참가 기업은 실제 업무와 비슷한 시나리오에서 아마존 베드록, 베드록 에이전트코어, 스트랜드 에이전트 등을 비용 부담 없이 검증하게 된다.

ai-ml

LG CNS, 1분기 매출 1.3조 원…AI·클라우드가 절반 넘게 끌었다

LG CNS가 1분기 매출 1조3150억 원, 영업이익 942억 원을 기록하며 전년 대비 각각 8.6%, 19.4% 성장했다. AI·클라우드 사업만 7654억 원으로 전체 매출의 약 58%를 차지했고, 오픈AI·팔란티어 협력, 데이터센터 DBO, 피지컬 AI까지 전선을 넓히는 중이다.

ai-ml

메가존클라우드, 국내 기업 대상 AWS 에이전틱 AI 게임데이 운영

메가존클라우드가 AWS의 ‘에이전틱 AI 게임데이’ 공식 운영 파트너로 선정돼 국내 기업 대상 실습형 AI 교육을 맡는다. 참가자들은 단순 강의가 아니라 팀 단위로 실제 기술 문제를 정의하고 해결책을 설계하는 방식으로 에이전트 기반 AI 활용을 경험하게 된다.

ai-ml

카카오 플레이MCP, 오픈클로 연동으로 AI 에이전트 도구 생태계 넓힘

카카오가 MCP 기반 플랫폼 ‘플레이MCP’를 오픈소스 AI 에이전트 ‘오픈클로’와 연동했다. 카카오톡, 톡캘린더, 카카오맵, 멜론 등 약 200개 MCP 서버를 클로드와 챗GPT뿐 아니라 로컬 에이전트 환경에서도 쓸 수 있게 됐다.

ai-ml

미 국방부, 오픈AI·구글·스페이스X 등 8개사와 기밀 AI 계약 체결

미 국방부가 오픈AI, 구글, 스페이스X, 마이크로소프트, 아마존, 오라클, 엔비디아, 리플렉션AI 등 8개 기업과 기밀 환경에서 AI 도구를 쓰기 위한 계약을 맺었다. 엔비디아의 오픈소스 모델 네모트란도 포함됐고, 앤트로픽과의 갈등은 더 선명해졌다.