본문으로 건너뛰기
피드

클로드가 짠 코드는 누구 소유일까? AI 코딩 시대의 저작권 함정

ai-ml 약 9분

AI가 작성한 코드의 소유권은 생각보다 깔끔하지 않다. 현재 미국 저작권 원칙상 핵심은 ‘의미 있는 인간 저작’이 있었는지, 회사 계약이 이미 권리를 가져갔는지, GPL 같은 오픈소스 라이선스가 섞였는지다.

  • 1

    AI 생성물은 인간의 창작 기여가 충분해야 저작권 보호를 받을 가능성이 커짐

  • 2

    업무 중 만든 AI 보조 코드는 대부분 고용계약과 직무저작 규정상 회사 소유가 될 가능성이 높음

  • 3

    AI가 GPL 코드를 실질적으로 재현하면 의도와 무관하게 카피레프트 위반 리스크가 생김

  • 4

    라이선스 스캔, 프롬프트 로그, 설계 문서, 커밋 메시지 보존이 실무 대응책

  • AI가 이번 주에 네 코드 일부를 짰다면, 진짜 질문은 “잘 돌아가냐”가 아니라 “이 코드의 권리가 누구한테 있냐”임

    • 글은 이 문제를 세 갈래로 나눔: 인간이 충분히 창작했는지, 고용계약이 이미 회사에 권리를 넘겼는지, GPL 코드가 섞였는지
    • 특히 Claude Code 소스 유출 사건이 이 논점을 한 번에 터뜨린 사례로 등장함
  • 2026년 3월 31일, Anthropic이 설정 파일 누락으로 Claude Code 소스 51만 2천 줄을 실수로 배포함

    • 새벽 전에 GitHub 미러가 퍼졌고, 한 개발자는 AI로 전체를 Python으로 재작성해 claw-code 저장소를 만들었음
    • 이 저장소는 하루 만에 GitHub 스타 10만 개를 찍었다고 함. 역대급 속도임
    • 이후 Anthropic은 DMCA 삭제 요청을 날렸는데, 문제는 Claude Code 자체가 Anthropic 리드 엔지니어 말대로 “대부분 Claude가 작성한 코드”라는 점임

중요

> 현재 미국 저작권 실무의 핵심은 “AI가 만들었냐”가 아니라 “사람이 의미 있는 창작 결정을 했냐”에 가까움. 프롬프트만 던지고 그대로 받은 코드는 보호받기 애매할 수 있음.

  • 미국 저작권청과 Thaler 사건 흐름을 보면, 순수 AI 생성물은 저작권 보호를 받기 어렵다는 입장이 꽤 안정적으로 유지되고 있음

    • Thaler 사건은 AI가 만든 그림을 AI 단독 저자로 등록하려던 케이스였고, 대법원은 2026년 3월 상고를 받아들이지 않았음
    • 다만 이건 “AI 보조 창작” 전체를 판정한 게 아니라, 인간 기여가 전혀 없다고 주장한 사건임
    • 코드에 이 원칙이 직접 적용된 판례는 아직 없고, 그래서 실무적으로는 회색지대가 큼
  • “의미 있는 인간 저작”은 퍼센트로 계산되는 게 아니라, 사람이 실제 창작 결정을 했는지로 판단됨

    • 아키텍처를 선택했는지, AI 결과물을 거절했는지, 특정 설계에 맞게 구조를 갈아엎었는지가 중요함
    • “API용 rate limit 모듈 만들어줘”라고 한 줄 입력하고 Claude가 다섯 파일을 만들었고, 사람이 테스트만 돌리고 머지했다면 애매함
    • 많이 고쳐서 방향을 바꾼 모듈은 보호 가능성이 높고, 그대로 받은 코드는 낮고, 그 중간은 아직 법원이 답을 안 줬음
  • 부분 보호라는 현실적인 접근도 있음

    • Zarya of the Dawn 사례에서 저작권청은 인간이 쓴 텍스트는 등록해줬지만 Midjourney 이미지 자체는 거절했음
    • 개발 코드베이스에 대입하면, AI가 뽑은 코드 자체는 애매해도 ADR, 설계 문서, 커밋 메시지, 프롬프트 로그는 인간 창작물로 따로 보호될 수 있음
    • 그래서 “Claude가 만들어줌” 기록만 남기는 팀과 “무엇을 왜 고쳤는지” 남기는 팀은 나중에 법적 위치가 꽤 달라짐
  • 회사에서 만든 AI 보조 코드는 대체로 회사 것이라고 보는 게 맞음

    • 직무 범위 안에서 만든 소프트웨어는 직무저작(work-for-hire) 원칙과 IP 양도 조항에 묶이는 경우가 많음
    • 손으로 짰든, Copilot이 짰든, Claude Code가 짰든 업무 프로젝트라면 소유권 구조는 크게 달라지지 않음
    • 계약서에서 Intellectual Property, IP Assignment, Work Product 같은 항목을 실제로 읽어봐야 함
  • 사이드프로젝트도 안심하기 어려운 포인트가 있음

    • 회사가 라이선스한 Claude Code, Cursor, Copilot을 개인 프로젝트에 썼다면 넓은 IP 조항에 걸릴 수 있음
    • 글에는 한 샌프란시스코 시니어 개발자가 회사 AI 도구로 개인 피트니스 앱을 만들었다가, 회사가 그 앱까지 권리를 주장한 사례가 나옴
    • 회사 논리는 “AI 도구가 IDE에서 업무 파일을 볼 수 있었으니 결과물이 회사 IP의 파생물일 수 있다”였음
    • 법적으로 강한 주장이라고 보긴 어렵지만, 이런 식의 주장이 실제로 나오기 시작했다는 게 포인트임
  • 오픈소스 라이선스 오염은 더 실무적인 리스크임

    • AI 코딩 도구는 GPL, LGPL 같은 카피레프트 코드가 포함된 공개 코드로 학습됐을 가능성이 있음
    • AI가 GPL 코드를 상당 부분 그대로 재현했고 그걸 상용 제품에 넣었다면, 소스 공개 의무 위반 문제가 생길 수 있음
    • “몰랐다”는 GPL 위반의 방어 논리가 되기 어렵다는 점이 꽤 빡셈

⚠️주의

> 위험한 건 “기능이 비슷한 코드”가 아니라 “상당히 그대로 재현된 코드”임. 문제는 스캔을 돌리기 전엔 우리 코드가 어느 쪽인지 모른다는 것.

  • 2026년 초 chardet 커뮤니티 논쟁은 이 문제를 꽤 구체적으로 보여줌

    • 한 개발자가 Python 문자 인코딩 라이브러리 chardet을 Claude로 재작성하고 MIT 라이선스로 다시 공개했음
    • 본인은 AI 재작성이라 “클린룸”이라고 봤지만, 커뮤니티에선 LGPL 회피가 가능한지 논쟁이 벌어짐
    • 법원 판결은 아니지만, AI 리라이트가 라이선스 의무를 지워주는 만능 카드가 아니라는 신호로 읽힘
  • Doe v. GitHub 소송도 아직 끝나지 않았지만 업계 행동은 이미 바뀌는 중임

    • Copilot이 라이선스 코드를 저작권 표시 없이 재현하는지, DMCA 1202조를 위반하는지가 쟁점임
    • 대부분 청구는 1심에서 기각됐지만 2026년 4월 기준 항소가 진행 중이라고 글은 설명함
    • GitHub Copilot은 중복 감지 필터를 넣었고, 인수 실사에서는 AI 코드 라이선스 스캔이 점점 기본 절차가 되고 있음
  • 실무 대응은 의외로 개발팀이 바로 할 수 있는 것들임

    • FOSSA, Snyk Open Source, Black Duck 같은 도구로 AI 보조 코드베이스를 스캔해야 함
    • 커밋 메시지는 “rate limit 추가”보다 “Claude의 상태 관리 설계를 버리고 에러 처리를 직접 재작성함”처럼 남기는 게 훨씬 낫음
    • Claude Code나 Cursor의 프롬프트 로그, 설계 문서, ADR은 나중에 인간 창작 기여를 보여주는 증거가 될 수 있음
  • Anthropic 요금제도 상용 배포라면 따져봐야 함

    • 무료/Pro 플랜은 출력물 권리 양도는 하더라도 IP 면책 범위가 더 좁다고 글은 지적함
    • API/엔터프라이즈 조건은 승인된 사용과 출력물에서 발생하는 저작권 침해 클레임에 대해 방어 범위가 더 넓음
    • 단, GPL 오염 같은 다운스트림 라이선스 문제는 Anthropic 면책이 아니라 회사의 거버넌스 문제로 남음
  • 결론은 꽤 현실적임: AI 코딩을 쓰지 말라는 얘기가 아니라, 증거를 남기라는 얘기임

    • AI가 3천 줄을 만들고 사람이 아무 리뷰 없이 머지한 기록과, 사람이 설계하고 거절하고 재작성한 기록은 나중에 완전히 다르게 보일 수 있음
    • 특히 투자, 인수합병, 분쟁, 보안 감사 단계에 들어가면 “이 코드는 누가 썼고 어떤 라이선스 리스크가 있나”가 진짜 질문이 됨

기술 맥락

  • 여기서 핵심 선택은 AI 코드를 “그냥 산출물”로 볼지, “사람의 설계와 검토가 섞인 작업물”로 관리할지예요. 왜냐면 저작권과 컴플라이언스는 코드가 잘 도는지보다 누가 어떤 창작 결정을 했는지를 더 중요하게 보기 때문이에요.

  • 개발팀이 해야 할 일은 거창한 법무 프로세스보다 기록 체계를 바꾸는 쪽에 가까워요. 커밋 메시지, ADR, 프롬프트 로그에 사람이 구조를 어떻게 바꿨는지 남겨야 나중에 “Claude가 다 했다”는 식의 기록으로 몰리지 않거든요.

  • 라이선스 스캔도 AI 시대엔 선택지가 아니라 배포 전 품질 게이트에 가까워져요. GPL 코드가 그대로 섞였는지는 눈으로 보기 어렵고, 상용 제품에서는 한 번 터지면 소스 공개나 계약 리스크로 바로 이어질 수 있기 때문이에요.

  • 회사 장비와 회사 라이선스 AI 도구를 개인 프로젝트에 쓰는 것도 조심해야 해요. 실제 법적 승패와 별개로, IP 조항이 넓으면 회사가 권리를 주장할 명분이 생기고 그 자체가 꽤 피곤한 분쟁 비용이 되거든요.

개발팀 입장에선 ‘AI가 짜줬다’보다 ‘사람이 어떤 결정을 했고 무엇을 고쳤는지’를 남기는 게 점점 중요해지는 분위기다. 앞으로 인수합병, 보안 감사, 오픈소스 컴플라이언스에서 AI 코드 출처 질문은 그냥 체크박스가 아니라 리스크 항목이 될 가능성이 큼.

댓글

댓글

댓글을 불러오는 중...

ai-ml

네이버클라우드, K-AI 파트너십 공동의장사로 산·학·연 AI 연합 이끈다

네이버클라우드가 K-AI 파트너십 공동의장사로 선임됐고, 김유원 대표가 조준희 KOSA 회장과 함께 공동의장을 맡는다. 이 협력체는 과기부 지원 아래 산·학·연을 묶어 국내 AX 역량을 모으고, 실제 사업 매칭과 수출 성과까지 연결하는 실행형 AI 민관 협력체를 지향한다.

ai-ml

세일즈포스와 구글 클라우드, 슬랙·워크스페이스에 AI 에이전트 바로 꽂는다

세일즈포스와 구글 클라우드가 에이전트포스와 제미나이 엔터프라이즈 연동을 확대해 슬랙과 구글 워크스페이스 안에서 AI 에이전트를 바로 배포할 수 있게 했다. 핵심은 데이터 이동 없이 여러 시스템의 정보를 실시간으로 쓰는 제로 카피 구조와, 영업·문서·회의·고객 응대 흐름을 한 화면에서 이어가게 만드는 통합이다.

ai-ml

아이티센클로잇, 구글 클라우드 기반 기업용 AI 전환 플랫폼 시연

아이티센클로잇이 AI EXPO KOREA 2026에서 구글 클라우드 기반의 기업 맞춤형 AI 전환 전략을 공개한다. 제미나이 엔터프라이즈, 버텍스 AI, 자체 멀티 에이전트 관리 플랫폼, AI 영상 제작 솔루션을 묶어 엔드투엔드 기업 AI 도입 시나리오를 보여줄 예정이다.

ai-ml

중국 AI 업계, 모델과 국산 칩을 한 몸처럼 묶기 시작함

샤오미가 오픈소스 대규모 언어 모델(LLM) ‘미모 V2.5 프로’를 공개했고, 중국 GPU 업체들이 출시 당일 호환을 발표했다. 딥시크, 스텝펀, 즈푸, 알리바바, 바이두까지 중국산 AI 모델과 중국산 연산 칩의 결합이 빠르게 늘고 있다.

ai-ml

머스크와 오픈AI, ‘안전한 AI’ 정체성 두고 법정 정면충돌

일론 머스크가 오픈AI 경영진을 상대로 낸 소송 첫 변론에서 오픈AI의 영리화가 초기 비영리 목적을 훼손했다고 주장했다. 오픈AI는 머스크가 경쟁사 xAI를 운영하는 이해관계자라며, 이번 소송을 경쟁사의 공격으로 보고 있다.