---
title: "병원이 AI를 쓰면 광고 문구 하나에도 법적 책임이 따라온다"
published: 2026-05-12T05:05:02.486Z
canonical: https://jeff.news/article/2404
---
# 병원이 AI를 쓰면 광고 문구 하나에도 법적 책임이 따라온다

의료기관이 생성형 AI로 광고 문구를 만들거나 환자 데이터 기반 예측 프로그램을 쓰면 인공지능기본법, 의료법, 개인정보보호법, 의료기기법까지 함께 봐야 한다는 칼럼이다. 특히 진단·치료에 영향을 주는 AI는 고영향 AI로 분류될 수 있어 위험관리, 설명 의무, 별도 동의 같은 책임이 무거워진다.

- 의료기관이 AI를 쓰는 순간, 법적 책임은 생각보다 빨리 따라붙음
  - 병원 블로그 글이나 광고 문구를 챗GPT 같은 생성형 AI로 작성하는 흔한 사례도 인공지능기본법 적용 대상이 될 수 있음
  - 이 경우 의료기관은 인공지능이용사업자로 볼 수 있고, 핵심 의무는 투명성 확보임

- 생성형 AI로 만든 병원 광고는 “AI가 만들었다”는 사실을 알려야 함
  - 인공지능기본법 제31조는 생성형 AI로 만든 콘텐츠에 대해 이용자가 명확히 알 수 있도록 사전에 고지하고 표시할 의무를 둠
  - 단순히 AI 제작 사실을 표시하는 것만으로도 첫 번째 법적 의무는 챙기는 셈임
  - 다만 이 표시가 면죄부는 아님. 광고 내용의 사실관계와 과장 여부는 여전히 병원이 책임져야 함

> [!WARNING]
> “AI가 쓴 광고입니다”라고 붙였다고 의료광고 책임이 사라지진 않음. 객관적 근거가 없거나 환자를 현혹할 수 있는 표현이면 의료법 규제는 그대로 걸림.

- 더 무거운 문제는 AI가 진단이나 치료 판단에 개입할 때임
  - 예를 들어 환자 의료 데이터를 기반으로 수술 결과를 예측하는 알고리즘을 병원 내부에서 쓰는 경우가 있음
  - 이건 의사의 의료적 판단에 직접 영향을 줄 수 있고, 환자의 신체와 건강에도 중대한 영향을 미침
  - 그래서 인공지능기본법상 고영향 AI로 분류될 가능성이 높음

- 고영향 AI가 되면 해야 할 일이 확 늘어남
  - 위험관리방안을 세우고, 사람이 관리·감독하는 등 안전성과 신뢰성을 확보해야 함
  - AI 판단 결과에 대해 환자나 영향을 받는 사람에게 설명해야 할 의무가 있음
  - AI가 기본권에 미치는 영향을 사전에 평가하려는 노력도 요구됨

- 환자 데이터는 AI 학습용으로 막 가져다 쓰기 어려움
  - 진료기록은 개인정보보호법상 민감정보임
  - AI 학습에 활용하려면 환자로부터 포괄 동의가 아니라 명시적인 별도 동의를 받아야 함
  - 헬스케어 AI에서 데이터 파이프라인 설계가 법무 이슈와 바로 붙는 이유가 여기에 있음

- 병원이 준비해야 할 대응은 꽤 현실적임
  - 병원 안에서 쓰는 모든 AI 기술 현황을 먼저 파악해야 함
  - 생성형 AI와 고영향 AI를 분류하고, 위험도에 맞는 관리 방안을 마련해야 함
  - 마케팅이나 챗봇처럼 외부에 노출되는 AI 서비스는 AI 생성·운영 사실을 알리는 절차가 필요함
  - 진단·치료 영역 AI는 작동 원리와 판단 기준을 환자나 보호자가 이해할 수 있게 설명할 자료를 준비해야 함

- 인공지능기본법만 보면 안 된다는 점도 중요함
  - 의료광고는 의료법 규제를 계속 받음
  - 환자 데이터는 개인정보보호법을 봐야 함
  - 진단·치료 보조 소프트웨어는 소프트웨어 의료기기, 즉 SaMD로 분류돼 식약처 허가 대상이 될 수도 있음

> [!IMPORTANT]
> 의료 AI는 기술 검증, 개인정보 동의, 설명 가능성, 의료기기 허가가 한 덩어리로 묶임. 제품 설계 초기에 이걸 빼먹으면 나중에 출시 직전에서 막힐 가능성이 큼.

- 개발자 입장에서 이 칼럼의 메시지는 명확함
  - 헬스케어 AI는 모델 성능표만으로 끝나는 제품이 아님
  - 사용 고지, 권한 관리, 데이터 동의, 설명 자료, 감사 가능성까지 기능 요구사항으로 들어와야 함
  - 특히 환자 진단·치료에 영향을 주는 순간 “그냥 내부 도구”라고 보기 어려워짐

---

## 기술 맥락

- 이 기사에서 가장 중요한 선택은 의료기관이 AI를 위험도별로 나눠 관리해야 한다는 점이에요. 병원 광고 문구를 만드는 생성형 AI와 수술 결과를 예측하는 AI는 같은 AI라도 환자에게 미치는 영향이 완전히 다르거든요.

- 고영향 AI가 까다로운 이유는 의사결정에 들어가기 때문이에요. 의사의 판단에 영향을 주고 환자의 건강 결과와 연결될 수 있으면, 모델 성능뿐 아니라 사람이 어떻게 감독하고 환자에게 어떻게 설명할지도 같이 설계해야 해요.

- 환자 데이터 사용도 기술팀 혼자 결정할 수 없어요. 진료기록은 민감정보라서 학습 데이터로 쓰려면 별도 동의가 필요하고, 이 요구사항은 데이터 수집 화면, 동의 이력 저장, 학습 파이프라인 분리 같은 구현으로 이어져요.

- SaMD 검토가 필요한 이유는 소프트웨어가 의료적 판단을 보조하면 규제상 의료기기처럼 취급될 수 있기 때문이에요. 그래서 헬스케어 AI 제품은 모델 개발, 개인정보 처리, 인허가 전략이 처음부터 같이 움직여야 해요.

## 핵심 포인트

- 챗GPT로 만든 병원 광고도 AI 생성 사실을 사전에 고지하고 표시해야 한다
- 환자 의료 데이터 기반 예측 프로그램은 고영향 AI로 분류될 가능성이 높다
- 민감정보인 진료기록을 AI 학습에 쓰려면 환자의 명시적인 별도 동의가 필요하다
- 진단·치료 보조 소프트웨어는 소프트웨어 의료기기 허가 대상인지도 검토해야 한다

## 인사이트

의료 AI는 ‘모델이 맞췄냐’보다 ‘누가 설명하고 책임질 수 있냐’가 더 큰 이슈가 된다. 헬스케어 쪽 제품을 만드는 팀이라면 법무 검토를 출시 직전 체크리스트가 아니라 설계 단계 요구사항으로 넣어야 한다.
