---
title: "약국에도 AI가 들어오지만, 최종 책임은 여전히 약사에게 있다"
published: 2026-05-10T20:50:02.001Z
canonical: https://jeff.news/article/2317
---
# 약국에도 AI가 들어오지만, 최종 책임은 여전히 약사에게 있다

경기약사학술제에서는 AI가 약국 업무를 어떻게 바꿀지, 그리고 약사가 무엇을 책임져야 하는지가 집중 논의됐다. 처방 점검, 다제약물 검토, 복약지도 보조 같은 영역에서 AI 활용 가능성은 커지고 있지만, 환각과 개인정보, 법적 책임 때문에 최종 판단은 약사가 맡아야 한다는 결론이 반복됐다. 또 국내 약국 시스템의 폐쇄적 구조가 AI 도입의 가장 큰 병목으로 지적됐다.

## AI가 약국 업무를 바꾸는 건 맞지만, 약사를 지우는 그림은 아님

- 경기약사학술제의 핵심 메시지는 꽤 명확함. AI가 대체하는 건 약사가 아니라 반복적이고 기계적인 업무라는 것임
  - 처방 입력, 재고 관리, 조제 자동화 같은 영역은 AI와 기계가 상당 부분 맡을 수 있음
  - 하지만 환자 개별 상황을 고려한 판단, 공감, 복약 순응도를 높이는 소통은 여전히 약사의 영역으로 제시됨
  - “환자는 단순 데이터가 아니라 사람”이라는 말이 이 논의를 잘 요약함

- 약국 AI의 어려움은 환자 정보가 애초에 불완전하게 들어온다는 데 있음
  - 전문가는 어떤 정보가 중요한지 알지만, 환자는 식습관·병용약물·부작용 반응·문화적 배경 중 무엇을 말해야 하는지 모를 수 있음
  - 그래서 환자가 챗GPT 같은 도구에 대충 물어보면 평균적인 답변이나 빠진 답변을 받을 가능성이 큼
  - 약사는 AI 답변을 그대로 전달하는 사람이 아니라, 오류를 검증하고 환자 상황에 맞게 재해석하는 역할을 해야 함

- 생성형 AI의 환각(Hallucination)은 약국에서는 그냥 웃고 넘길 문제가 아님
  - 실제 논문 기반 AI 검색 서비스조차 검색 범위와 조건에 따라 상반된 결론을 낼 수 있다는 사례가 소개됨
  - 약물 상호작용, 용법·용량, 부작용 정보가 틀리면 바로 환자 안전 문제로 이어질 수 있음
  - 결국 AI를 잘 쓰는 약사는 프롬프트를 잘 치는 사람보다, 근거를 넓게 보고 판단할 수 있는 사람에 가까움

> [!WARNING]
> AI는 면허가 없음. 복약지도나 조제 판단에서 문제가 생기면 최종 책임은 AI 개발사가 아니라 면허를 가진 약사에게 돌아갈 가능성이 크다는 게 법률 발표의 핵심이었음.

## 실제 약국용 AI는 처방 점검부터 들어오는 분위기

- 약학정보원은 PM+20 시스템에 AI 기반 처방 점검 기능을 넣는 방향을 추진 중임
  - 이유는 현실적임. 약사의 법적 책임과 업무 시간 부담을 고려하면 처방 점검 수요가 가장 크다고 판단했다는 것임
  - “기술적으로 가능한 것”보다 “약국 현장에서 실제로 아픈 문제”를 먼저 잡겠다는 접근임
  - 공공 AI 프로젝트 상당수가 실패한 이유를 “가짜 문제를 풀려고 했기 때문”이라고 짚은 것도 꽤 뼈 있음

- 시연 사례는 약국 업무에 AI가 어떻게 붙을 수 있는지 보여줌
  - 조영제 CT 검사 예정 환자의 약물 위험성 점검
  - 서방정 분할 금기 확인
  - 여성 환자의 피나스테리드 복용 문제 탐지
  - 소아 체중 기반 용량 계산

- 다만 안전 구조는 휴먼 인 더 루프(Human in the Loop)가 전제임
  - AI가 위험 신호를 찾더라도 최종 검증과 수정은 약사가 해야 함
  - 비용, 규제, 개인정보 문제를 고려하면 “될 수 있으니 출시”가 아니라 “책임질 수 있으니 출시”가 기준이 됨
  - 의료·약료 영역에서 AI 제품화가 느린 이유가 바로 여기 있음

- 환자도 이미 AI를 쓰기 시작했다는 점이 약사의 역할을 바꾸고 있음
  - 발표에서는 미국 성인의 32%가 AI로 건강 정보를 얻고 있다는 수치가 제시됨
  - 약국 방문 전에 챗GPT에 부작용이나 약 정보를 물어보고 오는 환자가 자연스러운 흐름이 됐다는 설명임
  - 앞으로 약사는 “AI가 틀린 부분과 빠뜨린 정보”를 잡아내는 상담자로 더 많이 호출될 가능성이 큼

- 다제약물 검토 AI 솔루션 `파이(PHI)`도 소개됨
  - 환자 처방 이력을 기반으로 약물 위험을 분석하고 근거를 제시해 약사의 검토 시간을 줄이는 방식임
  - 서울대 약학대학과 공동 연구를 통해 약물 검토 정확도 93%를 확보했다고 설명됨
  - 숫자는 매력적이지만, 실제 현장에서는 어떤 데이터로 검증했는지와 오류 대응 프로세스가 더 중요해질 듯함

## 법적 책임은 꽤 빡세게 봐야 함

- 약사법상 복약지도 의무는 AI 사용 여부와 무관하게 약사에게 귀속될 가능성이 큼
  - AI가 잘못된 정보를 만들더라도 환자에게 전달하기 전에 검증하지 않았다면 약사가 책임을 질 수 있음
  - 공식 데이터베이스와 교차 검증하는 절차가 반드시 필요하다는 조언이 나옴
  - 미국에서 챗GPT가 존재하지 않는 판례를 만들어 변호사가 징계를 받은 사례도 약국에 충분히 적용 가능한 경고로 소개됨

- 2026년 시행된 인공지능기본법도 약국 AI에 영향을 줄 수 있음
  - 보건의료 영역 AI는 생명·신체·기본권에 중대한 영향을 미칠 수 있어 고영향 AI로 분류될 가능성이 높음
  - 생성형 AI를 함께 쓰면 고영향 AI와 생성형 AI 규제가 동시에 걸릴 수 있다는 설명임
  - 위험관리, 이용자 보호, 설명 가능성, 사람의 관리·감독 의무가 중요해짐

- 약국에서는 AI 사용 사실을 환자에게 알리는 절차도 필요해질 수 있음
  - AI 기반 복약지도 자료를 제공한다면 “AI를 활용해 작성됐다”는 고지가 필요할 수 있음
  - 고지 의무 위반 시 최대 3000만원 과태료가 부과될 수 있다는 설명도 나옴
  - 환자가 이의를 제기했을 때 약사가 직접 설명할 수 있는 매뉴얼도 필요함

- 개인정보는 거의 금지선에 가깝게 봐야 함
  - 환자 이름, 주민번호, 처방 내용, 질환명을 외부 생성형 AI에 직접 입력하는 건 개인정보보호법 위반 가능성이 큼
  - 대부분 생성형 AI 서비스가 입력 데이터를 학습에 활용할 수 있다는 점도 약관 확인이 필요함
  - 약국 데이터는 민감정보 덩어리라, 일반 업무 자동화처럼 가볍게 외부 서비스에 붙이면 바로 사고가 날 수 있음

## 진짜 병목은 AI 모델보다 약국 시스템의 폐쇄성일 수 있음

- 한 발표자는 직접 만든 복약지도 보조 AI 도구를 예로 들며, 문제는 기술이 아니라 연결 지점이라고 지적함
  - 클로드(Claude)를 활용해 약 30분 만에 환자 복용 약물 목록 기반 병용금기 체크와 복약지도 문구 생성 프로토타입을 만들었다고 함
  - 하지만 실제 약국 조제 프로그램과 연결하려 하자 API도 없고 데이터 내보내기도 없어 막혔다고 설명함
  - “내가 입력한 데이터조차 내가 활용할 수 없었다”는 말이 이 문제를 꽤 선명하게 보여줌

- 다른 산업과 비교하면 약국 시스템의 폐쇄성이 더 도드라짐
  - 동네 카페도 판매 데이터를 CSV로 뽑아 AI 분석에 쓸 수 있음
  - 쇼핑몰은 API로 주문·재고·배송 자동화를 붙일 수 있음
  - 금융권은 오픈뱅킹 API 이후 핀테크 서비스가 빠르게 늘었음
  - 반면 약국은 하루 수십~수백 건의 처방 데이터가 쌓이지만, 외부 서비스 연동과 데이터 이동이 어렵다는 지적임

- 폐쇄 구조의 원인으로는 과점, 표준 부재, 데이터 소유권 불명확성이 꼽힘
  - 소수 업체 중심 구조에서는 API를 열면 이용자 이탈 위험이 생기니 개방 유인이 작음
  - 미국 의료 분야에서는 FHIR 같은 데이터 교환 표준이 자리 잡았지만, 국내 약국 환경은 표준화가 부족함
  - 약국 데이터가 약사의 것인지, 프로그램사의 것인지, 환자의 것인지 명확하지 않으니 “안 주는 것”이 기본값이 됨

- 그래서 약국 AI의 다음 과제는 모델 성능 경쟁만이 아님
  - 약국 프로그램 평가에 개방성 기준을 넣는 것
  - 약사의 데이터 접근권을 논의하는 것
  - 약사 개발자들이 프로토타입을 만들고 실제 시스템에 붙일 수 있는 생태계를 만드는 것
  - 비유하자면, 지금 약국은 스마트폰은 있는데 앱스토어가 없는 상태에 가깝다는 얘기임

---

## 기술 맥락

- 이 기사에서 중요한 기술 선택은 “AI가 약사를 대체하느냐”가 아니라 “AI 판단을 어디까지 자동화할 거냐”예요. 약국 업무는 환자 안전과 법적 책임이 바로 붙기 때문에, AI가 처방 위험을 탐지하더라도 최종 검증은 약사가 맡는 휴먼 인 더 루프 구조가 필요해요.

- 생성형 AI를 외부 서비스로 붙이는 방식은 구현은 쉽지만 개인정보 리스크가 커요. 처방전, 질환명, 복약 이력은 민감정보라서 챗GPT 같은 외부 도구에 그대로 넣으면 법적 문제가 생길 수 있거든요. 그래서 약국 AI는 모델 성능만큼 데이터 처리 위치와 약관, 학습 사용 여부가 중요해요.

- 약국 시스템에 API가 없다는 지적은 개발자 입장에서 특히 중요해요. AI 기능은 프로토타입으로는 30분 만에 만들 수 있어도, 실제 업무 데이터와 연결되지 않으면 제품이 아니라 데모에 머물러요. 결국 표준 데이터 교환과 접근권이 없으면 좋은 모델도 현장에 들어갈 자리가 없어요.

- FHIR 같은 표준이 언급된 이유도 여기에 있어요. 표준이 있으면 여러 회사가 같은 방식으로 데이터를 주고받고, 약국별로 매번 커스텀 연동을 하지 않아도 돼요. 국내 약국 환경에서 이런 표준과 개방성이 부족하니, AI 도입의 병목이 모델이 아니라 생태계 구조로 이동하는 거예요.

## 핵심 포인트

- AI는 처방 입력, 재고 관리, 조제 자동화 같은 반복 업무를 줄일 수 있지만 환자 맞춤 판단은 대체하기 어려움
- 약학정보원은 PM+20에 AI 기반 처방 점검 기능 도입을 추진 중
- 다제약물 검토 AI 솔루션 파이는 서울대 약학대학 공동 연구에서 약물 검토 정확도 93%를 확보했다고 소개됨
- AI 복약지도 오류가 발생해도 약사법상 최종 책임은 약사에게 돌아갈 가능성이 큼
- 약국 시스템은 API와 데이터 내보내기 기능이 부족해 AI 서비스 연동이 구조적으로 어렵다는 지적이 나옴

## 인사이트

이 기사는 의료 AI의 흔한 구호인 ‘AI가 사람을 대체한다’보다 훨씬 현실적인 얘기를 한다. 실제 병목은 모델 성능 하나가 아니라 데이터 접근권, 폐쇄형 업무 시스템, 법적 책임, 검증 절차라는 점에서 개발자도 읽을 만하다.
