---
title: "구글 딥마인드, 의사 옆에서 같이 진료하는 ‘AI 공동 의사’ 실험 공개"
published: 2026-05-02T05:05:01.903Z
canonical: https://jeff.news/article/2047
---
# 구글 딥마인드, 의사 옆에서 같이 진료하는 ‘AI 공동 의사’ 실험 공개

구글 딥마인드가 의사의 감독 아래 환자와 직접 상호작용하는 ‘AI 공동 의사’ 연구 프로젝트를 공개했다. 모의 진료에서는 98개 표준 임상 시나리오 중 97건에서 중대한 오류 없는 답변을 냈지만, 응급 신호 식별과 신체검사 유도에서는 여전히 인간 의사가 더 나은 성과를 보였다.

- 구글 딥마인드가 ‘AI 공동 의사(AI co-clinician)’ 연구 프로젝트를 공개했음
  - 목표는 AI를 단순 보조 도구가 아니라, 의사와 협력하는 진료팀의 한 구성원처럼 쓰는 것
  - 연구진은 이를 의사, 환자, AI가 협력하는 ‘삼자 상호작용(triadic care)’ 모델로 정의함
  - 다만 AI는 의사의 감독 아래 움직이는 구조이며, 독립적으로 의사를 대체하는 모델은 아님

- 이 연구가 나온 배경은 의료 시스템의 인력 부족과 비용 증가임
  - 세계보건기구는 2030년까지 전 세계에서 1000만 명 이상의 의료 인력이 부족할 것으로 전망함
  - 구글 딥마인드는 이전에도 의학 지식 평가 모델 ‘메드팜(MedPaLM)’과 텍스트 기반 의료 상담 AI ‘에이미(AMIE)’를 공개한 바 있음
  - 이번 프로젝트는 그 흐름을 실제 진료 협업 모델로 확장하려는 시도임

> [!IMPORTANT]
> 모의 진료 98개 표준 임상 시나리오 중 97건에서 중대한 오류 없는 답변을 냈다는 건 꽤 강한 숫자임. 그래도 실제 의료 현장 도입을 의미하는 숫자는 아님.

- 시뮬레이션 결과만 보면 꽤 인상적임
  - 환자 역할을 맡은 내과 레지던트들과의 모의 진료에서 기존 증거 기반 도구보다 높은 선호도를 기록함
  - 전문 배우와 의료진이 참여한 98개 표준화 임상 시나리오를 분석한 결과, 97건에서 중대한 오류 없는 답변을 제공함
  - 통제된 실험 환경에서는 신뢰성과 정확성이 꽤 높게 나온 셈임

- 환자와의 상호작용에서도 가능성을 보였음
  - 연구진은 음성과 영상 기반 실시간 AI 시스템으로 원격 진료 상황을 시뮬레이션함
  - AI가 환자의 흡입기 사용법을 교정하거나, 어깨 부상 진단을 위해 움직임을 안내하는 식의 물리적 검사 보조 역할까지 수행함
  - 텍스트 상담을 넘어 멀티모달 진료 보조로 가는 방향이 보임

- 하지만 인간 의사를 넘었다고 보긴 어렵고, 기사도 그 한계를 분명히 짚음
  - 총 140개 평가 항목에서 의사들이 전반적으로 더 높은 성과를 보였음
  - 특히 응급 신호, 즉 레드 플래그 식별과 중요한 신체검사 유도에서는 인간 의사가 우위였음
  - 의료에서 이 두 영역은 놓치면 바로 큰 사고로 이어질 수 있는 부분이라 무게가 큼

- 딥마인드도 책임 소재는 인간에게 있다고 선을 긋고 있음
  - AI는 임상의를 위한 ‘전력 증강 인자’ 역할이라는 표현을 사용함
  - 행정 부담을 줄이고, 의료진이 환자 진료에 더 집중하도록 돕는 쪽에 초점을 둠
  - 의료법과 윤리적 책임의 본질적 주체는 여전히 인간이라는 점도 강조함

- 안전 설계로는 ‘플래너(Planner)’와 ‘토커(Talker)’ 이중 구조가 언급됨
  - 플래너는 진료 흐름과 안전 기준을 점검하는 역할에 가깝고, 토커는 환자와 실제 대화를 수행하는 역할로 볼 수 있음
  - 답변은 임상 근거 기반 데이터를 중심으로 생성되며, 정보 검증과 출처 확인 과정도 포함되도록 설계됨
  - 현재는 미국, 인도, 호주, 싱가포르 의료기관 및 연구진과 협력해 실험을 단계적으로 넓히는 중임

---

## 기술 맥락

- 이번 연구의 선택은 의료 AI를 “대체자”가 아니라 “공동 진료자”로 두는 거예요. 의료 현장에서는 완전 자동화보다 감독 가능한 협업 구조가 훨씬 현실적이거든요.

- Triadic Care가 중요한 이유는 환자와 AI가 직접 대화하되, 의사가 그 흐름을 감독한다는 점이에요. AI가 흡입기 사용법을 교정하거나 움직임을 안내할 수 있어도, 최종 판단과 책임은 의료진 쪽에 남겨두는 구조예요.

- Planner-Talker 구조는 의료 안전성 때문에 나온 설계로 볼 수 있어요. 일반 챗봇처럼 바로 답을 생성하면 놓치는 부분이 생길 수 있으니, 계획을 세우는 부분과 말하는 부분을 나눠 대화 중에도 안전 기준을 확인하려는 거예요.

- 98개 시나리오 중 97건에서 중대한 오류가 없었다는 결과는 유의미하지만, 통제된 시뮬레이션이라는 제한이 있어요. 실제 진료는 환자 상태, 말투, 검사 환경, 의료 기록 품질이 다 흔들리기 때문에 성능 검증 난도가 훨씬 올라가요.

- 개발자 입장에서는 이 사례가 고위험 도메인 AI 제품의 전형적인 패턴을 보여줘요. 모델 성능만 보는 게 아니라, 감독 구조, 근거 확인, 책임 경계, 실패 시 대응까지 같이 설계해야 실제 서비스로 갈 수 있어요.

## 핵심 포인트

- 구글 딥마인드는 의사·환자·AI가 함께 움직이는 삼자 상호작용 진료 모델을 제안함
- 전 세계 의료 인력은 2030년까지 1000만 명 이상 부족할 것으로 전망됨
- 98개 표준화 임상 시나리오 중 97건에서 중대한 오류 없는 답변을 제공함
- 총 140개 평가 항목에서는 인간 의사가 전반적으로 더 높은 성과를 보였고, 특히 레드 플래그 식별에서 우위가 확인됨

## 인사이트

의료 AI의 방향이 ‘의사 대체’가 아니라 ‘진료팀 안의 협업자’로 정리되는 흐름이 보임. 다만 의료는 틀리면 바로 사람 몸에 영향이 가는 영역이라, 시뮬레이션 성과와 실제 도입 사이에는 엄청 큰 간극이 있음.
