의사와 챗GPT에 내과 환자가 질문하면 어디가 더 정확할까?

미국 연구팀 "의료전문가, 챗GPT?답변 선호"

정기홍 기자 승인 2023.04.29 20:13 | 최종 수정 2023.04.29 20:14 의견 0

생성형 인공지능(AI)인 챗GPT가 내과 환자의 물음에 대한 답변에서 품질과 공감도 모두 의사를 뛰어넘었다는 연구 결과가 나왔다.

미국 샌디에이고 캘리포니아대(UCSD) 퀄컴연구소 존 W. 에이어스 교수팀은 29일 의사와 챗GPT에게 같은 내과 분야 질문을 했더니 답변의 질과 공감도 모두 챗GPT가 훨씬 우수했다고 밝혔다. 의료전문가들이 답변을 평가했다. 연구 결과는 미국의학협회(JAMA) 학술지 'JAMA 내과학'(JAMA Internal Medicine)에 실렸다.

미국 오픈AI가 개발한 대롸형 인공지능(AI) 챗GPT의 개념도. 트위터 캡처

연구팀은 미국 온라인 커뮤니티 레딧의 의료 관련 질문 및 검증된 의료 전문가의 답변에서 내과 환자 질문과 의사의 답변 195개를 무작위로 선택한 뒤 챗GPT과 의사에게 제공하고 평가를 했다.

의료전문가의 평가에 따르면 챗GPT 답변은 78.5%가 '좋음' 또는 '매우 좋음' 평가를 받았으나 의사 답변은 22.1%만 '좋음'과 '매우 좋음'으로 조사됐다.

또 답변에 대한 공감 정도 평가에서는 챗GPT 응답의 45.1%가 '공감한다' 또는 '매우 공감한다'는 평가됐지만 의사의 답변은 4.6%만이 '공감' 또는 '매우 공감'으로 판정됐다.

의료전문가들은 전체 답변의 79%에서 챗GPT 응답이 의사 단변보다 선호하는 것으로 나타났다. 품질도 챗GPT 응답이 훨씬 높았다.

응답의 품질에 대해 챗GPT 답변은 78.5%가 '좋음' 또는 '매우 좋음' 평가를 받았으나 의사 답변은 22.1%만 '좋음'과 '매우 좋음'으로 평가됐다.

챗GPT 응답의 45.1%가 '공감한다' 또는 '매우 공감한다'는 평가를 받았지만 의사의 답변은 4.6%만이 '공감' 또는 '매우 공감' 판정을 받았다.

논문 공동저자인 애덤 폴리악 교수는 "챗GPT와 의사를 비교했지만 해법은 의사를 쫓아내는 것이 아니고 의사가 챗GPT를 활용하는 것이 더 나은 치료를 위한 해답이 될 것"이라고 말했다.

에이어스 교수는 "AI가 의사를 대체하지는 못하겠지만 챗GPT과 같은 기술과 협력하면 AI를 통해 의료 서비스를 개선할 기회는 엄청나고 AI 증강 치료가 의학의 미래가 될 것"이라고 강조했다.

저작권자 ⓒ 사이렌스. 무단 전재 및 재배포 금지