대화형 챗봇 ‘챗GPT’가 내놓는 의료 상담의 만족도가 의사를 능가한다는 분석이 나왔다. 품질과 공감도 면에서 의사보다 낫다는 것이다.
3일 UC샌디에고(UCSD) 대학에 따르면 퀄컴연구소 존 에이어스 교수팀은 동일한 내과 분야 질문에 대한 의사와 챗GPT의 답변을 평가하는 실험에서 답변의 질과 공감도 모두 챗GPT가 훨씬 우수하다고 평가했다.
미국의학협회 학술지(JAMA) ‘JAMA 내과학’에 발표한 결과를 보면, 연구팀은 온라인 커뮤니티 ‘레딧’의 ‘에스크닥스’ 게시판에 올라온 질문 가운데 195개를 무작위로 선정했다. 에스크닥스는 약 45만2000명의 회원이 의학 질문을 게시하면 의사 면허를 가진 전문가들이 답변해주는 공간이다.
연구팀은 무작위 선정한 질문에 대한 챗GPT 답변을 3명의 전문가에게 제공한 뒤 비교 평가하게 했다. 이어 평가를 맡은 전문가 패널이 답변 출처가 의사인지 챗GPT인지 알 수 없도록 블라인드 처리했고 답변의 품질과 공감도를 평가하도록 했다.
<챗GPT 홈페이지 캡처>
그 결과 전체 전문가 평가 중 79%가 챗GPT의 응답이 의사보다 낫다고 답했다. 응답의 품질에 대해 챗GPT 답변은 78.5%가 ‘좋음’ 또는 ‘매우 좋음’ 평가를 받았으나 의사 답변은 22.1%만 ‘좋음’과 ‘매우 좋음’으로 평가됐다.
정보의 질도 챗GPT가 ‘우수’하거나 ‘매우 우수’하다는 응답이 의사보다 3.6배 높았고 공감도도 챗GPT가 의사보다 9.8배 높았다. 답변에 대한 의료 전문가들의 공감 정도 평가에서는 챗GPT 응답의 45.1%가 ‘공감한다’ 또는 ‘매우 공감한다’는 평가를 받았고, 의사의 답변은 4.6%만이 ‘공감’ 또는 ‘매우 공감’ 판정을 받았다.
연구팀은 챗GPT가 환자들이 의사에게 하는 질문에 정확하게 답할 수 있는지, 답할 수 있다면 AI를 의료시스템에 통합해 환자 질문에 대한 의사 답변을 개선하고 의사 업무 부담을 줄여줄 수 있을지 모색하는 게 연구의 목적이라고 밝혔다.
이어 의사가 환자 중심 진료를 위한 맞춤형 의료 조언을 AI에게 받을 수 있고, AI가 직접 환자와 소통하는 역할도 수행할 수 있을 것으로 전망했다. 특히 코로나를 겪으며 비대면 진료가 늘어나고 있는 만큼 AI가 의사의 부담을 크게 낮출 수 있을 것으로 기대했다.
논문 공동 저자인 애덤 폴리악 교수는 “이 연구는 챗GPT와 의사를 비교했지만, 의사를 완전히 쫓아내는 것이 궁극적인 해법은 아니다”라며 “대신 의사가 챗GPT를 활용하는 것이 더 나은 공감 치료를 위한 해답이 될 것”이라고 지적했다.
<박현종 객원기자>