ChatGPT jest 10-krotnie bardziej empatyczny niż lekarz


W badaniu jury oceniło jakość i empatyczność odpowiedzi na pytania pacjentów udzielone przez lekarza i ChatGPT. Oceniający zdecydowanie preferowali porady sztucznej inteligencji.
W badaniu jury oceniło jakość i empatyczność odpowiedzi na pytania pacjentów udzielone przez lekarza i ChatGPT. Oceniający zdecydowanie preferowali porady sztucznej inteligencji.

Badanie przeprowadzone na Uniwersytecie Kalifornijskim w San Diego wykazało, że odpowiedzi ChatGPT na pytania pacjentów były wyższej jakości i bardziej empatyczne od tych udzielonych przez lekarza. Paradoksalnie, powinni się tego cieszyć pracownicy ochrony zdrowia jak i pacjenci.

Na czym polegało badanie?

Dużo spekuluje się na temat wykorzystania modeli językowych jak ChatGPT w medycynie. Nowa praca naukowa opublikowana w czasopiśmie naukowym JAMA Internal Medicine tylko dolewa oliwy do ognia już i tak gorących dyskusji.

W badaniu „Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum” (Porównanie odpowiedzi lekarza i chatbota sztucznej inteligencji na pytania pacjentów umieszczone na publicznym forum w mediach społecznościowych) zestawiono ze sobą pisemne odpowiedzi lekarzy i ChatGPT na pytania dotyczące zdrowia stawiane przez pacjentów na portalu Reddit’s AskDocs. To społeczność, gdzie każdy może zadać na czacie pytanie dotyczące np. objawów, na które odpowiadają pracownicy służby zdrowia.

W badaniu losowo wybrano 195 pytań, na które odpowiedzi udzielili lekarze. Następnie zadano je powtórnie ChatGPT, a obydwie wersje – człowieka i AI – poddano ocenie jury złożonego z licencjonowanych pracowników ochrony zdrowia. Oceny wystawiono w trzech kategoriach: jakość informacji, poziom empatii oraz ogólna ocena, która z odpowiedzi jest lepsza.

Pierwsze zaskoczenie: oceniający woleli odpowiedzi ChatGPT od odpowiedzi lekarza w 79% przypadków. Były one bardziej precyzyjne, konkretne, bogate w szczegóły, ale jednocześnie dużo krótsze od tych pisanych przez człowieka.

Odpowiedzi ChatGPT były też oceniane znacznie wyżej pod względem jakości: dobra lub bardzo dobra jakość odpowiedzi była 3,6 razy wyższa w przypadku ChatGPT niż lekarzy (lekarze 22,1% vs ChatGPT 78,5%). Odpowiedzi były również bardziej empatyczne: empatyczne lub bardzo empatyczne odpowiedzi były 9,8 częstsze dla ChatGPT niż dla lekarzy (lekarze 4,6% versus ChatGPT 45,1%).

Lekarze zaskoczeni wynikami

Choć wcześniej dużej modele językowe już zdawały medyczny egzamin licencyjny odpowiadając poprawnie na ponad 80% pytań, umiejętności konsultowania pacjentów w warunkach rzeczywistych to zupełnie inny kaliber. Mamy bowiem do czynienia z realnymi pytaniami pacjentów, a nie standaryzowanymi zadaniami egzeminacyjnymi.

– Nigdy nie sądziłem, że to powiem, ale ChatGPT jest narzędziem, w które chciałbym wyposażyć moją skrzynkę mailową. Ta technologia zmieni sposób, w jaki opiekuję się moimi pacjentami – powiedział Aaron Goodman, profesor nadzwyczajny w UC San Diego School of Medicine i współautor badania. Chociaż AI nie zastąpi lekarza, lekarze współpracujący z technologiami takimi jak ChatGPT mogą zrewolucjonizować medycynę.

Jest to jedno z pierwszych badań pokazujących, że asystenci AI mogą potencjalnie rozwiązać problemy związane z niedoborem kadr medycznych, poprawiając wydajność pracy i automatyzując niektóre procesy opieki.

Dlaczego to dobra wiadomość dla lekarzy?

AI nie zastąpi lekarzy; nowe badanie nie daje powodów, by myśleć inaczej. Ale pokazuje, że AI prawie na pewno pomoże im w pracy.

Pacjenci domagają się empatii, ale ta cecha jest często pomijana w relacjach pacjent-lekarz. Z prostego powodu: zabiegani lekarze nie mogą sobie pozwolić na priorytetowe traktowanie „dobrych manier”, bo muszą stawiać na pierwszym miejscu wyniki leczenia i bezpieczeństwo pacjenta.

Badanie ma też jeden haczyk. ChatGPT nie doświadcza ani stresu, ani nie mierzy się z wyzwanami emocjonalnymi i problemami pacjentów, z którymi na co dzień ma do czynienia lekarz-człowiek. Odpowiedzi na pytania chorych to tylko wierzchołek góry obowiązków lekarzy.

Ale AI może okazać się bardzo pomocna wraz z szybkim przenoszeniem się opieki do kanałów internetowych. Pisanie odpowiedzi na pytania pacjentów jest dla człowieka czasochłonne i frustrujące. Ale skoro AI może to zrobić równie dobrze, lekarz mógły w tym czasie zająć się opieką nad pacjentami osobiście przychodzącymi z poważnymi problemami do gabinetu lekarskiego.

Kiedy AI stanie się takim samym pomocniekiem jak kiedyś stetoskop, skorzystają na tym lekarz i pacjent. Pacjent uzyska odpowiedzi dopasowane do jego osobistych cech (w tym języka, którym się posługuje, oczekiwanego poziomu szczegółowości itd.), a lekarz – zaufanego asystenta wspomagającego podejmowanie decyzji i komunikację z chorym.

Mark Dredze, Profesor nauk komputerowych w Johns Hopkins i współautor badania, dodaje także, że można by dodatkowo wykorzystać technologię do szkolenia lekarzy w zakresie komunikacji z pacjentem. Oczywiście kluczowe jest również to, aby AI była nie tylko miła, ale i niezawodna.

Barierą do zastosowania ChatGPT i podobnych narzędzi może być kwestia odpowiedzialności. Nawet jeśli lekarze mieliby tylko weryfikować dokładność odpowiedzi ChatGPT, to i tak ponoszą odpowiedzialność za ostateczną diagnozę lub zalecenia przekazane pacjentowi. Dopóki ChatGPT nie będzie urządzeniem medycznym, jego zastosowanie do automatyzacji opieki może być ograniczone.

Czytaj także: 14 trendów i technologii, które zmieniają medycynę