Badanie: Czy ChatGPT może pisać zalecenia dla pacjentów?


Zalecenia dla chorych może generować ChatGPT, ale musi je zweryfikować lekarz
Zalecenia dla chorych może generować ChatGPT, ale musi je zweryfikować lekarz

Naukowcy sprawdzili, czy ChatGPT potrafi generować w wiarygodny i zrozumiały sposób listy kliniczne. Wyniki badania opublikowane w marcu br. w prestiżowym czasopiśmie The Lancet Digital Health zaskoczyły samych lekarzy.

O co chodzi?

Odpowiednie przekazywanie informacji klinicznych pomiędzy lekarzami i innymi specjalistami oraz pacjentami ma ogromne znaczenie w koordynacji leczenia, wpływając na stosowanie się pacjenta do zaleceń i powodzenie terapii. Jednym z elementów jest podsumowanie najważniejszych danych i wskazówek w formie tzw. listu klinicznego (ang.: clinical letter) tworzonego, gdy leczenie pacjenta jest kontynuowane w warunkach domowych albo przez lekarza pierwszego kontaktu.

Jednak przygotowanie listy zaleceń w formie pisemnej jest czasochłonne. Lekarze albo nie mają na to czasu, albo wpisują informacje ręcznie do gotowych wzorców. Jednocześnie nowe modele językowe, jak ChatGPT, potrafią generować teksty na zadany temat o jakości zbliżonej do tekstów pisanych przez człowieka. Czy ChatGPT może pomóc lekarzom w tworzeniu zrozumiałych zaleceń pisemnych dla poszczególnych chorób, poprawiając wydajność, spójność i dokładność wytycznych, zwiększając satysfakcję pacjentów i generując oszczędności dla systemu opieki zdrowotnej?

Na czym polegało badanie?

W nowym badaniu Using ChatGPT to write patient clinic letters opublikowanym w czasopiśmie The Lancet Digital Health, naukowcy przeprowadzili ocenę listów klinicznych (angielskie określenie patient clinical letters) generowanych przez ChatGPT w przypadku raka skóry. W tym celu stworzyli oni skrócone instrukcje tworzenia zapytań do chatbota. Zawierały one wskazówki dotyczące poziomu trudności języka (zrozumiałość dla osób w wieku 11–12 lat) oraz zawartości informacji. Treści zaleceń dla pacjenta miały obejmować praktyczne wskazówki oparte na krajowych wytycznych klinicznych.

Po przesłaniu instrukcji, ChatGPT wygenerował odpowiedź w postaci listu klinicznego gotowego do przekazania pacjentowi. Następnie przeprowadzono ocenę czytelności rekomendacji, ich poprawności faktograficznej i naturalnego brzmienie sięgając do skali Likerta.

Rezultaty

Czytelność wygenerowanych listów była na poziomie osób w wieku 14–15 lat i została uznana przez US Department of Health and Human Services za średnio trudną. Ogólna mediana poprawności informacji klinicznych zawartych w liście wynosiła 7 (w skali od 1 do 9). Zarówno styl jak i poprawność wskazówek zostały także ocenione bardzo wysoko. Pilotaż pokazuje, że możliwe jest generowanie listów klinicznych o wysokiej jakości za pomocą ChatGPT.

Naukowcy zwrócili uwagę, że wszystkie teksty były napisane stylem zasadniczo podobnym do listów generowanych przez lekarzy-ludzi. Podkreślają jednak, że ze względu na bezpieczeństwo pacjenta, dokumenty tworzone przez AI powinny być zawsze dodatkowo weryfikowane przez lekarza.

Zaletą AI jest możliwość indywidualizacji generowanych dokumentów dla pacjenta. ChatGPT może dopasować styl do kontekstu kulturowego oraz tworzyć teksty w różnych językach dopasowane nawet do wieku. Wadą, że możliwość halucynacji i tworzenia błędnych informacji.

Czytaj także: ChatGPT zachwyca kreatywnością i przeraża, gdy kłamie prosto w oczy