AI od Google nauczył się diagnozować pacjentów


Według pacjentów i lekarzy, model AI od Google zapewnia większą dokładność diagnostyczną i lepszą wydajność
Według pacjentów i lekarzy, model AI od Google zapewnia większą dokładność diagnostyczną i lepszą wydajność

Nowy model AI stworzony przez badaczy z Google DeepMind precyzyjnie diagnozuje pacjentów i jest lepiej oceniany pod względem empatii udzielanych odpowiedzi od lekarzy.

Medyczna sztuczna inteligencja

Pacjenci czują się zagubieni w skomplikowanym systemie ochrony zdrowia, często nie rozumieją diagnoz, są zdezorientowani opiniami znalezionymi w Internecie. Lekarze z kolei nie mają czasu, aby odpowiadać na szczegółowe pytania dotyczące profilaktyki albo choroby. W likwidacji tej luki pomiędzy potrzebami pacjentów a zasobami lekarzy ma pomóc sztuczna inteligencja. Przykładowo, nowy model stworzony przez inżynierów z Google DeepMind.

Chodzi o AMIE (Articulate Medical Intelligence Explorer) – model analizujący dane przekazane przez pacjentów, a następnie stawiający diagnozy i tłumaczący zagadnienia związanie z chorobą prostym językiem. W styczniu zespół DeepMind opublikował obiecujące wyniki badania nad wydajnością modelu, który potencjalnie może być stosowany jako narzędzie do drugiej opinii lekarskiej.

AMIE wytrenowano zasilając model tekstami medycznymi, w tym transkrypcjami prawie 100 000 dialogów między lekarzem a pacjentem, 65 opracowanymi przez klinicystów streszczeniami notatek medycznych z oddziału intensywnej terapii oraz tysiącami pytań i odpowiedzi zaczerpniętych z amerykańskiego egzaminu licencyjnego. Jak przyznają autorzy nowego systemu AI, nawet tak szeroka baza była za mała, aby zapewnić dużą dokładność AMIE. Aby wypełnić luki wiedzy, zespół wykorzystał symulowane środowisko diagnostyczne, które pozwoliło AMIE uczyć się na własnych błędach.

AI dokładniejsza i bardziej empatyczna, ale…

Aby sprawdzić wydajność AMIE, badacze z DeepMind porównali odpowiedzi modelu z 20 lekarzami w ślepym i losowo kontrolowanym badaniu. W testach wykorzystano prawdziwe przypadki medyczne pacjentów z Kanady, Indii i Wielkiej Brytanii. Oceniono łącznie 149 różnych konsultacji prowadzonych za pośrednictwem wiadomości tekstowych na żywo. Pomiary objęły m.in. postrzeganą empatię, otwartość i szczerość i dokładność diagnostyczną. Zarówno pacjenci, jak i lekarze stwierdzili, że AMIE zapewnia „większą dokładność diagnostyczną i lepszą wydajność” w porównaniu z odpowiedziami lekarzy-ludzi.

To nie znaczy jednak, że AI jest lepsza od lekarza. Odpowiedzi były pisemne, podczas gdy konsultacje pacjenta z lekarzem odbywają się najczęściej twarzą w twarz. Do tego AMIE ma tendencję do pisania długich odpowiedzi – wyczerpujących, ale czasami aż za bardzo. Kolejnym krokiem będzie zasilenie modelu danymi multimodalnymi, np. czatami wideo.

Jak podkreślają naukowcy, AI nie jest w stanie zastąpić doświadczenia pacjenta podczas rozmowy z prawdziwym lekarzem, ale może poszerzyć opcje opieki. Do tego może pomóc w diagnozie rzadkich chorób: statystyczny lekarz w swojej karierze konsultuje kilkadziesiąt tysięcy pacjentów. AMIE może „obsłużyć” tylu pacjentów w ciągu zaledwie kilka cykli szkoleniowych. W ciągu najbliższej dekady AI stanie się tak standardowym narzędziem pracy lekarza – twierdzą badacze.