Wdrażasz AI w medycynie? Przemyśl dobrze te 4 kwestie


Systemy zdrowia nie nadążają za postępem AI. Efekt: potrafimy przewidzieć choroby, których nie potrafimy leczyć
Systemy zdrowia nie nadążają za postępem AI. Efekt: potrafimy przewidzieć choroby, których nie potrafimy leczyć

Rok 2024 pobił kolejny rekord pod względem publikacji naukowych na temat AI w medycynie. W PubMed – angielskojęzycznej internetowej baza danych artykułów z dziedziny medycyny i nauk biologicznych – ukazało się ich 50 973 w stosunku do 38 748 w 2023 roku. Aż 1185 z nich dotyczyło zagadnień etycznych – to o 100% więcej niż rok wcześniej. Co budzi największe wątpliwości?

Dylemat nr 1: Postępy w diagnostyce są szybsze niż w leczeniu

Nowoczesne systemy diagnostyczne znacznie poprawiły standardy wykrywania chorób, ale to dzięki AI symptomy choroby coraz częściej wykrywane są zanim pacjent zacznie odczuwać objawy fizyczne. W efekcie medycyna skuteczniej leczy choroby, w przypadku których wczesne rozpoznanie odgrywa kluczowe znaczenie, np. w nowotworach. Systemy AI są w stanie wykryć niewidoczne gołym okiem, mierzące kilka pikseli guzki albo znamiona. A to ogromna zmiana w medycynie. Przykładowo, rozpoczęcie leczenia czerniaka w stadium 1A, czyli o wielkości zmiany mniejszej niż 1 mm, daje 99-proc. szanse na przeżycie w kolejnych 5 latach. W przypadku stadium 3D, gdzie zmiana ma ponad 4 mm i głęboko nacieka, spadają one do 36%.

Podobnie jest w przypadku innych rodzajów nowotworów i innych niezakaźnych chorób jak np. choroby układu krążenia czy cukrzyca. AI jest rutynowo stosowane w radiologii; pojawiają się nowe algorytmy pozwalające na przewidywanie chorób na podstawie danych z elektronicznej dokumentacji medycznej. W ośrodkach badawczych na całym świecie powstają systemy AI diagnozujące na podstawie głosu i innych dotąd mało wykorzystywanych biomarkerów. Przykładowo, na liście algorytmów certyfikowanych przez Amerykańską Agencję ds. Żywności i Leków (FDA) jest system do wczesnej diagnozy ADHD na podstawie zapisów zachowania dziecka w interakcji z grą komputerową.

Liczba badań na temat AI opublikowanych w bazie danych artykułów naukowych z dziedziny medycyny i nauk biologicznych (PubMed) w latach 2017–2024
Liczba badań na temat AI opublikowanych w bazie danych artykułów naukowych z dziedziny medycyny i nauk biologicznych (PubMed) w latach 2017–2024

Ostatnie badania sugerują, że systemy AI z dużą dokładnością są w stanie przewidzieć rozwój chorób degeneracyjnych mózgu jak choroby Alzheimera i Parkinsona. I to jedynie na podstawie zapisów ruchu i mowy człowieka. W tym przypadku wczesna diagnoza jest etycznie kontrowersyjna, bo na razie nie ma skutecznych leków. W efekcie, pacjent i rodzina żyją dłużej ze świadomością choroby i poczuciem bezsilności oraz strachu. Takich chorób jest więcej, np. idiopatyczne włóknienie płuc czy stwardnienie zanikowe boczne.

Dylemat nr 2: Fałszywie pozytywne wyniki generują niepotrzebne wizyty

Według niedawno opublikowanego badania naukowego, aż 67% osób, które korzystają z funkcji diagnozy migotania przedsionków w smartwatchach, otrzymało przynajmniej raz fałszywy alert. Także badanie Apple Heart wykazało, że tylko u 34% z 450 uczestników, którzy otrzymali alert o nieregularnym tętnie, zostało zdiagnozowane migotanie przedsionków na podstawie badania EKG. Diagnoza AFib z pomocą smartwatcha stała się możliwa dzięki zastosowaniu algorytmów korzystających z innych danych zbieranych przez zegarek, w tym m.in. zmian objętości przepływu krwi na podstawie intensywności światła odbitego od powierzchni skóry.

Dzięki algorytmom AI, smartwatche wykrywają migotanie przedsionków ratując życie. Ale mogą też wskazywać fałszywie pozytywny wyniki, generując niepotrzebne wizyty u lekarza i doprowadzając do niepokoju pacjentów (zdjęcie: Apple Watch)
Dzięki algorytmom AI, smartwatche wykrywają migotanie przedsionków ratując życie. Ale mogą też wskazywać fałszywie pozytywny wyniki, generując niepotrzebne wizyty u lekarza i doprowadzając do niepokoju pacjentów (zdjęcie: Apple Watch)

Badacze ostrzegają, że fałszywie pozytywne wskazania wywołują niepotrzebny niepokój u pacjentów, generują nieuzasadnione wizyty u lekarzy a także powodują niepewność u osób chorych przewlekle. Z drugiej strony, funkcja detekcji AFib ocaliła wielokrotnie życie wielu ludzi dzięki wczesnej diagnozie choroby i wdrożeniu leczenia. Tylko czy sytuacje, gdy pacjent zaniepokojony fałszywym wynikiem żyje w stresie aż do momentu podważenia wskazania smartwatcha poprzez wykonanie profesjonalnego badania można zaliczyć jako „koszt” ratowania życia? Z etycznego punktu widzenia nie ma jednej dobrej odpowiedzi na to pytanie.

Dylemat nr 3: Dostępna wiedza, ale brak procedur i środków

Weźmy za przykład system AI, który może skalkulować ryzyko wystąpienia sepsy na podstawie biomarkerów zbieranych z urządzeń diagnostycznych. Wdrożenie takiego rozwiązania ma sens tylko wówczas, kiedy szpital dysponuje zasobami pozwalającymi wykorzystać nową wiedzę i zamienić ją na adekwatne działania. Przykładowo, trzeba zaplanować procedury, jakie leczenie zapobiegawcze należy uruchomić w przypadku różnych poziomów ryzyka wystąpienia sepsy, wkalkulować ryzyko niepotrzebnego i intensywnego leczenia, zaprojektować nowe procedury pracy, a czasami nawet zatrudnić nowych pracowników.

To rodzi wiele pytań: Kto zapłaci za zapobiegawcze leczenie? Czy dysponując ograniczonymi zasobami kadrowymi można sobie pozwolić na większy nacisk na profilaktykę?

Szpitale wdrażające systemy AI muszą dobrze przemyśleć konsekwencje nowo pozyskanych informacji dla obecnych procedur pracy. Może się okazać, że placówka nie w stanie udźwignąć organizacyjnie zmian, które pociągają za sobą algorytmy AI.

Dylemat nr 4: Brak pieniędzy na terapie, które zawdzięczamy AI

Jeszcze większe wątpliwości etyczne pojawiają się w przypadku systemów AI obliczających ryzyko wystąpienia choroby na podstawie obciążeń genetycznych. Tutaj także ewentualne decyzje terapeutyczne balansują na granicy niepełnej wiedzy medycznej i możliwości, jakie stwarza wczesna diagnoza. Czy pacjent powinien wiedzieć o predyspozycji, co pozwoli mu np. diametralnie zmienić tryb życia albo podjąć bardziej drastyczne działania? Przykładem jest głośny przypadek Angeliny Jolie, która na podstawie wiedzy o mutacji genu BRCA1 zdecydowała się na profilaktyczną obustronną mastektomię. A co jeśli prognoza była błędna?

Nowa terapia genowa może uratować życie dzieci, ale kosztuje 4,25 miliona dolarów
Nowa terapia genowa może uratować życie dzieci, ale kosztuje 4,25 miliona dolarów

Rozwój AI w diagnostyce nieproporcjonalnie szybszy od ewolucji metod leczenia mnoży też sytuacje, gdy leczenie jest dostępne, ale jego koszt przerasta możliwości pacjenta. Dzieci chore na leukodystrofię metachromatyczną nie dożywają 10 roku życia. Ale nowa terapia genowa o nazwie Lenmeldy zastosowana u dzieci do 5 roku życia jest skuteczna w 100%. To jednak najdroższy na świecie lek kosztujący 4,25 miliona dolarów. Wraz z postępem systemów AI, takich dylematów będzie więcej, zwłaszcza w zakresie zapobiegania chorobom. Czy profilaktyka – czasami wywracająca do góry nogami normalne życie i obciążająca dla człowieka – jest uzasadniona, gdy algorytm obliczy ryzyko wystąpienia choroby? AI pozwala wcześnie diagnozować, ale system zdrowia musi dostosować się do spożytkowania tej nowej wiedzy.