4,5 mld ludzi bez opieki medycznej. Czy AI to zmieni?


Debata na temat AI w ochronie zdrowia zorganizowana przez Szwajcarski Hub Innowacji DayOne.
Debata na temat AI w ochronie zdrowia zorganizowana przez Szwajcarski Hub Innowacji DayOne.

Pomimo dowodów na skuteczność generatywnej sztucznej inteligencji, jej wdrożenie w opiece zdrowotnej napotyka na sceptycyzm i przeszkody regulacyjne. Czy istnieje kompromis pomiędzy ogromnym potencjałem AI a ryzykiem halucynacji?

Relacja z dyskusji zorganizowanej przez szwajcarski hub innowacji DayOne „Generative AI in Healthcare: Hype or Hope?”.

Lepszy doktor ChatGPT czy brak diagnozy?

W opiece zdrowotnej generatywna sztuczna inteligencja (gen AI) ma zdemokratyzować dostęp do usług medycznych, wyręczyć personel w rutynowych zadaniach administracyjnych oraz pomóc pacjentom w poruszaniu się po złożonej wiedzy związanej ze zdrowiem i profilaktyką.

W perspektywie globalnej problem jest spory: ok. 400 mln ludzi nie ma dostępu nawet do podstawowej pomocy medycznej, 4,5 mld do opieki w ramach ubezpieczenia zdrowotnego. Tylko niewielki procent ludzi na ludzi na świecie może liczyć na nowoczesną, opartą na aktualnej wiedzy naukowej diagnozę i leczenie. Wynika to z nierówności ekonomicznych oraz zróżnicowanego rozmieszczenia infrastruktury ochrony zdrowia.

– Jedną z najważniejszych transformacji napędzaną sztuczną inteligencją będzie demokratyzacja dostępu do wiedzy medycznej dla miliardów ludzi na całym świecie – twierdzi Jas Dhalliwal, Global Principal Cloud Architect w Google. Przykładem jest szukanie diagnozy z pomocą ChatGPT albo chatboty doradzające w zakresie zdrowego stylu życia.

Choć na razie takie narzędzia są stosowane stosunkowo rzadko, ich popularyzacja jest niemal pewna – analogicznie do upowszechnienia się Google, który w początkach internetu był stosowany przez garstkę entuzjastów. Skoro ChatGPT zdaje egzaminy medyczne, już teraz posiada wiedzę, z której mogą skorzystać ludzie na całym świecie (bazowa wersja systemu, podobnie jak wyszukiwarka Google, jest darmowa).

Czy sztuczna inteligencja uratuje EHR?

Jednym z najbardziej wyczekiwanych zastosowań sztucznej inteligencji jest ułatwienie korzystania z elektronicznej dokumentacji medycznej. – Obecne systemy EDM wymagają długiego pisania, klikania i przechodzenia pomiędzy okienkami systemu. Praca z komputerem pochłania prawie połowę czasu na wizytę pacjenta. Wyobraź sobie teraz, że ten cały proces znika – to byłby przełom w historii opieki zdrowotnej i cyfryzacji – twierdzi Blaise Jacholkowski, Senior Business Solution Manager Digital Health w Zühlke, moderator dyskusji.

Sztuczna inteligencja może w końcu zrobić użytek z masy danych, które są gromadzone w EDM, ale do których rzadko się wraca. Przykładowo, do prognozowania stanu zdrowia i planowania profilaktyki. Generatywna AI łączy ze sobą dane z różnych źródeł, nawet jeśli nie są kompatybilne. Na przykład, AI może porównać dane z EDM z nowymi wynikami badań naukowych i zasugerować najbardziej odpowiedni dla pacjenta lek.

Podobnie jak AI pomaga radiologom w analizowaniu tysięcy obrazów, innym lekarzom pozwoli zmniejszyć liczbę błędów związanych z brakiem czasu na manualne przeglądanie całej historii leczenia i każdego detalu. Generatywna sztuczna inteligencja potrafi też oczyścić dane przechowywane w EDM z błędów i literówek, a nawet zamienić nieustrukturyzowane dane w obowiązujące formaty, jak FHIR. Takie porządkowanie danych ułatwia z kolei ich zastosowanie do analiz Big Data.

Zanim się to stanie, jest kilka problemów do pokonania. Nowe modele AI muszą zostać dokładnie zweryfikowane, aby upewnić się, że ich odpowiedzi są wiarygodne. Wystarczy jedna fałszywa informacja lub halucynacja, a lekarz może stracić zaufanie do systemu, lub co gorsza – może podjąć błędną decyzję zagrażającą zdrowiu pacjenta. Ze względu na specyfikę generatywnej AI jest mało prawdopodobne, że w najbliższym czasie modele tego typu będą ceryfikowane podobnie jak urządzenia medyczne. Z drugiej strony, zastosowanie każdego urządzenia stosowanego w medycynie wiąże się z ryzykiem, nawet tego certyfikowanego.

Rozwiązaniem mogą być też duże modele językowe profilowane w zależności od zadania i trenowane na danych medycznych. Według Dhalliwala, w najbliższych sześciu miesiącach niemal codziennie będzie powstał nowy duży model językowy.

Sztuczna inteligencja może inteligentnie kłamać

Lisa Falco, ekspertka Femtech podkreśla jeszcze jedno niebezpieczeństwo związane ze sztuczną inteligencją: Bias in – Bias out (stronniczość na wejściu – stronniczość na wyjściu). Wiadomo, że sztuczna inteligencja ma halucynacje i czasami udziela nieprawidłowych odpowiedzi. Problem wynika często z niereprezentatywnych danych. – Sztuczna inteligencja, podejmując decyzje powinna od razu ostrzegać o potencjalnych ograniczeniach wynikających np. z niepełnych danych – sugeruje Falco. Mając do dyspozycji takie transparentne dane, lekarz – kierując się swoim doświadczeniem – mógłby zdecydować, czy sugestia AI jest pomocna, czy nie.

Dhalliwal twierdzi, że AI trzeba postrzegać jako kolejne narzędzie wspomagające, a nie jako coś lepszego od lekarzy. Jego zdaniem, powszechnie panujący sceptycyzm jest normalny – jest to na tyle nowa technologia, że potrzebuje czasu, aby zdobyć zaufanie.

Nadal daleko od urządzeń medycznych z wbudowaną generatywną AI

Czy kiedykolwiek zbudujemy systemy generatywnej AI klasy medycznej spełniające rygorystyczne kryteria dla urządzeń medycznych?

– To wykonalne, jeśli stworzymy tzw. wytłumaczalne modele sztucznej inteligencji, czyli takie, których sposób wnioskowania da się śledzić i wyjaśnić. Drugim warunkiem jest trendowanie modeli AI na dobrej jakości danych i zaprojektowanie nowych procedur pracy łączych ekspertyzę AI z wiedzą człowieka – mówi Falco. Dhalliwal twierdzi z kolei, że najważniejsza jest skuteczność potwierdzona badaniami klinicznymi, a nie sama certyfikacja. Przykładem jest narzędzie do diagnozowania retinopatii cukrzycowej za pomocą smartfona, opracowane przez Google. Smartfon nie jest urządzeniem klasy medycznej, ale sprawdza się w stawianiu wstępnej diagnozy.

Organy regulacyjne będą miały trudny orzech do zgryzienia. Warto wspomnieć, że pośród kilkuset certyfikowanych w USA urządzeń medycznych wykorzystujących algorytmy AI i uczenia maszynowego, na razie nie ma ani jednego opartego na generatywnej AI.

Dokładność każdego narzędzia stosowanego w opiece zdrowotnej, w tym AI, jest priorytetowa, ponieważ mają one wpływ na zdrowie i życie pacjentów. Dlatego rygorystyczne podejście jest konieczne. Z drugiej strony, klasyczne procedury certyfikacji urządzeń medycznych nie sprawdzą się w stosunku do AI: działanie wielu modeli trudno wyjaśnić bo opierają się na miliardach reguł, do tego systemy AI cały czas się uczą i rozwijają. Skoro korzyści płynące z zastosowania sztucznej inteligencji w medycynie są większe niż suma zagrożeń, to czekanie z wdrażaniem AI do medycyny do momentu, gdy będzi ona 100% bezpieczna, jest etycznie nieakceptowalne.


Słownik AI

Generatywna AI (Generative AI) – obszar sztucznej inteligencji, który skupia się na tworzeniu nowych, autonomicznie wygenerowanych treści, danych lub zachowań, zazwyczaj przy użyciu zaawansowanych modeli generatywnych. Te modele są zdolne do samodzielnego tworzenia nowych przykładów danych, które nie były wcześniej widziane w zestawie treningowym.

Wytłumaczalna AI (Explainable AI, XAI) – podejście w dziedzinie sztucznej inteligencji, które dąży do zapewnienia możliwości zrozumienia i interpretacji decyzji podjętych przez modele AI przez ludzi. W odróżnieniu od niektórych bardziej skomplikowanych modeli, które mogą działać jak „czarne skrzynki” i są trudne do zrozumienia, XAI stawia na transparentność i interpretowalność algorytmów.

Black Box – stan, w którym działanie modelu lub algorytmu jest trudne do zrozumienia przez ludzi, którzy nie są bezpośrednio zaangażowani w jego projektowanie i rozwijanie. Oznacza to, że procesy podejmowania decyzji wewnątrz modelu są nieprzejrzyste i trudne do interpretacji, co sprawia, że model funkcjonuje jak „czarna skrzynka”, gdzie dane wejściowe i wyjściowe są zrozumiałe, ale wewnętrzne mechanizmy nie są możliwe do wytłumaczenia.

Czytaj także: Zaskakujące badania nad wykorzystaniem AI w kardiologii