Sztuczna inteligencja nie uratuje systemu zdrowia

Dodano: 12.08.2025


Jessica Morley pracuje na amerykańskim Uniwersytecie Yale i zajmuje się etyką sztucznej inteligencji
Jessica Morley pracuje na amerykańskim Uniwersytecie Yale i zajmuje się etyką sztucznej inteligencji

Jessica Morley z Centrum Etyki Cyfrowej na Uniwersytecie Yale głośno krytykuje szum wokół sztucznej inteligencji w opiece zdrowotnej: AI nie jest ani nowa, ani magiczna, ani inteligentna. Ale i tak pomoże medycynie, odciążając lekarzy od biurokracji oraz pomagając opracować nowe leki i terapie.

Często słyszymy, że AI jest jedynym ratunkiem dla systemu opieki zdrowotnej uginającym się pod rosnącymi kosztami i obciążeniami administracyjnymi. Ile w tym złudnej nadziei, a ile prawdy?

Prawda leży pośrodku. Sztuczna inteligencja nie rozwiąże każdego problemu systemów opieki zdrowotnej, zwłaszcza biorąc pod uwagę, jak jest obecnie wykorzystywana. W społecznej świadomości istnieje tendencja myślenia o AI jako uniwersalnym narzędziu, które pozwoli nam robić wszystko szybciej i taniej, przykładowo szybciej diagnozować, a nawet przewidywać choroby z dużym wyprzedzeniem. W teorii brzmi to obiecująco, ale w praktyce się tak się nie stanie, bo życie człowieka i jego otoczenie są skrajnie nieuporządkowane, a algorytmy działają poprawnie tylko w uporządkowanych warunkach.

AI może pomóc zmniejszyć obciążenia administracyjne albo wspomóc realizację badań w medycynie. Pozwoli nam lepiej zrozumieć zdrowie człowieka i lepiej wykorzystać dotychczas niedostatecznie wykorzystywane dane zdrowotne. AI nie jest jednak lekarstwem na wszystko, ponieważ nie da się naprawić fizycznych i społecznych problemów wyłącznie za pomocą narzędzi cyfrowych.

Na przykład, jeśli AI zasugeruje, że pacjent jest zagrożony cukrzycą typu 2 i zaleci profilaktycznie spożywanie większej ilości owoców i warzyw oraz większą aktywność fizyczną, ale dana osoba żyje w środowisku, w którym wprowadzenie tych zaleceń w życie jest niemożliwe, to taka sugestia jest bezużyteczna.

Raport o sztucznej inteligencji w ochronie zdrowia
Kliknij na baner, aby pobrać bezpłatny raport o AI w ochronie zdrowia 2025

Skoro AI nie ma magicznej mocy, dlaczego tak wiele osób wciąż wierzy, że jest to przełomowa technologia? Czy opieka zdrowotna jest w aż tak opłakanym stanie, że desperacko szukamy prostego rozwiązania?

AI to podręcznikowy przykład cyklu szumu wokół nowej technologii i dobrego marketingu. W 2015 i 2016 roku, AI była zagadnieniem niszowym. Jednak wraz z pojawieniem się na rynku nowych firm big tech albo spin-offów takich jak DeepMind, media, politycy i fundusze inwestycyjne zaczęli nakręcać podekscytowanie. Tak powstała pętla sprzężenia zwrotnego: każdy chciał robić coś z AI, więc nagle wszystko, co wykorzystuje dane, było nazywane AI.

Zgadzam się, że w ochronie zdrowia istnieje mocne pragnienie znalezienia Złotego Grala na wszystkie problemy. Przyglądając się historii medycyny, takie przełomy już miały miejsce. Przykładowo, podobny poziom ekscytacji wywołało odkrycie antybiotyków. Różnica polega teraz na tym, że tempo globalnej wymiany informacji sprawia, że szum szybko się napędza.

Twierdzi Pani, że na podstawie danych na temat zdrowia człowieka jesteśmy w stanie przewidzieć stan zdrowia tylko w 40%. Powodem są środowiskowe determinanty zdrowia, na temat których nie zbieramy danych. Czy to oznacza, że predykcja zdrowia z pomocą AI nie ma sensu?

Poziom 40% jest szacunkowy – chodzi o to, że na zdrowie wpływają czynniki pozostające poza kontrolą danej osoby, w tym środowisko, żywność, woda i sieci społecznościowe, a nawet dezinformacja w Internecie. Od lat 70-tych wiemy, że indywidualne zachowania mają ograniczony wpływ. Nawet genetyka, niegdyś postrzegana jako odpowiedź na wszystko, nie okazała się kluczem do rozszyfrowania zdrowia, jak wielu miało nadzieję.

Dlatego zdecydowanie sensowniejszą rolą dla AI jest zdrowie populacyjne. AI może pomóc zrozumieć dynamikę występowania chorób, przewidywać społeczności zagrożone niektórymi schorzeniami, poznać warunki społeczne lub środowiskowe przyczyniające się do powstawania ryzyk zdrowotnych. Zamiast wydawać pieniądze na reklamy Ozempicu, moglibyśmy wykorzystać AI do planowania miast czy ułatwienia dostępu do zdrowej żywności albo organizacji lekcji zdrowego gotowania w szkołach.

To właśnie w obszarze populacyjnym AI mogłaby dokonać transformacji.

Prognozuje Pani, że popularyzacja AI w medycynie prowadzi do „leczenia danych pacjenta” zamiast do „leczenia pacjenta”. Ale czy to już nie jest faktem w erze cyfryzacji, gdy lekarze podejmują decyzje na podstawie danych w elektronicznej dokumentacji medycznej?

Do pewnego stopnia prawdą jest, że lekarze już teraz w dużej mierze polegają na danych. Decydującą różnicą jest jednak to, że lekarze nadal mają bezpośredni kontakt z pacjentami. Widzą ich w gabinecie lekarskim, mogą obserwować subtelne oznaki, takie jak odcień skóry pacjenta, mimikę twarzy, wigor albo sposób, w jaki zachowuje się dziecko. Rodzice mogą powiedzieć, że „dziecko dzisiaj nie jest sobą”, a lekarz wie, jak to zinterpretować.

Algorytmy nie zrozumieją, kiedy pacjent stwierdzi, że czuje się zagubiony, bo nie mają dostępu do szerszego kontekstu życia człowieka, niezależnie od tego, czy dana osoba jest przygnębiona, ponieważ straciła pracę, czy zestresowana. Takie dane nie są rejestrowane w elektronicznej dokumentacji medycznej, ale mogą mieć duży wpływ na diagnozę.

Aby zapobiec takiemu oderwaniu się cyfrowej medycyny od realnego życia pacjenta, musimy po pierwsze dokładnie przemyśleć zakres zbieranych danych i modele, które z nich będą korzystały. W rozwiązywaniu prostych zagadek klinicznych czasami pomoże staromodna AI oparta na regułach, a czasami będzie niezbędny człowiek.

Po drugie, unikajmy delegowania wszystkich zadań algorytmom. Zwłaszcza w przypadku osób najbardziej zagrożonych wykluczeniem z różnych przyczyn – to właśnie na ich temat najbardziej brakuje danych. Przykładowo, czytałam ostatnio o praktyce lekarza rodzinnego korzystającej z triażu opartego na AI. Pacjenci masowo odchodzili, ponieważ nie czuli się wysłuchani. To nie jest kierunek, w którym medycyna powinna iść. Musimy projektować systemy, w których ludzie i AI pracują równolegle, a nie konkurują ze sobą.

Zapisz się do newslettera OSOZ i bądź na bieżąco z AI w medycynie
Zapisz się do newslettera OSOZ i bądź na bieżąco z AI w medycynie

No ale mamy coraz więcej danych z np. smartwatchy, które mogą zbierać informacje o otoczeniu człowieka?

Moim zdaniem w medycynie priorytetem jest budowa modeli, które nie wymagają nadmiernej ilości danych ze źródeł komercyjnych, takich jak urządzenia do noszenia lub karty kredytowe. Powód jest prosty: posiadają je często tylko osoby o lepszej sytuacji finansowej, a więc lepsza opieka oparta na AI staje się dostępna dla tych, którzy już i tak są dobrze zaopiekowani. To prowadzi do powiększania się przepaści zdrowotnej.

Skoro opieka zdrowotna jest coraz częściej oparta na algorytmach, rozmywa się odpowiedzialność za wyniki pacjenta i ewentualne błędy.

Tak, w medycynie opartej na algorytmach brakuje elementu ludzkiego osądu oraz osadzenia decyzji w dowodach naukowych. Aby to rozwiązać, potrzebne są trzy rzeczy:

  1. Możliwość audytu. Niezbędna jest pełna przejrzystość w zakresie tego, gdzie wykorzystywana jest AI, na jakich danych jest szkolona i w jaki sposób podejmowane są decyzje.
  2. Odpowiedzialność. Ramy prawne wymagają aktualizacji. To lekarze nadal ponoszą odpowiedzialność za decyzje, ale jeśli nie w pełni rozumieją sposobu działania algorytmu albo padają ofiarą stronniczości AI, nie jest jasne, po której stronie leży wina. Trzeba zapewnić lekarzom możliwość kwestionowania algorytmów.
  3. Regulacje. Regulacje dotyczące oprogramowania jako urządzenia medycznego nie są gotowe na AI, zwłaszcza na generatywną AI. Musimy ustanowić „złoty standard dowodów” dla sztucznej inteligencji i nowe podejście do mierzenia bezpieczeństwa i skuteczności, w sytuacji, gdy AI jest narzędziem dynamicznym i niedeterministycznym, bo uczy się ciągle na danych.

Czyli AI powinna być mocniej regulowana? A może lepiej poczekać z regulacjami, pozwalając rozwinąć się technologii, zamiast od razu ją hamować prawnie?

To dylemat Collingridge’a: regulować technologię na wczesnym etapie posiadając niewielką ilość informacji lub regulować na późnym etapie, gdy jest już rozwinięta i tak zakorzeniona, że trudno skorygować jej negatywne efekty.

To fałszywa dychotomia – regulacje i innowacje nie są wrogami. Regulacje muszą ewoluować wraz z technologią. Możemy na przykład rozszerzyć definicję oprogramowania jako wyrobu medycznego, a następnie opracować elastyczne standardy dowodowe, takie jak monitorowanie w warunkach rzeczywistych, zamiast polegać tylko i wyłącznie na sztywnych testach.

Kolejnym świetnym pomysłem są tzw. piaskownice regulacyjne, takie jak te zawarte w unijnej ustawie o sztucznej inteligencji. Pozwalają one bezpiecznie eksperymentować bez narażania społeczeństwa na ryzyko. Do tego medycyna potrzebuje audytu AI, aby na bieżąco testować poprawność działania algorytmów.

Założenie, że regulacje zawsze hamują innowacje, jest mitem, często forsowanym przez osoby mające konkretny interes w niepohamowanym rozwoju technologii.

Gdyby miała Pani wybór pomiędzy algorytmem diagnostycznym o 95% dokładności a lekarzem z 90% poprawnych diagnoz, wybrałaby Pani maszynę czy człowieka?

Zabrzmię jak klasyczny naukowiec społeczny: to zależy. W warunkach, w których nie ma dostępu do lekarza, użycie algorytmu o dokładności 95% jest lepsze niż nic. Mamy etyczny obowiązek wykorzystywać wszystkie narzędzia, które potencjalnie mogą uratować życie lub poprawić stan zdrowia.

Zamiast przeciwstawiać algorytmy lekarzom, lepiej porozmawiajmy o tym, jak AI i człowiek mogą ze sobą współpracować. Czasami algorytmy osiągają lepsze wyniki niż lekarze, ale często te porównania są bardzo selektywne. Młodszy lekarz ze świeżym podejściem i otwartym umysłem może być lepszy od algorytmu, a doświadczony, funkcjonujący w bańce poznawczej wynikającej z wiary w doświadczenie – już nie. Ale jeśli AI i lekarz stworzą zespół, zyskujemy podwójny system weryfikacji decyzji.