11 wskazówek dla wdrażających AI w ochronie zdrowia


Pieniądze z KPO i konieczność zmniejszenia obciążenia administracyjnego lekarzy powodują, że poziom wykorzystania AI w polskiej ochronie zdrowia będzie szybko rosnąć
Pieniądze z KPO i konieczność zmniejszenia obciążenia administracyjnego lekarzy powodują, że poziom wykorzystania AI w polskiej ochronie zdrowia będzie szybko rosnąć

Rozwiązania sztucznej inteligencji (AI) wspomagają proces diagnozy, optymalizują sposób leczenia pacjentów i wspierają menedżerów w zarządzaniu placówkami zdrowia. Ale pod warunkiem, że są dobrze wdrożone. Oto najważniejsze rekomendacje dla lekarzy i menedżerów jak implementować i stosować algorytmy medyczne.

Zrozumienie możliwości i ograniczeń AI

AI nie jest rozwiązaniem uniwersalnym i nie potrafi wykonać każdego zdania – i to mimo dostępności tzw. generatywnych modeli AI. Do tego AI działa na podstawie danych historycznych i ma ograniczoną zdolność do interpretowania nowych, nietypowych przypadków. AI nie dysponuje pełnymi danymi pacjenta, nie zna kontekstu choroby i dlatego podejmuje decyzje na podstawie wycinka informacji. Czasami dane treningowe – na podstawie których tworzone są model AI – są różne od tych, którymi dysponuje placówka zdrowia, co może prowadzić do niższej niż deklarowanej dokładności. Każdą decyzję algorytmu AI należy dokładnie zweryfikować zanim wyciągnie się zbyt pochopne wnioski.

Szkolenia personelu

Personel musi rozumieć, jak działają systemy oparte na AI, jakie są ich ograniczenia, a także jak weryfikować wyniki generowane przez algorytmy. Wymaga to przeprowadzenia serii szkoleń. Każde błędne działanie modelu AI powinno być odnotowane, czego będzie wymagał europejski akt w sprawie AI (EU AI Act). Narzędzia AI powinny być płynnie wbudowane w procedury pracy, aby dodatkowo nie obciążały lekarzy. Tylko sprawdzone i łatwe w stosowaniu rozwiązania AI zyskają zaufanie personelu i będą wspierały podejmowanie decyzji klinicznych albo automatyzowały procesy.

Zaplanowanie budżetu na AI

Proste algorytmy medyczne nie muszą być drogie, ale ich utrzymanie może pochłaniać sporą część budżetu IT. Placówka musi je aktualizować, sprawdzać ich wydajność, integrować z infrastrukturą IT. Stosując coraz większą liczbę systemów opartych na AI, szybko może się okazać, że konieczne będzie zatrudnienie osoby specjalizującej się w analityce danych. Eksperci zalecają wdrożenia zintegrowanych platform AI ułatwiających zarządzanie i integrację pojedynczych algorytmów.

Zgodność z regulacjami i etyką zawodową

Rozwiązania AI muszą być oczywiście zgodne z przepisami prawnymi i wytycznymi etycznymi. Jednym z nich jest RODO regulujące zakres ochrony danych osobowych wykorzystywanych przez algorytmy. Lekarze i menedżerowie muszą zapewnić, że systemy AI używają danych pacjentów lokalnie. Jeśli są to rozwiązania chmurowe, należy dowiedzieć się, czy są zgodne z przepisami dotyczącymi przetwarzania danych medycznych. Ponadto, każda decyzja podejmowana z użyciem AI musi być niezmiennie zgodna z wiedzą medyczną, a nie polegać wyłącznie na rekomendacji algorytmu. Nowa ustawa o systemach AI, która zgodnie z planem wejdzie w życie w I połowie 2025 roku, także będzie miała wpływ na pracę lekarzy korzystających z AI.

Transparentność i informowanie pacjentów

Pacjenci mają prawo wiedzieć, jak i dlaczego lekarz stosuje rozwiązania oparte na AI. Muszą być informowani w transparentny sposób o roli AI w procesie diagnostycznym i terapeutycznym – tego wymaga znowelizowany Kodeks Etyki Lekarskiej. Pacjenci powinni być świadomi, że ostateczna decyzja kliniczna należy do lekarza, a AI jest jedynie narzędziem wspierającym. W przypadku sprzeciwu dotyczącego wykorzystania AI podczas wizyty lekarskiej, należy respektować decyzję pacjenta.

Zachowanie odpowiedzialności zawodowej

AI może generować rekomendacje, wykrywać korelacje w danych, dostarczać nowej wiedzy. Ale ostatecznie to lekarz pozostaje odpowiedzialny za decyzje podejmowane w procesie diagnozy i leczenia. Dlatego systemy AI muszą być stosowane z należytą starannością, zgodnie z zasadą ograniczonego zaufania. Choć dostępne na rynku algorytmy AI muszą spełniać wymagania stawiane urządzeniom medycznym, są to często systemy wysokiego ryzyka, a więc mające duży wpływ na zdrowie i życie pacjenta.

Monitorowanie i aktualizacja systemów AI

Modele AI to rozwiązania dynamiczne, których działanie może być inne w każdej placówce zdrowia, bo każda placówka dysponuje innymi danymi. Aby zapewnić skuteczność i bezpieczeństwo ich działania, wymagają one stałego monitorowania i aktualizacji. Amerykańska Mayo Clinic, która jest liderem we wdrażaniu algorytmów AI, stosuje prostą zasadę: każdy algorytm musi być zintegrowany z elektroniczną dokumentacją medyczną, aby zmniejszyć obciążenie technologiczne lekarzy.

Nowe ścieżki postępowania

Rekomendacje modeli AI wpływają na procesy kliniczne. Skoro model A sugeruje zwiększone ryzyko choroby Y, to czy ta informacja powinna znaleźć się w elektronicznej dokumentacji medycznej? Czy wskazania modelu AI są podstawą do zlecenia dodatkowych badań laboratoryjnych, aby potwierdzić lub wykluczyć wynik algorytmu? Które z alarmów generowanych przez AI są naprawdę konieczne, a które będą rozpraszały personel? Na te pytania należy odpowiedzieć na etapie wdrożenia, aby nie doprowadzić do rosnących wątpliwości, a w efekcie – braku akceptacji algorytmu ze względu na niedopasowanie do przepływów pracy.

Współpraca między zespołami medycznymi a technologicznymi

O tym, czy wdrożyć algorytm powinni decydować ci, którzy mają z niego korzystać – lekarze lub pielęgniarki. To oni wiedzą, jakiej pomocy potrzebują. Na dalszych etapach będą oni zaangażowani w proces wyboru, wdrażania i oceny systemów AI, aby te były dostosowane do potrzeb klinicznych. Z kolei specjaliści IT powinni rozumieć specyfikę pracy w ochronie zdrowia i dbać o to, by technologie wspierały, a nie utrudniały codzienną pracę medyków. Do kompetencji działu IT należy też poszerzanie wiedzy o AI i systematyczna aktualizacja wdrożonych algorytmów.

Black Box w AI, ale nie w decyzjach klinicznych

Jednym z wyzwań związanych ze stosowaniem AI jest problem tzw. „czarnej skrzynki,” czyli sytuacja, w której lekarze korzystają z rekomendacji systemu AI, ale nie mają pełnego wglądu w procesy decyzyjne algorytmu. Niestety, działania wielu algorytmów nie można wytłumaczyć. Dlatego procedura podejmowania decyzji klinicznych powinna uwzględniać ryzyko błędnych wyników AI, poprzez np. dodatkowe mechanizmy weryfikacyjne.

Ocena ryzyka i analiza wpływu na bezpieczeństwo pacjentów

Za każdym razem, gdy zapada decyzja o wdrożeniu AI, należy przeprowadzić dokładną ocenę ryzyka. Obejmuje ona analizę skutków klinicznych w przypadku tzw. worst-case scenario, czyli gdy obliczenia algorytmu będą błędne. W tym procesie weryfikowana jest dokładność algorytmu deklarowana przez producenta. Obowiązkowym etapem jest przetestowanie algorytmu na danych rzeczywistych. Analiza ryzyka obejmuje też ocenę bezpieczeństwa danych i bezpieczeństwa leczenia. Wdrażanie AI musi mieć określony cel, np. poprawę precyzji diagnozowania albo automatyzację żmudnych procesów administracyjnych. Personel musi dostrzegać sens stosowania technologii, aby AI nie stała się celem samym w sobie.