Tylko 8% państw posiada strategie AI w ochronie zdrowia

Dodano: 09.12.2025


50% państw już stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami
50% państw już stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami

WHO opublikowało wyniki badania wdrażania sztucznej inteligencji w systemach ochrony zdrowia europejskiego regionu WHO. Oparty na danych z 50 państw raport nie pozostawia złudzeń: nie wystarczą ambitne strategie AI, bo jej zastosowanie hamuje brak regulacji i finansowania oraz obawy o odpowiedzialność za błędy.

Życzeniowe stosowanie AI

Za boomem technologii AI nie idzie strategiczna implementacja na szeroką skalę – wynika z raportu „Sztuczna inteligencja zmienia systemy opieki zdrowotnej: stan gotowości w regionie europejskim WHO”. Tylko 8% (4 z 50) państw członkowskich opublikowało krajowe strategie w zakresie sztucznej inteligencji w ochronie zdrowia, a 14% (7) jest w trakcie ich opracowywania. 66% (33 z 50) posiada krajowe międzysektorowe strategie AI. Choć wiele krajów dostrzega rosnącą rolę sztucznej inteligencji, tylko kilka z nich opracowało politykę dedykowaną opiece zdrowotnej. Polska należy właśnie do tej grupy państw – z końcem listopada pojawiła się zaktualizowana wersja „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” autorstwa Ministerstwa Cyfryzacji. Ministerstwo Zdrowia czy Centrum e-Zdrowia nie zaprezentowało dotąd żadnej strategii w tym zakresie.

Newsletter OSOZ

Jak podkreśla WHO, strategie międzysektorowe – choć korzystne dla koordynacji wdrażania AI – często nie uwzględniają specyficznych wymagań regulacyjnych, etycznych i operacyjnych sektora zdrowia. Do tego AI w ochronie zdrowia wymaga zupełnie innych inwestycji i modelu biznesowego, bo system zdrowia opiera się w większości na finansowaniu publicznym. Do tego poziom zaufania do AI w zdrowiu i przykładowo usługach publicznych jest zupełnie inny.

Jeśli chodzi o politykę AI, 46% (19 z 41) państw członkowskich deleguje ją do istniejących już agencji rządowych (w Polsce to Ministerstwo Cyfryzacji), a kolejne 46% rozdziela kompetencje między wiele agencji. Tylko 12% (5) utworzyło nowe jednostki rządowe ds. sztucznej inteligencji.

Raport WHO „Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”
Raport WHO „Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”

Wiedza na temat AI pozostaje daleko w tyle za rozwojem technologicznym

72% (36 z 50) państw konsultuje z interesariuszami strategie wdrażania AI, głównie ekspertami AI, przedstawicielami branży medycznej i administracją publiczną. Najczęściej – z instytucjami rządowymi (81%), świadczeniodawcami (75%) i twórcami systemów AI (75%), natomiast najrzadziej – ze stowarzyszeniami pacjentów (42%) i obywatelami (22%).

Jak zaznacza WHO, ta nierównowaga w fazie tworzenia strategii AI stwarza ryzyko, że rozwiązania AI nie będą spełniać potrzeb lekarzy i pacjentów oraz nie zyskają zaufania opinii publicznej. Kolejną przeszkodą wdrażania innowacji AI jest niewystarczająca wiedza pracowników ochrony zdrowia. Tylko 24% (12 z 50) państw oferuje celowane szkolenia z zakresu sztucznej dla pracowników ochrony zdrowia, a 20% (10) ma programy edukacyjne dla studentów medycyny. Tylko 42% (21 z 50) aktywnie tworzy nowe zawody w dziedzinie AI i nauki o danych. To spowalnia adaptację AI – gdy lekarze nie wiedzą, jak działa AI i jakie stwarza możliwości, pojawiają się obawy i nieufność.

Poprawa opieki nad pacjentem i redukcja obciążeń administracyjnych to główne przesłani stosowania AI w ochronie zdrowia
Poprawa opieki nad pacjentem i redukcja obciążeń administracyjnych to główne przesłani stosowania AI w ochronie zdrowia

W Polsce szkolenia z zakresu AI prowadzi jedynie Naczelna Izba Lekarska, przede wszystkim w ramach Sieci Lekarzy Innowatorów. I to wszystko: takich szkoleń trudno szukać w Akademii Centrum e-Zdrowia albo w Narodowym Funduszu Zdrowia.

Odpowiedzialność za błędy AI pozostaje niedoregulowana

8% (4) państw WHO Europa opracowało standardy odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję w służbie zdrowia. Zaledwie 6% (3) wprowadziło wymogi prawne dotyczące systemów generatywnej sztucznej inteligencji (genAI) w zdrowiu.

I właśnie brak jasnych reguł, kto jest odpowiedzialny, gdy systemy AI popełniają błędy lub działają nieprawidłowo, powoduje, że lekarze często nie chcą jej stosować. Z drugiej strony, taki stan powoduje, że osoby już korzystające z AI mogą nadmiernie polegać na rekomendacjach systemów, narażając pacjentów na niebezpieczeństwo. Zwłaszcza, że nadal rzadkością jest monitorowanie działania systemów AI po ich wprowadzeniu na rynek, w warunkach rzeczywistych. To ma zmienić Akt w sprawie AI (EU AI Act), zgodnie z którym systemy AI stosowane w diagnozie i leczeniu są systemami wysokiego ryzyka i dlatego m.in. będą poddawane większej kontroli, w tym raportowaniu działań niepożądanych, podobnie do leków.

Jasne ramy odpowiedzialności mogłyby podnieść zaufanie środowiska medycznego do innowacji – sugeruje WHO.

Brak zasad odpowiedzialności za błędy AI powoduje, że lekarze niechętnie z niej korzystają
Brak zasad odpowiedzialności za błędy AI powoduje, że lekarze niechętnie z niej korzystają

Infrastruktura danych jest traktowana priorytetowo, ale rozwijana powoli

Sztuczna inteligencja opiera się na bezpiecznych, wysokiej jakości, interoperacyjnych danych. 66% (33 z 50) państw posiada krajową strategię w zakresie gromadzenia i wymiany danych zdrowotnych, a 76% (38 z 50) ma lub opracowuje ramy zarządzania tymi danymi. 66% (33 z 50) utworzyło regionalne lub krajowe centra danych zdrowotnych, umożliwiające m.in. szkolenie modeli sztucznej inteligencji.

Jednak tylko 30% (15 z 50) opracowało wytyczne dotyczące wtórnego wykorzystania danych zdrowotnych, a kolejne 30% posiada przepisy dotyczące transgranicznego udostępniania danych. Wyniki nie napawają optymizmem – Europa wdraża obecnie Europejską Przestrzeń Danych Zdrowotnych (EHDS), której celem jest ułatwienie wymiany danych pierwotnych (podsumowanie danych pacjenta) oraz wtórne ich wykorzystanie do badań i opracowywania kolejnych innowacji. Polska wprawdzie wdrożyła e-receptę transgraniczną i jest na dobrej drodze do wymiany danych medycznych w ramach Podsumowania Pacjenta, ale jeszcze nie drgnęła tematu wtórnego przetwarzania danych w ramach EHDS.

Inwestować czy nie inwestować w sztuczną inteligencję?

64% (32 z 50) państw deklaruje stosowanie narzędzi diagnostyki wspomaganej AI, a kolejne 50% (25) stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami. AI jest stosowana przede wszystkich w obszarach, które mają strategiczne znaczenie dla systemów zdrowia: opieki nad pacjentami (98%), zmniejszenia presji obciążeń administracyjnych na pracowników (92%) oraz zwiększenia efektywności systemu opieki zdrowotnej (90%).

Niepewność legislacyjna powoduje, że AI w ochronie zdrowia jest nadal rzadko stosowana
Niepewność legislacyjna powoduje, że AI w ochronie zdrowia jest nadal rzadko stosowana

Jednak tylko 52% (26 z 50) wyznaczyło priorytetowe obszary zastosowania AI, a jeszcze mniej przeznaczyło na ten cel konkretne środki finansowe. To powoduje dysonans pomiędzy chęciami a czynami.

Największą przeszkodą we wdrażaniu sztucznej inteligencji jest niepewność regulacyjna, którą zgłasza 86% (43 z 50) państw. Drugą jest finansowanie innowacji AI (78%). Większość krajów zgadza się, że jasne zasady dotyczące odpowiedzialności (92%) oraz wytyczne dotyczące przejrzystości i wyjaśnialności modeli AI (90%) przyspieszyłyby wdrażanie AI. Wyniki badania przeprowadzonego przez WHO w regionie europejskim pokazują, że AI jest coraz poważniej implementowana w systemach zdrowia. Nadal jednak deklaracje różnią się od poziomu rzeczywistej adaptacji. AI jest na razie stosowana głównie w dużych szpitalach, najczęściej w systemach diagnostyki obrazowej. Aby do nowej technologii miały dostęp wszystkie placówki, potrzebne są dedykowane ścieżki refundacyjne dla innowacji, intensywne szkolenia i wsparcie wdrażania np. AI w EDM.