Europejscy lekarze z nadzieją i obawami czekają na AI


Lekarze są podzieleni w sprawie sztucznej inteligencji: część z nadzieją czeka na ułatwienia w pracy, część obawia się utraty suwerenności podejmowania decyzji
Lekarze są podzieleni w sprawie sztucznej inteligencji: część z nadzieją czeka na ułatwienia w pracy, część obawia się utraty suwerenności podejmowania decyzji

Stały Komitet Lekarzy Europejskich (CPME) – którego członkiem jest też Naczelna Izba Lekarska – opublikował politykę wykorzystania sztucznej inteligencji (AI) w praktyce klinicznej, apelując o szczelniejszą regulację AI i podkreślając niebezpieczeństwa związane z technologią. Czy lekarze są sceptyczni wobec AI czy po prostu chcą bezpiecznie z niej korzystać?

AI potrafi dużo, ale to nie jest urządzenie medyczne

Premiera ChatGPT wywołała mieszane uczucia w stosunku do sztucznej inteligencji. Kiedy jedni zachwycali się nowymi możliwościami AI, inni zaczęli obawiać się o jej wpływ na rynek pracy, przyszłość niektórych zawodów i inne, trudne do przewidzenia konsekwencje społeczne.

To samo dotyczy ochrony zdrowia. Modele generatywnej AI zdają na piątkę egzaminy medyczne, szybko diagnozują choroby rzadkie, doradzają pacjentom, tłumaczą wyniki badań laboratoryjnych, pomagają prowadzić elektroniczną dokumentację medyczną.

Środowisko lekarskie jest jednak bardzo ostrożne w stosunku do AI i taka postawa jest po części uzasadniona. To lekarz odpowiada za efekty leczenia, a więc rekomendacje AI muszą być precyzyjne i godne zaufania. Mimo, że uchwalony przez Parlament Europejski Akt w Sprawie AI klasyfikuje modele ogólnej AI dla medycyny jako modele wysokiego ryzyka, lekarze domagają się jeszcze większej kontroli nad tym jak powstają rozwiązania AI i jak są stosowane w praktyce klinicznej.

W Polsce przykładem prób regulacji AI jest planowana na połowę 2025 roku ustawa o systemach sztucznej inteligencji oraz inicjatywa samorządu lekarskiego, czyli nowelizacja Kodeksu Etyki Lekarskiej. Zakłada ona, że w niektórych przypadkach lekarze będą musieli uzyskać świadomą zgodę od pacjenta na zastosowanie AI oraz korzystać wyłącznie z certyfikowanych algorytmów.

Głos w sprawie AI zabrał Stały Komitet Lekarzy Europejskich (CPME, The Standing Committee of European Doctors), do którego należy Naczelna Izba Lekarska (NIL). Opublikowana w listopadzie 2024 r. 11-stronicowa polityka Deployment of artificial intelligence in healthcare” to zbiór postulatów, jak powinno wyglądać wdrażanie AI w ochronie zdrowia.

Dobra sztuczna inteligencja, zła sztuczna inteligencja

CPME zauważa korzyści związane z AI, ale sporo miejsca poświęca na obawy dotyczące zastosowania nowej technologii oraz wymagania, które muszą być spełnione, aby AI stosować w praktyce klinicznej.

Europejscy medycy twierdzą, że AI może doprowadzić do zmniejszenia roli pracowników medycznych w ochronie zdrowia. Obawiają się też, że inwestycje w AI mogą odbywać się kosztem innych nakładów na ochronę zdrowia. Wiceprezes CPME, prof. dr Ray Walley, przedstawiając raport stwierdził, że „lekarze powinni mieć swobodę decydowania o tym, czy korzystać z systemu sztucznej inteligencji, bez reperkusji, mając na uwadze najlepszy interes pacjenta i zachowując prawo do niezgadzania się z systemem sztucznej inteligencji”. Takie opinie mogą zaskakiwać, bo swoboda podejmowania decyzji przez lekarza nie jest w żaden sposób zagrożona przez AI.

Jednak niektóre obawy są uzasadnione. Przykładowo, CPME wskazuje, że większość rozwiązań AI dostępnych na rynku nie jest certyfikowana, a więc nie są to rozwiązania odpowiadające standardom bezpieczeństwa urządzeń medycznych. Do tego systemy AI muszą być zgodne z zasadami etyki medycznej, ochrony danych i prywatności, ale obecnie nie ma konsensusu co do tego, jak egzekwować te wymagania.

AI? Tak, ale najlepiej w EDM

Polityka CPME wymienia bariery do upowszechnienia się sztucznej inteligencji w opiece zdrowotnej: rozdrobniony i dynamicznie się zmieniający charakter sektora zdrowia, obecność dużej liczby niecertyfikowanych narzędzi AI oraz brak zaufania wynikający z niezweryfikowanych źródeł danych służących do szkolenia modeli AI, wysokie koszty wdrożenia i utrzymania oraz ograniczony czas dla pracowników służby zdrowia na uczenie się nowych technologii.

W argumentach lekarzy pojawia się wątek braku integracji AI z systemami elektronicznej dokumentacji medycznej.

– Musimy unikać sytuacji, w których działają one [red.: systemy AI] jako samodzielne narzędzia wymagające od pracowników służby zdrowia ręcznego wprowadzania tych samych informacji w różnych systemach. Jest to nieefektywne i powoduje frustrację oraz wypalenie zawodowe – powiedział dr Christiaan Keijzer, Prezes CPME.

Do tego dochodzi problem tzw. „czarnej skrzynki”, czyli braku wglądu w proces podejmowania decyzji przez AI, co podkopuje wiarygodność do nowych technologii. Lekarze z dużą ostrożnością podchodzą też do udostępniania danych pacjentów na potrzeby trenowania algorytmów AI, obawiając się naruszenia przepisów RODO.

Lekarze nie mogą być „kozłem ofiarnym” błędnego działania systemów AI

CPME żąda rygorystycznych standardów certyfikacji AI, które uwzględniają kwestie cyberbezpieczeństwa, prywatności danych i tzw. stronniczości algorytmów wynikającej z niereprezentatywnych lub niskiej jakości danych. Opowiadają się za dostępem do informacji o danych stosowanych do trenowania modeli oraz informacji o wydajności systemu AI.

Jeden z punktów polityki AI mówi o tym, że należy przeprowadzić zakrojone na szeroką skalę, długoterminowe badania naukowe wpływu sztucznej inteligencji na opiekę zdrowotną, w tym potencjalnych zagrożeń związanych z utratą pracy oraz błędnymi decyzjami dotyczącymi diagnozy i leczenia.

Znaczna część postulatów koncentruje się na szkoleniu pracowników służby zdrowia z obsługi nowych technologii. CPME zaleca włączenie wiedzy na temat AI do edukacji medycznej i programów rozwoju zawodowego. Bez umiejętności korzystania z AI, lekarze mogą bezkrytycznie polegać na zaleceniach generowanych przez sztuczną inteligencję, nie potrafiąc ich weryfikować. Dlatego CPME opowiada się za wprowadzeniem jasnych zasad odpowiedzialności – to deweloperzy rozwiązań AI powinni ponosić odpowiedzialność za błędy AI, a nie lekarze.

Polityka AI opracowana przez Stały Komitet Lekarzy Europejskich ma jednak kilka nieścisłości. Zawiera żądania, które już są zawarte w innych aktach prawnych na poziomie europejskim, jak przykładowo EU AI Act. W niektórych fragmentach żąda regulacji o wiele ostrzejszych niż te dotyczące np. dopuszczenia na rynek leków albo urządzeń medycznych.

Taka nad-regulacja mogłaby zahamować rozwój europejskiego rynku AI dla ochrony zdrowia i paradoksalnie doprowadzić do jeszcze gorszej sytuacji, gdy w przyszłości będziemy skazani na korzystanie z rozwiązań tworzonych i trenowanych w USA lub Chinach. Niepotrzebny wydaje się też alarmistyczny ton polityki, która m.in. wspomina o zastępowaniu lekarzy przez AI. Po latach debat o roli AI już nikt nie powinien mieć wątpliwości, że to nieuzasadnione obawy.