Agenci AI wejdą do placówek zdrowia za 1-2 lata

Dodano: 07.08.2025


Prof. Stéphanie Allassonnière, Uniwersytet Paris Cité, Francja (zdjęcie: Studio Cabrelli)
Prof. Stéphanie Allassonnière, Uniwersytet Paris Cité, Francja

Nadchodzi kolejny etap w rozwoju AI – agentowa sztuczna inteligencja (ang: agentic AI). Agenci AI będą pełnić rolę inteligentnego koordynatora opieki oraz procesów organizacyjnych i klinicznych, dyrygując przebiegiem operacji chirurgicznych i personalizując opiekę nad pacjentem – twierdzi Prof. Stéphanie Allassonnière z Uniwersytetu Paris Cité, Francja. Technologia jest gotowa.

Czym jest agentowa sztuczna inteligencja i kiedy możemy spodziewać się jej zastosowania w placówkach zdrowia?

Agentic AI odnosi się do systemów sztucznej inteligencji, które mogą autonomicznie planować, podejmować decyzje i realizować określone czynności, aby osiągnąć określone cele przy minimalnym zaangażowaniu człowieka. Można ją porównać do dyrygenta, który przewodzi orkiestrze tak, aby każdy jej członek używał instrumentu we właściwym czasie, aby powstał spójny i harmonijny utwór. Jednak agentic AI nie ma z góry zaprojektowanej partytury – musi wybrać taką, która pozwoli osiągnąć założony cel.

W opiece zdrowotnej możemy spodziewać się pierwszych zastosowań agentowej AI w takich obszarach jak wspomaganie decyzji klinicznych lub koordynacja opieki. W placówkach z bardzo dobrą infrastrukturą cyfrową, takie systemy pojawią się w ciągu najbliższych 3–5 lat. Ale oczywiście będzie to również zależeć od regulacji.

Jeśli agent AI będzie miał działać na przykład na sali operacyjnej, organy regulacyjne muszą zdecydować, czy są bezpieczne w stosowaniu. Wyzwaniem będzie określenie warunków dopuszczenia tego typu systemów do medycyny, bo mowa o częściowo samodzielnej AI. Dużo szybciej można spodziewać się agentów AI do zadań administracyjnych i organizacyjnych. Technologia jest już gotowa, jej wprowadzenie do placówek zdrowia zajmie ok. 1–2 lat.

Specjalny raport o AI w ochronie zdrowia czasopisma OSOZ
Specjalny raport o AI w ochronie zdrowia czasopisma OSOZ. Kliknij tutaj, aby go pobrać

To bardzo krótki okres zakładając, że opieka zdrowotna nigdy nie była w czołówce wdrażania technologii. Dlaczego miałoby być inaczej w przypadku agentowej sztucznej inteligencji? Na razie nie widać jakichkolwiek prób regulacji.

To prawda, że opieka zdrowotna pozostaje w tyle, jeśli chodzi o wdrażanie technologii cyfrowych. Ale w przypadku agentowej AI sytuacja może być inna. Proszę zwrócić uwagę, że jest to technologia, która po raz pierwszy daje nadzieję na rozwiązanie palących problemów w systemie zdrowia. Mam na myśli wypalenie zawodowe lekarzy, braki kadrowe i rosnące koszty opieki. Agenci AI mogą przejąć i zautomatyzować złożone, czasochłonne zadania.

Presja poradzenia sobie z tymi wyzwaniami jest tak silna, że prawdopodobnie zobaczymy wdrożenie tej odmiany AI jeszcze przed ich pełną regulacją, szczególnie w obszarach pomocniczych lub niediagnostycznych. Taką mam przynajmniej nadzieję.

A jak będzie wyglądała walidacja? Agenci AI są oparci na generatywnej AI, a ta może halucynować.

Podobnie jak nowy lek przechodzi rygorystyczną, etapową walidację, najpierw w badaniach symulowanych, a następnie pod nadzorem w rzeczywistych warunkach, taka sama procedura będzie dotyczyła agentów AI.

Jeśli chodzi o halucynacje, to istnieje kilka sposobów, aby im zapobiegać: systemy AI muszą być szkolone z wykorzystaniem wysokiej jakości danych klinicznych, na bieżąco aktualizowane i korygowane, jeśli popełniły błąd. Do tego konieczne jest uwzględnienie mechanizmów odraczania decyzji, aby minimalizować szkody w przypadku błędów.

Systemy agentowe są w stanie samodzielnie realizować procesy kliniczne. Przykładem jest wspomniana koordynacja opieki nad pacjentem. Co zrobić, aby oddając część ról w ochronie zdrowia maszynom, zachować kontrolę człowieka?

Utrzymywanie ludzi w pętli decyzyjnej będzie wymagać projektowania systemów agentowych, których sposób działania jest w pełni udokumentowany, możliwy do skontrolowania i przerwania w razie konieczności. Tylko w ten sposób lekarze będą mogli nadzorować podejmowane przez AI decyzje i rozumieć działanie całego systemu, a w razie konieczności – przejmować kontrolę nad takim „autopilotem”.

To z kolei oznacza, że zanim agenci AI przejmą niektóre czynności, trzeba dobrze przeszkolić lekarzy i pielęgniarki z ich obsługi. Nawet jeśli agent AI będzie posiadał certyfikat, trudno spodziewać się, że będzie bezbłędny. W razie problemów, personel medyczny – kierując się własnym doświadczeniem – będzie korygował działanie maszyny. Krytycznie ważne będzie angażowanie lekarzy w projektowanie agentów AI, aby zapewnić dobre przygotowanie agenta do zadania i przyjazność rozwiązania. Dużą rolę odegrają wytyczne etyczne w stosunku do agentic AI, określające granice odpowiedzialności i gwarantujące, że to do człowieka należy ostateczna decyzja. To są kwestie, nad którymi trzeba się będzie pochylić.

Bądź na bieżąco z nowościami e-zdrowia. Subskrybuj nasz bezpłatny newsletter
Bądź na bieżąco z nowościami e-zdrowia. Subskrybuj nasz bezpłatny newsletter (formularz na dole strony)

Warunkiem dopuszczenia agentów AI do medycyny jest zapewnienie ich „interpretowalności”, czyli zrozumienia podejmowanych decyzji. Jeśli lekarze nie będą wiedzieli, jak działa agent AI, raczej mu nie zaufają.

Tak jak w przypadku każdego innego urządzenia medycznego, konieczne będą badania kliniczne. Dostawcy agentycznej sztucznej inteligencji muszą przedstawić dowody na bezpieczeństwo i korzyści stosowania, dodatkowo gwarantując zgodność z wytycznymi klinicznymi i ochrony danych. Tutaj obowiązują takie same standardy jak dla każdego produktu medycznego.

Podkreślam wielokrotnie znaczenie angażowania lekarzy od samego początku procesu rozwoju i testowania, co jest fundamentem jakości AI i jej użyteczności w warunkach klinicznych, w ten sposób budują zaufanie wśród użytkowników. Takie podejście – które jest nawet zawarte w prawie europejskim – nazywa się „gwarancją człowieka”.

Nie ma się jednak co łudzić – agenci AI nie będą w 100% wyjaśnialni, bo nie działają w oparciu o proste reguły matematyczne. Z tego samego powodu, dla którego nie wymaga się od lekarza znajomości składu chemicznego i mechanizmów działania związków chemicznych, nie należy wymagać, aby sposób działania rozwiązań opartych na AI był całkowicie jasny dla każdego użytkownika. Problem tzw. czarnej skrzynki dotyczy tak samo AI jak i ludzi. Człowiek też nie zawsze jest w stanie wyjaśnić, jak doszedł do danej decyzji.

Kto będzie odpowiedzialny, gdy coś pójdzie nie tak? Agent AI czy lekarz?

W Europie ostateczna decyzja medyczna zawsze należy do człowieka. Oznacza to, że agenci AI powinni być nadzorowani przez cały czas przez ludzkiego eksperta. Jeśli pomyślimy o obsłudze administracyjnej szpitala, to również w tym przypadku powinien istnieć nadzór człowieka, chociaż wpływ błędnej decyzji nie będzie miał takich samych konsekwencji jak w gabinecie lekarskim albo na sali operacyjnej. Uważam, że w medycynie narzędzia te będą wymagały stałego nadzoru.

Agentowa AI obiecuje zmniejszyć obciążenia administracyjne poprzez m.in. automatyzację koordynacji opieki. Jak możemy zapobiec sytuacji, w której nadmierne poleganie na technologii stworzy nowe formy przeciążenia poznawczego lub deskillingu, czyli zaniku doświadczenia i wiedzy, pracowników służby zdrowia?

Automatyzacja powinna wspierać, ale nie zastępować rozumowanie kliniczne. Tutaj wracamy do już wspomnianych warunków brzegowych stosowania agentów AI – to lekarz będzie musiał podjąć ostateczną decyzję i nadzorować cały proces.

Oczywiście, istnieje ryzyko, że kontrola agentów zajmie więcej czasu niż realizacja tego samego zadania przez człowieka. Wówczas taki system mija się z celem, dlatego agentowa AI musi być projektowana tak, aby klinicyści byli angażowani tylko w kluczowe decyzje. To nie jest tak, że lekarze będą biernymi obserwatorami.

W przyszłości znajomość wiedzy klinicznej i doświadczenie będą tak samo ważne, aby móc krytycznie weryfikować działania agenta AI i przejmować inicjatywę w razie potrzeby. Dlatego nie obawiałabym się obniżania poziomu wiedzy i umiejętności lekarzy. Na pewno zmieni się praktyka zawodu i kształcenie, ale cały czas lekarz będzie musiał mieć kompetencje gwarantujące bezpieczeństwo leczenia pacjenta.

Aby agenci płynnie wykonywali swoje zadania, muszą mieć dostęp do danych pacjentów. Czy nie stanowi to zagrożenia dla ich prywatności i bezpieczeństwa danych medycznych?

Tutaj także zasady pozostają bez zmian i agenci AI muszą spełniać obowiązujące wymagania prawne jak RODO czy kodeksy krajowe. Pacjenci będą musieli być informowani o stosowaniu AI, tak samo, jak ma to miejsce obecnie. Nie widzę tu żadnego nowego zagrożenia, bo przepisy chroniące prywatność pacjentów są dobrze przygotowane.

Dotychczas mówiliśmy o agentach AI pomagających w placówkach zdrowia. A czy takie systemy będą też dostępne dla pacjentów, podpowiadając im jak lepiej zadbać o zdrowie?

Oczywiście! Agentyczna sztuczna inteligencja ma tę zaletę, że jest w stanie dostosować swoje decyzje do każdej osoby i sytuacji. Moim zdaniem agenci AI wprowadzą rewolucję w profilaktyce.

Technologia wkroczy do placówek zdrowia najwcześniej za 1–2 lata. Jak już dziś dostawcy usług zdrowotnych powinni zacząć się przygotowywać do wdrożenia agentów AI? Przede wszystkim trzeba zadbać o takie gromadzenie i wstępne przetwarzanie danych, aby z czasem tworzyły one wierną, cyfrową reprezentacją każdej organizacji. Dane muszą być interoperacyjne, szczegółowe i dokładne. Drugą ważną rzeczą jest rozpoczęcie szkolenia pracowników w zakresie AI. Im wcześniej zaczniemy to robić, tym lepiej.