Jak wdrażać AI w ochronie zdrowia? „Trzy ważne pytania”

Dodano: 18.08.2025


Placówki medyczne ostrożnie wdrażają AI, bo obawiają się o prywatność danych i odpowiedzialność za błędne decyzje AI
Placówki medyczne ostrożnie wdrażają AI, bo obawiają się o prywatność danych i odpowiedzialność za błędne decyzje AI

Zamiast od razu pytać, jaką AI najlepiej wdrożyć, trzeba najpierw się zastanowić „po co”, a następnie przeanalizować gotowość pod względem technicznym, finansowym, operacyjnym i etycznym. W porównaniu do klasycznych rozwiązań cyfrowych, AI wymaga dobrego przygotowania.

Jak placówki medyczne stosują AI?

Zainteresowanie wdrażaniem dużych modeli językowych (LLM) nie wynika z mody, ale z korzyści jakie raportują szpitale, które już je wdrożyły – wynika z raportu AI Adoption in Healthcare Report 2024 opracowanego przez HIMSS i Medscape.

Od momentu premiery generatywnej sztucznej inteligencji, w kontekście ochrony zdrowia dużo mówi się o wspomaganiu tworzenia elektronicznej dokumentacji medycznej (EDM). Po raz pierwszy od czasu pojawienia się pierwszych EDM-ów pojawiła się szansa, że lekarz nie będzie musiał przeglądać manualnie wszystkich zapisów w e-kartotekach, bo AI podsumuje najważniejsze informacje i trendy.

W USA, AI jest najczęściej wykorzystywana do automatycznego tworzenia EDM (źródło: AI Adoption in Healthcare Report 2024)
AI jest najczęściej wykorzystywana do automatycznego tworzenia EDM (źródło: AI Adoption in Healthcare Report 2024)

I faktycznie, generatywna AI stosowana jest najczęściej do zadań administracyjnych jak transkrypcja rozmowy lekarza z pacjentem i tworzenie na tej podstawie wpisów w EDM oraz zarządzanie dokumentacją medyczną. Równie często placówki medyczne sięgają do modeli AI w celu wyszukiwania i podsumowywania literatury medycznej. W tym zakresie najlepiej sprawdzają się rozwiązania w modelu „open-source”, które zapewniają bezpieczeństwo danych (dane medyczne nie opuszczają bazy placówki i są analizowane lokalnie). Przykładem jest Llama (Meta, dawniej Facebook).

AI jest zaskakująco często stosowana do wspomagania procesu diagnozy i w doborze terapii – częściej prywatnie przez lekarzy niż oficjalnie przez placówki medyczne. 57% badanych (raport AI Adoption in Healthcare Report 2024) wskazuje, że dzięki AI zwiększyła się efektywność pracy, 25% deklaruje oszczędności czasowe, a 21% chwali się redukcją kosztów. Najwyższe korzyści odnotowane zostały w radiologii oraz w transkrypcji rozmów lekarza z pacjentem do tworzenia wpisów w EDM.

Z drugiej strony placówki medyczne ostrożnie wdrażają AI, bo obawiają się o prywatność danych (72%) oraz stronniczość algorytmów i odpowiedzialność za błędne decyzje AI (70%). Nadal tylko niewielka część podmiotów zdrowia oferuje szkolenia z zakresu AI, co rodzi jeszcze większy opór przez technologią.

AI dobrze się sprawdza w rozwiązywaniu krytycznych problemów

W 2024 roku Chiny otworzyły pierwszy na świecie szpital w pełni zasilany AI „Agent Hospital”. Na razie pracują w nim ludzie, ale jego twórcy mają wizję, że wkrótce osiągnie pełną autonomię działania. To pokazuje, co już jest możliwe technologicznie. Ale europejskie placówki zdrowia ograniczone są przepisami prawnymi i nie mogą sobie pozwolić na eksperymentowanie bez jakichkolwiek hamulców. Zresztą wiele rozwiązań AI jest niedojrzałych i niegotowanych do pracy w medycynie.

Mimo to pierwsze podmioty z powodzeniem stosują generatywną AI. Przykładowo, w szwajcarskim Szpitalu Uniwersyteckim w Bazylei, AI podsumowuje informacje z różnych, niekompatybilnych systemów IT oraz pisze wypisy ze szpitala. Lekarze cenią sobie przede wszystkim skrócenie czasu potrzebnego na tę czasochłonną czynność.

Lekarze często prywatnie korzystają z AI np. do podsumowania wiedzy z literatury naukowej
Lekarze często prywatnie korzystają z AI np. do podsumowania wiedzy z literatury naukowej

Zanim szpital zaczął stosować AI, przeprowadził analizę gotowości, unikając podejścia „musimy mieć AI, bo inni też mają”. Obejmuje ona ryzyka operacyjne (jak wdrożenie algorytmu wpłynie na pracę personelu), finansowe (koszty utrzymania AI w przyszłości i serwisowania systemu), kliniczne (wpływ na ścieżkę opieki i wyniki pacjenta, ryzyka zdrowotne), a nawet reputacyjne (ryzyko w przypadku nieudanego wdrożenia lub błędów).

Zaleca się zadanie sobie trzech pytań:

  1. Jaki problem próbujesz rozwiązać wdrażając algorytm?
  2. Czy istnieją inne sprawdzone rozwiązania – technologiczne lub nie-technologiczne – które mogą rozwiązać problem?
  3. Czy masz wystarczająco dobre dane do zasilenia algorytmu?

Taka analiza może doprowadzić do znalezienia innych rozwiązań tego samego problemu, ale obciążonych mniejszym ryzykiem wdrożenia, a do tego mniej kosztochłonnych. Jeśli jednak zapadnie decyzja o adaptacji AI, w kolejnym kroku trzeba się zapytać o umiejętności personelu, konieczność przebudowy ścieżek opieki nad pacjentem w przypadku algorytmów wspomagających procesy kliniczne, koszty utrzymania. Do tego zaleca się wyznaczenie nienegocjowanych, minimalnych korzyści.

Jeśli placówka chce spróbować wdrożyć generatywną AI do tworzenia EDM, szybko zda sobie sprawę z potencjalnych kosztów – taki model, aby był bezpieczny, musi działać lokalnie, a to często wymaga rozbudowy infrastruktury bazy danych. Jeśli szpital albo klinika ma swój dział IT, trzeba będzie doszkolić jego pracowników.

Uwaga na dług technologiczny

Jednym z najczęstszych błędów we wdrażaniu AI jest tzw. dług technologiczny. Dyrektorzy placówek zamiast najpierw zreformować procesy organizacyjne stojące za stratami i problemami, spieszą się z zakupami i wszczepiają do organizacji rozwiązanie, na które organizacja nie jest przygotowana. Innym problemem jest ślepa wiara w obietnice dostawców – łatwo ulec urokowi ładnie przygotowanych prezentacji i nowych rozwiązań, za działaniem których nie stoją żadne badania naukowe czy dowody. Nawet jeśli jedno badanie potwierdza skuteczność algorytmu, trzeba zastanowić się razem z personelem, czy te same korzyści są do skopiowania w unikalnych warunkach placówki.

Większość lekarzy ma obawy dotyczące etycznych aspektów wykorzystania AI
Większość lekarzy ma obawy dotyczące etycznych aspektów wykorzystania AI

Jeszcze innym złudzeniem jest przekonanie, że nowe technologie automatycznie rozwiązują stare problemy. Nawet jeśli w ochronie zdrowia nie ma klasycznej konkurencji, to jest na pewno kultura ukrywania porażek i chwalenia się sukcesami. Jeśli nieprzygotowana klinika wdroży AI, wdrożenie się nie uda, a pieniądze zostaną wyrzucone w błoto, fakt ten rzadko kiedy ujrzy światło dziennie. O wiele gorsze jest utrwalenie w zespole poczucia porażki i zrażenie się do technologii. Tego można uniknąć przeprowadzając szczerą ewaluację i szukając przyczyn niepowodzenia. Jak w przypadku każdego rozwiązania cyfrowego, bez dobrej strategii, dojrzałych procesów organizacyjnych i kultury innowacyjności, wdrażanie AI jest narażone na porażkę.