Przejście na EDM to klasyczny przypadek gry koordynacyjnej, w której najważniejsze jest to, ilu graczy już wdrożyło EDM
Przejście na EDM to klasyczny przypadek gry koordynacyjnej, w której najważniejsze jest to, ilu graczy już wdrożyło EDM

W 2026 roku EDM obchodzi jubileusz, którego nie powinna obchodzić: 5 lat opóźnień. Według ostatnich statystyk, 6 na 10 placek prowadzi EDM. Kiedy uda się w końcu dokończyć jej wdrażanie? Sięgając do teorii gier i modelu dyfuzji innowacji wytypowaliśmy dwa najbardziej prawdopodobne scenariusze. Obydwa zaskakują.

Wdrożyć czy nie wdrożyć EDM?

Z perspektywy teorii gier, wdrożenie elektronicznej dokumentacji (EDM) medycznej można potraktować jako klasyczny dylemat interesów i współpracy. Kiedy w życie wszedł obowiązek EDM, czyli 1 lipca 2021 roku, każda placówka stanęła przed tym samym pytaniem: wdrożyć od razu, ponosząc koszty finansowe, czasowe i organizacyjne, czy zwlekać, licząc, że inni też tego nie zrobią i w ten sposób większość opóźnionych będzie miała siłę przebicia, a MZ nie odważy się wdrożyć środków przymusu.

Ci, którzy do dziś zwlekają z EDM wychodzą z pragmatycznego założenia: w krótkim okresie bardziej opłaca się „nie wdrażać”. Podmiot unika kosztów, wysiłku organizacyjnego i ryzyka potencjalnych zakłóceń. Jednak w dłuższej perspektywie, wraz z tym jak coraz więcej placówek przechodzi na EDM, zwlekanie się nie opłaca, bo traci się korzyści, do których mają dostęp inni, czyli wymianę danych i koordynację opieki. Z jedną uwagą: ta korzyść może mieć inną wagę w zależności od tego, jak placówka postrzega cyfryzację – jako koszt czy inwestycję – oraz która perspektywa jest dominująca – krótko- czy długoterminowa. Niezależnie od tego, teoria gier sugeruje też, że jeśli wskaźnik placówek prowadzących EDM przekroczy 50%, szala się odwraca na niekorzyść spóźnionych.

To klasyczny przypadek gry koordynacyjnej, w której najważniejsze jest to, ilu graczy już wdrożyło EDM. W teorii gier mówi się tu o tzw. punkcie równowagi Nasha. To stan, gdy – w omawianym przypadku – żaden z podmiotów nie ma motywacji, by zmienić swoją decyzję. Przykładowo, nawet jeśli większość innych placówek już wdrożyła EDM, mniejsze placówki i tak nie zmienią swojej decyzji o niewdrażaniu, bo ich indywidualny koszt nadal nie przewyższa potencjalnych plusów, niezależnie od tego, jak są one oczywiste z punktu widzenia lekarza czy pacjenta. Jeśli w lokalnym ekosystemie jest więcej takich placówek, wzmacniają się w przekonaniu, że robią dobrze. Jak widać, gra toczy się o postrzegane, a nie obiektywne korzyści i koszty.

Model adaptacji innowacji na rynku
Model adaptacji innowacji na rynku

„Maruderów” zmusi tylko prawo

Jeśli teorię gier uzupełnimy teorią dyfuzji innowacji otrzymamy przybliżoną liczbę, ile placówek nie wdroży EDM bez przymusu. Zgodnie z nią, każda innowacja przechodzi przez 5 faz i ma 5 grup użytkowników. Wcześni innowatorzy, czyli pionierzy z entuzjazmem wdrażają nowinki, ale stanowią tylko ok. 2,5% docelowych użytkowników technologii. Za nimi idą wcześni naśladowcy, których przekonują argumenty pionierów. Jest ich ok. 13,5%. Kolejną grupą jest wczesna większość, stanowiąca 34% wszystkich adresatów technologii. Są oni sceptyczni na początku, ale widząc, że wszystko działa jak trzeba, w końcu decydują się na wdrożenie. Dalej jest późna większość (także 34%), czyli ci, którzy wdrażają, bo rośnie presja. Na tym etapie jest właśnie wdrażanie EDM i jeśli Ministerstwo Zdrowia zna teorię gier, to strategicznie czeka, aż zrobi to min. 50% późnej większości. Dlaczego? Bo wie, że tzw. maruderów (16%) przekona już jedynie przymus. Ale jeśli EDM wdroży 70–80%, co jest realne, będzie miało twardy argument do opcji atomowej, czyli np. rozliczeń z NFZ na podstawie świadczeń medycznych indeksowanych w P1. Wtedy zyska poparcie większości, która traci na tym, że mniejszość zwleka. Ta teoria też jasno pokazuje, że prędzej czy później opcja przymusu będzie nieunikniona. Niezależnie od tego, jak dobra jest technologia, sceptycy zawsze byli i będą.

Skoro EDM przeszła już pierwsze trzy etapy krzywej wdrażania technologii i znajduje się w czwartej na pięć faz, sprawa jest jasna: EDM nie jest już kwestią ani technologii, ani kosztów, ale społeczną. Barierą są przyzwyczajenia i strach przed zmianą. Oczywiście mały margines trzeba zostawić dla placówek, które faktycznie borykają się z obiektywnymi przeszkodami jak np. brak dostępu do dobrego połączenia internetowego.

Newsletter OSOZ

Modele modelami, ale do tego dochodzi polityka

Te symulacje trzeba skorygować danymi historycznymi i polityką. EDM miała być obowiązkowa od 1 lipca 2021 roku, czyli na półmetku rządu Prawa i Sprawiedliwości, które to wygrało wybory w 2019 roku. Według badania stopnia informatyzacji prowadzonego przez Centrum e-Zdrowia, w 2021 roku EDM prowadziła zdecydowana mniejszość. Przykładowo, rok przed wyborami, bo w 2022 roku, 45,7% badanych zadeklarowała, że prowadzi EDM w zakresie informacji dla lekarza kierującego świadczeniobiorcę do poradni specjalistycznej lub leczenia szpitalnego o rozpoznaniu, sposobie leczenia, rokowaniu, ordynowanych lekach, środkach spożywczych specjalnego przeznaczenia żywieniowego i wyrobach medycznych; 28,4% badanych placówek – w zakresie wyników badań laboratoryjnych wraz z opisem, a co trzeci ankietowany podmiot (33,2%) – w zakresie opisu badań diagnostycznych innych niż laboratoryjne. Czyli nadal zdecydowanie za mało, aby ryzykować politycznie opcję przymusu przed wyborami w 2023 roku. I tak PiS odstawił EDM na bok.

Już w innej sytuacji jest obecna Koalicja Rządząca. Kolejne wybory są w 2027 roku. W 2026 roku procent placówek prowadzących EDM przekroczy najpewniej ok. 60%. Jeśli tak się stanie, wprowadzenie przymusu będzie już odpowiednio uzasadnione, ale nadal ryzykowne – na rok przed wyborami lepiej unikać wrażliwych tematów. W międzyczasie o wiele ważniejsze jest wdrożenie Centralnej e-Rejestracji, bo to ona ma „dowieźć” wyborczą obietnicę skrócenia kolejek. Przymus i osiągnięcie 100% placówek prowadzących EDM nie przyniesie medialnie atrakcyjnych korzyści dla pacjentów, które można by wykorzystać w kampanii – to, co liczy się dla pacjentów, to kolejki do lekarzy, a nie wyższa jakość opieki czy koordynacja wynikająca z możliwości wymiany danych.

Pobierz nowy numer czasopisma OSOZ
Pobierz nowy numer czasopisma OSOZ

Co z tego wynika? Trzy scenariusze. Pierwszy z nich zakłada efekt domina. Wdrażanie przekracza punkt przeciążenia, czyli 60% podmiotów z EDM, a placówki zaczynają odczuwać korzyści z wymiany danych. Opóźnieni widzą, że nie ma już odwrotu od EDM. Coraz częściej pojawiają się informacje o rozliczeniach z NFZ na podstawie zdarzeń medycznych indeksowanych w P1, koordynacja opieki nie jest możliwa bez EDM. W teorii gier to moment, w którym strategia „wdrażam EDM” staje się dominująca, bo zapewnia przynależność do większości i realne korzyści. Nikt nie chce być na końcu, a to odczucie wkrótce zacznie pukać do drzwi „maruderów”.

W drugim scenariuszu EDM osiąga stan równowagi Nasha: część placówek konsekwentnie nie będzie prowadziła EDM, ale nie przeszkadza im to funkcjonowaniu. Na tym etapie nie pomoże już wsparcie finansowane dla opóźnionych, zresztą byłoby ono niesprawiedliwe w stosunku do tych, którzy EDM wdrożyli po własnych kosztach.

W trzecim, najbardziej prawdopodobnym scenariuszu, adopcja EDM będzie powoli osiągać poziom ok. 70%. Wówczas MZ może wykorzystać argument, że większość już wdrożyła i zmusić „maruderów”. Opcja szoku regulacyjnego jest nieunikniona, bo inaczej mniejszość będzie blokowała pełne korzyści z EDM. Pozostaje pytanie, czy stanie się to jeszcze przed wyborami w 2027 czy dopiero po nich.

W modelu dyfuzji innowacji, tempo adopcji (krzywa S) przyspiesza po przekroczeniu progu 50%, a potem spowalnia, gdy zbliża się do nasycenia (100%). Jeśli obecne 60% odpowiada środkowi krzywej, możemy oczekiwać, że w ciągu 2–3 lat poziom adopcji osiągnie ok. 75%, o ile nie wystąpią jakieś nieprzewidywalne sytuacje.

Zwlekający z EDM są na przegranej pozycji

EDM jest już technicznie dojrzała i teraz jej wdrożenie zależy bardziej od mechanizmów społecznych i regulacyjnych niż od technologii. Teoria gier wskazuje, że placówki zachowują się racjonalnie w sensie lokalnym – minimalizują własne ryzyko. Teoria dyfuzji innowacji z kolei pokazuje, że dalszy rozwój zależy od motywacji późnej większości i maruderów, którzy reagują głównie na presję społeczną i administracyjną.

Doszliśmy już do 60%, czyli punktu przeciążenia. MZ powinno teraz szeroko komunikować korzyści EDM, także do pacjentów. Jeśli zabraknie zachęt lub zapowiedzi sankcji, EDM może się zatrzymać na obecnym poziomie, a podział pomiędzy prowadzącymi i nieprowadzącymi EDM utrwali się na długo. Jaka jest zatem nasza prognoza? Według wszystkich modeli, EDM zostanie w 100% wdrożona na przełomie 2026/2027 albo w drugiej połowie 2028 roku. Wynika to z teorii adaptacji technologii i kalendarza wyborów. W 2026/2027 roku kiedy można będzie powołać się na większość tych, którzy wdrożyli EDM, odbierając argumenty mniejszości. 2028 rok, bo po wygranych wyborach nie zaczyna się od restrykcji. Miejmy nadzieję, że pełne wdrożenie EDM jest kwestią 2–3 lat.

Różne aplikacje, różne formaty danych i chaos informacyjny - to codzienność placówek zdrowia
Różne systemy IT, różne formaty danych i chaos informacyjny – to codzienność placówek zdrowia

Każda placówka ma swoją indywidualną historię cyfryzacji. Oprogramowanie IT rozrasta się, dochodzą nowe aplikacje – czasami innych dostawców. Placówka stopniowo dojrzewa cyfrowo, ale wraz z tym infrastruktura danych staje się coraz bardziej zawiła, aż w końcu nikt nad nią nie panuje. Taki stan, pod którym może podpisać się wiele przychodni i szpitali, to nie tylko problem danych, ale i koordynacji opieki.

Dane determinują płynność działania i jakość opieki

Kiedy wchodząc do placówki medycznej wszystko działa jak trzeba, to znak, że informacje płynnie przepływają pomiędzy pracownikami, wydziałami, administracją i częścią kliniczną. Pacjent nie oczekuje zbyt długo na wizytę, każdy dokładnie wie, co robić, nie ma pośpiechu na korytarzu. Lekarz ma dostęp do danych pomagających mu podejmować decyzje, a cała uwaga skupia się na pacjencie, a nie na procesach administracyjnych.

Zakłóceń w przepływie informacji zazwyczaj nie widać, ale z czasem kumulują się one w duże nieefektywności. Panuje chaos, pracownicy tracą czas na szukaniu informacji, a to odbija się na jakości opieki nad pacjentem. To pierwszy znak, że trzeba uporządkować i uprościć przepływy informacji i uporządkować dane.

Zdecydowana większość menedżerów ochrony zdrowia wie, jak ważny jest niezakłócony obieg informacji. Ale niewielu może się pochwalić dobrze działającą infrastrukturą danych. Od czego zacząć? Przede wszystkim od weryfikacji, jak i gdzie dane są przechowywane. Jeśli na tej liście jest kilka niepołączonych ze sobą systemów, rozwiązanie musi być radykalne: wprowadzenie jednego, zintegrowanego systemu z jedną bazą danych. I to możliwie szybko.

9 bazowych pytań, od których zaczyna się wzmacnianie infrastruktury danych
9 bazowych pytań, od których zaczyna się wzmacnianie infrastruktury danych

Niewidzialna ręka dobrej cyfryzacji

Wymiana systemu może być droga, ale w efekcie suma wydatków zamortyzuje się w kilka lat. Czasami potrzebna będzie tylko rozbudowa już posiadanego systemu, jeśli jest on na tyle elastyczny i daje takie możliwości. Przy tym trzeba myśleć nie o dzisiejszych potrzebach, ale o tym, co będzie za kilka lat. Biorąc pod uwagę bezpieczeństwo danych, upowszechnienie algorytmów AI oraz integrowanie przepływów danych między placówką a pacjentem, pierwszym wyborem jest chmura danych. Ta pozwoli wdrażać elastycznie nowe technologie jak generatywną sztuczną inteligencję.

Newsletter OSOZ

Dobry system daje gwarancję, że w razie potrzeby będzie go można skalować, elastycznie rozbudowywać, dostosowywać do nowych wymagań raportowania i potrzeb biznesowo-klinicznych. Doświadczony dostawca zaoferuje na czas potrzebny upgrade, moduł do obsługi nowej specjalizacji w ramach rozwijającej się placówki albo rozwiązanie AI, które stało się właśnie technologicznie możliwe, a które znacznie ułatwia pracę. Dobrym przykładem są wymagane centralnie funkcjonalności e-zdrowia jak EDM czy Centralna e-Rejestracja. Klienci dużych firm IT mogli je wdrożyć na wczesnym etapie, bo mają odpowiednie zasoby kadrowo-logistyczne, aby szybko przygotować i udostępnić nową funkcjonalność

Ale to też pewność, że dane są dobrze chronione dzięki wbudowanym zabezpieczeniom zgodnym z najnowszymi standardami. Tego też nie widać na pierwszy rzut oka, ale bezpieczeństwo danych jest podstawą zaufania pracowników do cyfrowej infrastruktury.

Infrastruktura IT gotowa na centralne wymagania i warunki rynkowe

Infrastruktura cyfrowa jest jak żywy organizm – musi ciągle się rozwijać, a czasami nawet wyprzedzać aktualne wyzwania zarządzania danymi. Dzisiaj dane są jeszcze zamknięte w placówkach i tylko niektóre z nich – na razie w ramach Elektronicznej Dokumentacji Medycznej – są wymieniane. Niedługo dołączą do nich nowe dokumenty obligatoryjne w EDM, powstaje Centralna e-Rejestracja, lekarze zyskają dostęp do podsumowania pacjenta (Patient Summary) wdrażanego w ramach Europejskiej Przestrzeni Danych Zdrowotnych (EHDS). MZ ma ambicję wprowadzenia standardu zapisu wyników badań laboratoryjnych (LOINC). Można się spodziewać kolejnych programów profilaktycznych, a za kilka lat standardem może być opieka farmaceutyczna i opieka koordynowana w kolejnych grupach pacjentów – to wszystko powoduje, że placówki zdrowia będą wymieniały ze sobą kolejne rodzaje danych. I to nie tylko między sobą, ale też z aptekami.

Oprócz tych zewnętrznych zmian w systemie zdrowia, motywacją do priorytetowego traktowania ekosystemu danych powinny być też wewnętrzne korzyści: sprawniejsza komunikacja z pacjentem, szybsze podejmowania decyzji medycznych opartych na dowodach, mniejsze obciążenia administracyjne. Do tego dochodzi cały szereg nowych możliwości, które uwolnią algorytmy AI. Oczywiście można podważać sens proaktywnej cyfryzacji, dbania o dane i wdrażania nowości IT argumentując, że płatnik publiczny nie płaci za jakość, ale za wykonania. To jednak błędne koło – placówka zdrowia nie tylko musi zadbać o dodatni wynik finansowy, ale też o swoich pracowników, zwłaszcza w sytuacji braków kadrowych. Dobra infrastruktura danych pozytywnie odbija się na obydwu elementach, likwidując nieefektywności, marnotrawstwo zasobów i oszczędzając czas. Suma summarum ostatecznie największym beneficjentem będzie pacjent.

Od 9 miesięcy systematycznie spada liczba wydawanych zamienników leków w aptekach. Co jest tego powodem? W 2024 roku apteki sprzedały ponad 43 mln opakowań leków na zgagę i nadkwasotę żołądka. To rekord na przestrzeni ostatnich 20 lat. Zapoznaj się z najnowszymi danymi z rynku farmaceutycznego.

Grudniowe wydanie OSOZ Statystyki - pobierz raport
OSOZ Statystyki 12/2025

W numerze 12/2025 OSOZ Statystyki:

Spada skala substytucji aptecznej

Skala substytucji aptecznej – czyli zamiany leku na ten przepisany przez lekarza – od lat oscyluje na poziomie 5%. W pierwszych trzech kwartałach 2025, zamienniki stanowiły 4,7% wszystkich opakowań leków wydanych pacjentom w aptekach. Substytucja dla leków pełnopłatnych rośnie w czasie – z 5,6% w październiku 2023 do 6% we wrześniu 2025. W tym samym okresie substytucja leków refundowanych spada z 4,2 do 3,3%.

Najczęstszym powodem zamiany leku z recepty na odpowiednik jest brak leku na magazynie aptecznym. We wrześniu 2025 roku, aż 62% przypadków substytucji było spowodowane właśnie występowaniem stock-outu. Poziom wpływu zatowarowania na skalę substytucji jednak spada w czasie – we wrześniu 2023 roku brak leku w aptece odpowiadał za 71% sytuacji, w której pacjent otrzymał odpowiednik. Pozostałe – niemal 40% przyczyn substytucji – to tak zwana substytucja czynna. To sytuacja, w której pacjent otrzymuje inny lek niż przepisany na recepcie, ale nie wynika to z braku na magazynie aptecznym. Pacjent prosi o inny, na przykład tańszy, lek albo zamiana odbywa się z rekomendacji farmaceuty. Poziom tego typu substytucji rośnie w czasie.

Czytaj dalej 👉

Sprzedaż leków na zgagę i nadkwasotę żołądka

W okresie zaledwie 10 lat, sprzedaż leków na zgagę i nadkwaśność żołądka wzrosła o 35%, a w okresie ostatnich 20 lat – aż czterokrotnie. W 2024 roku apteki sprzedały 43 mln opakowań. Rosnąca sprzedaż jest efektem pogarszających się nawyków żywieniowych, ale i intensywnych kampanii leków na niestrawność i zgagę. W oczy rzuca się korelacja między porą roku a popytem – latem jest on najmniejszy, a największy w grudniu, co w dużym stopniu ma związek ze spotkaniami świątecznymi przy obfitym stole. Na uwagę zasługuje też trend ceny. Do czasu pandemii COVID-19, czyli 2019 roku, średnia cena opakowania systematycznie malała i w 2019 roku osiągnęła rekordowo niski poziom 14,36 zł. Potem zaczęła szybko rosnąć i do 2024 wzrosła o 25% do poziomu 17,83 zł.

Szacuje się, że zgaga dotyka ok. 20–30% dorosłych.

Czytaj dalej 👉

Ponadto w numerze:

Archiwalne wydania OSOZ
Omnimedis łączy dane rozproszone w różnych częściach systemu w wiedzę wspomagającą opiekę nad pacjentem
Omnimedis łączy dane rozproszone w różnych częściach systemu w wiedzę wspomagającą opiekę nad pacjentem

Płynna koordynacja opieki na pacjentem to kwestia inteligentnego łączenia danych w wiedzę, która wspiera sprawne zarządzanie i podejmowanie decyzji diagnostyczno-terapeutycznych. KAMSOFT zaprezentował system IT OSOZ-OmniMedis, który ma w tym pomóc. Środowisko integracyjne API.MED pozwala zamienić rozproszone dane w jeden ekosystem.

Zintegrowana platforma do kompleksowej opieki nad pacjentem i sprawnego zarządzania placówką medyczną

Prowadzenie kompleksowej koordynacji opieki nad pacjentem wymaga jednoczesnego działania na dwóch kluczowych płaszczyznach. Z jednej strony należy zadbać o perfekcyjną organizację samej placówki, a z drugiej – o precyzyjne zaplanowanie i monitorowanie ścieżki leczenia pacjenta.

Efektywność operacyjna, sprawne zarządzanie grafikami wizyt oraz optymalne wykorzystanie gabinetów stanowią fundament, na którym opiera się cała reszta. Z kolei planowanie, monitorowanie i standaryzacja ścieżki leczenia pacjenta są kluczowe dla osiągnięcia celów medycznych. Dzięki temu każdy pacjent otrzyma opiekę zgodną z najlepszymi standardami, a cały proces będzie przewidywalny i mierzalny.

Aby sprostać obu tym wyzwaniom jednocześnie, nowoczesne placówki medyczne mogą sięgnąć po zintegrowane systemy informatyczne jak np. OSOZ-OmniMedis produkcji KAMSOFT. Jak to działa w praktyce?

Zarządzanie skoordynowaną opieką nad pacjentem

OSOZ – OmniMedis to holistyczne i wielowymiarowe podejście do koordynacji opieki nad pacjentem. Obejmuje całościowe spojrzenie na koordynację zarówno od strony medycznej, jak i organizacyjnej. Przekształca proces w konkretne, mierzalne działania, które przekładają się na lepszą jakość opieki i wyższą efektywność organizacji. Lekarz i koordynator otrzymują rozwiązanie IT, które umożliwia tworzenie spersonalizowanych, wieloetapowych ścieżek terapeutycznych dla pacjentów zgodnie z obowiązującymi standardami medycznymi, na bieżąco monitorują postępy w realizacji planu leczenia, co pozwala na szybką reakcję na ewentualne odchylenia i zapewnia ciągłość opieki.

Inteligentne powiadomienia o kluczowych zmianach w parametrach zdrowia pozwalają skupić się na pacjencie, a nie na analizie i administracji
Inteligentne powiadomienia o kluczowych zmianach w parametrach zdrowia pozwalają skupić się na pacjencie, a nie na analizie i administracji

Merytoryczne wsparcie algorytmów medycznych i sztucznej inteligencji

Analizy medyczne wspierają lekarza w podejmowaniu decyzji klinicznych. Jak działają? Na podstawie danych pacjenta (m.in.: wyniki badań, wiek, waga, historia zdrowia i choroby, informacje z innych placówek medycznych) mogą z wyprzedzeniem sugerować np. podwyższone ryzyko występowania określonej choroby. Co ważne, profesjonalista medyczny ma dostęp do wszystkich informacji w jednym miejscu, co eliminuje czasochłonne przeszukiwanie różnych systemów czy dokumentów. Raporty generowane są automatycznie przed wizytą a inteligentne powiadomienia o kluczowych zmianach pozwalają skupić się na pacjencie, a nie na analizie i administracji.

Wsparcie zarządzania operacyjnego

Centralizacja zadań administracyjnych pozwala na sprawniejsze podejmowanie decyzji i nadzór nad działalnością operacyjną. Moduły do tworzenia i prowadzenia grafików pracy personelu medycznego dostępne w OSOZ-OmniMedis, zapewniają przejrzystość i kontrolę nad dostępnością usług. Platforma OSOZ-OmniMedis jest dostępna w dwóch wariantach – ONE oraz PRO. Podział ten został zaprojektowany tak, aby umożliwić elastyczne dopasowanie rozwiązania do skali działalności i strategicznych celów organizacji, od pojedynczych, samodzielnych placówek, po rozbudowane sieci medyczne i złożone struktury organizacyjne. Wersja PRO stanowi rozszerzenie funkcjonalne wersji ONE, oferując zaawansowane narzędzia do zarządzania i integracji.

Kluczowym elementem wyróżniającym wersję PRO, szczególnie z perspektywy działów IT, jest platforma integracyjna, która otwiera system na współpracę z zewnętrznymi rozwiązaniami.

Platforma Integracyjna API.MED

W nowoczesnej opiece zdrowotnej interoperacyjność systemów informatycznych jest warunkiem koniecznym do zapewnienia ciągłości i bezpieczeństwa opieki. Platforma integracyjna API.MED, dostępna jako opcja w wersji OSOZ-OmniMedis PRO, stanowi bezpośrednią odpowiedź na tę potrzebę, oferując bezpieczne i udokumentowane API. Dla menedżerów IT i architektów systemów, API.MED jest strategicznym komponentem umożliwiającym budowę spójnego, zintegrowanego ekosystemu technologicznego. Pozwala na dwukierunkową wymianę danych z kluczowymi systemami dziedzinowymi, takimi jak systemy szpitalne (HIS), laboratoryjne (LIS) czy radiologiczne (RIS), co eliminuje potrzebę ręcznego przepisywania danych, minimalizuje ryzyko błędów i tworzy jednolity, cyfrowy rekord pacjenta dostępny w czasie rzeczywistym. Dzięki temu OSOZ-OmniMedis może stać się centralnym hubem koordynacji opieki, jednocześnie czerpiąc dane i zasilając inne, wyspecjalizowane narzędzia.

Podsumowując, rozwiązania IT, takie jak OSOZ-OmniMedis, stają się kluczowym narzędziem w rękach nowoczesnego menedżera ochrony zdrowia. W dobie rosnącej złożoności systemów opieki zdrowotnej, presji kosztowej, braków kadrowych i coraz wyższych oczekiwań pacjentów, tradycyjne metody zarządzania oparte na papierowej dokumentacji, rozproszonych arkuszach Excela stają się po prostu niewydolne.

 AI przysłuchuje się rozmowie lekarza z pacjentem, transkrybuje ją, a następnie automatycznie wprowadza informacje do pól w dokumentacji medycznej
AI przysłuchuje się rozmowie lekarza z pacjentem, transkrybuje ją, a następnie automatycznie wprowadza informacje do pól w dokumentacji medycznej

AI scribes, czyli systemy generatywnej sztucznej inteligencji automatyzujące tworzenie EDM, oszczędzają czas, zmniejszają wypalenie zawodowe i poprawiają relacje z pacjentem – potwierdzają kolejne dwa badania naukowe. Lekarze spędzają mniej czasu z komputerem i są mniej obciążeni pracami administracyjnymi.

W końcu komputer pomaga a nie przeszkadza

AI w EDM działa w prosty sposób: sztuczna inteligencja rejestruje w czasie rzeczywistym rozmowę z pacjentem i transkrybuje ją, a następnie automatycznie wprowadza informacje do pól w dokumentacji medycznej, jak np. rozpoznanie, objawy, recepta itd. Lekarz weryfikuje zebrane informacje, potwierdza lub edytuje i gotowe. Bez pisania i klikania. Jak dowodzą dwa nowe badania naukowców z University of Chicago Medicine opublikowane w JAMA Network Open, takie systemy – nazywane inteligencją otoczenia – dają wymierne korzyści.

Newsletter OSOZ

W pierwszym badaniu „Wykorzystanie ambient AI Scribes w celu zmniejszenia obciążenia administracyjnego i wypalenia zawodowego” („Use of Ambient AI Scribes to Reduce Administrative Burden and Professional Burnout) o opinię zapytano 250 lekarzy z 6 systemów opieki zdrowotnej USA, które wdrożyły pilotażowo AI do EDM. Rezultaty zaskoczyły: wypalenie zawodowe lekarzy spadło z 52% do 39% (o 20%), a uczestnicy deklarowali m.in. że czas uzupełniania dokumentacji po godzinach pracy zmniejszył się o prawie 60 minut, z kolei obciążenie poznawcze związane z pracami administracyjnymi spadło o 2,64 punktów w 10-stopniowej skali.

Dr Neda Laiteerapong, zastępca dyrektora Centrum Badań i Polityki Chorób Przewlekłych i jedna z autorek badania, stwierdziła, że wyniki odzwierciedlają jej obserwacje jako jednego z ponad 800 lekarzy UChicago Medicine stosujących AI. Zauważono także, że pacjenci bardziej przestrzegali zaleceń lekarskich.

Kilka godzin zaoszczędzonych w tygodniu

W drugim badaniu „Wykorzystanie AI Scribe i efektywność elektronicznej dokumentacji medycznej” („Use of an AI Scribe and Electronic Health Record Efficiency”) szczegółowo przeanalizowano dane z pilotażowego programu dokumentacji klinicznej, koncentrując się na czasie poświęcanym przez lekarzy na tworzenie EDM.

Okazało się, że narzędzia AI do EDM doprowadziły do 8,5-proc. redukcji czasu poświęcanego na sporządzanie dokumentacji medycznej. Jak zauważyli autorzy badania, to może wydawać się mało, ale jeśli lekarz przyjmuje np. 20 pacjentów dziennie, oszczędza 2–3 minuty na wizycie, co sumuje się w kilka godzin tygodniowo.

Choć korzyści płynące z dokumentacji klinicznej wspomaganej AI wydają się oczywiste, eksperci podkreślają, że takie badania są ważne, bo dają konkretne liczby pokazujące skalę zwrotu z inwestycji w AI – zwłaszcza w aspekcie efektywności pracy i zadowolenia personelu oraz pacjentów. – Wprowadzenie takich innowacji technologicznych do opieki zdrowotnej wiąże się z kosztami, dlatego chcemy mieć pewność, że naprawdę stanowią one wartość dodaną dla pacjentów i pracowników – mówi Laiteerapong. To nie pierwsze badania pokazujące jak AI zmieni na lepsze sposób prowadzenia EDM. W poprzednich deklarowane oszczędności czasu sięgały nawet 20–30% przy bardzo pozytywnych opiniach pacjentów.

Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki
Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki

Czy obietnice związane z AI w medycynie są realne? Czy nowe modele AI będą wolne od halucynacji? Kiedy pierwsze komputery kwantowe zaczną szukać nowych leków? Wywiad z Profesorem Alfonso Valencia, dyrektorem działu nauk przyrodniczych w Barcelona Supercomputing Center (BSC) – jednego z największych europejskich hubów AI.

Newsletter OSOZ

W ciągu ostatnich 3 latach byliśmy świadkami szybkiego rozwoju sztucznej inteligencji, zwłaszcza modeli generatywnych. Czy możemy spodziewać się nowych, lepszych modeli niż te dostępne?

Nie sądzę, że modele, które mamy obecnie – czyli te mające zastosowanie w narzędziach takich jak ChatGPT – to końcowy etap rozwoju sztucznej inteligencji. W rzeczywistości to bardzo prosta technologia, bo opiera się na bazowych regułach statystyki. I nawet jeśli ChatGPT czasami sprawia takie wrażenie, to nie rozumie ani kontekstu, ani sytuacji, o których z nim rozmawiamy. Po prostu wypluwa zdania, które są najbardziej prawdopodobne w odniesieniu do zadanego pytania.

Powiem inaczej: jeśli modele generatywnej AI to wszystko, co w dziedzinie AI osiągnęliśmy na kolejne lata, to wówczas mamy poważny problem.

Dlaczego?

LLM są z definicji bardzo niewiarygodne. Nie wiemy, czy odpowiedzi generowane przez modele generatywne są poprawne i w jakim stopniu możemy im ufać. To stawia nas w bardzo trudnej sytuacji, bo trudno stwierdzić, na ile możemy wykorzystywać dalej uzyskane wyniki. I to niezależnie od tego, czy generujemy tekst czy obrazek.

To dlatego naukowcy i firmy nowych technologii na całym świecie robią wszystko, aby zwiększyć stopień użyteczności modeli generatywnej AI i skompensować istniejące niedoskonałości. Pamiętajmy, że w biologii i medycynie czynnik zaufania ma ogromne znaczenie. Dlatego wprowadzane są ulepszenia w transformerach (redakcja: architektura uczenia głębokiego opracowana przez Google) i innych architekturach AI. Pojawiają się coraz to lepsze modele i coraz to lepsza inżynieria modeli. Nie rozwiązuje to jednak podstawowego problemu, czyli ograniczeń generatywnej AI wynikających z ich natury działania.

Jedną z głównych obaw związanych z generatywną sztuczną inteligencją są tzw. halucynacje. Nowy model GPT-5, który miał premierę w sierpniu br., zmniejsza ich występowanie kilkukrotnie, jak deklaruje OpenAI. Czy można je całkowicie wyeliminować?

Z perspektywy maszyny halucynacje nie są tak naprawdę „błędami”. System po prostu maksymalizuje prawdopodobieństwa analizując różne możliwe scenariusze. Z ludzkiego punktu widzenia, gdy wynik nie odpowiada prawdzie, uważamy to za błąd. Jest to nieodłączna cecha działania systemów opartych na prawdopodobieństwie, a ich wyeliminowanie jest niemożliwe.

Dlatego obecne wysiłki koncentrują się na budowaniu kolejnych warstw kontroli. Przykładowo, może to być mechanizm weryfikacji wyniku w dostępnych bazach wiedzy albo tzw. walidacja międzymodelowa, czyli porównanie wyników kilku modeli. W ten sposób, AI jest wprawdzie coraz bardziej niezawodna, ale mimo to, żadne z tych interwencji nie eliminuje nieodłącznej niepewności towarzyszącej generatywnej AI. Co gorsza, nawet nie mamy dobrego sposobu na zmierzenie tej niepewności w działaniu modeli.

W dziedzinie, którą głownie się zajmuję, czyli w modelowaniu struktur białek, system taki jak AlphaFold daje poziom pewności na poziomie 80 – 90 proc. I w wielu przypadkach taki poziom jest zupełnie wystarczający i może prowadzić do rewolucyjnych odkryć.

W przypadku modeli językowych lub modeli generujących grafikę, nie mamy takiej pewności. Nie ma sposobu, aby stwierdzić, że dana odpowiedź jest wiarygodna w np. 80%. Dla mnie jest to kluczowa różnica. Inżynieria może ograniczyć liczbę błędów, ale nie może dać nam tego wskaźnika pewności. To sprawia, że technologia generatywnej AI jest niestabilna.

Mimo tych ograniczeń zachwyt nad generatywną AI nie słabnie. Niektórzy liderzy firm nowych technologii zaczynają mówić, że to bańka, która wkrótce pęknie.

Patrząc na liczby, trudno uwierzyć, że taki poziom inwestycji będzie utrzymywany w nieskończoność. Ogromne sumy pieniędzy płyną do firm takich jak OpenAI czy startupów AI. Ale czy zarabiają one wystarczająco dużo na AI, aby uzasadnić te inwestycje? Czy dzięki modelom AI można uzyskać rzeczywisty wzrost wydajności, który odpowiada szumowi medialnemu? Nie jest to aż tak oczywiste.

Z historii znamy wiele przereklamowanych technologii, które napędzały krótkoterminowe oczekiwania. Inwestowano bez zbytniego martwienia się o to, co będzie później. Podobnie obecny szum nie sprzyja zrównoważonemu rozwojowi AI.

W biomedycynie jest jednak inaczej, bo sztuczna inteligencja już przynosi konkretne efekty. Przykładem jest szukanie nowych struktur białek w pracach nad lekami, AI analizująca duże ilości danych genetycznych w medycynie personalizowanej albo modele stosowane do podsumowywania dokumentacji medycznej. To rzeczywistość, a nie obietnica. Nawet jeśli niektóre firmy AI upadną pod ciężarem niezrównoważonych inwestycji, społeczność naukowa będzie nadal korzystać z nowych modeli i wcześniejszych postępów.

Oprócz projektowania struktur białek, wsparcia w EDM albo genomice, jakie jeszcze zastosowania sztucznej inteligencji w medycynie zasługują na uwagę?

Jest ich wiele – od biologii przedklinicznej, czyli badań przed wprowadzeniem leku do stosowania u ludzi, po zastosowania kliniczne jak algorytmy wspomagające podejmowanie decyzji. Kilka lat temu w artykule opublikowanym w czasopiśmie Science napisano, że kolejnym frontem rozwoju modeli językowych jest biologia i medycyna. I to prawda. Coraz więcej badaczy zajmujących się AI przechodzi do nauk o zdrowiu, ponieważ jest to dziedzina, gdzie zastosowania AI mogą być bardzo szerokie.

Do tego dochodzi jeszcze jeden argument: wpływ AI w medycynie można badać, a sama AI ma realny wpływ na życie i zdrowie człowieka. W innych dziedzinach prace nad AI są bardzo teoretyczne i nie dają tej samej satysfakcji i wymiernych korzyści.

Powracając do pytania, oprócz odkrywania nowych leków, zwróciłbym jeszcze uwagę na zastosowanie generatywnej AI w tworzeniu dokumentacji medycznej. Szpitale już od dawna są wyposażone w technologie obrazowania medycznego wspomagane AI. Jednak wąskim gardłem zawsze był dostęp do dużych ilości danych medycznych, ich przetwarzanie i wyciąganie na ich podstawie wniosków do decyzji klinicznych.

Obecnie, po raz pierwszy mamy możliwość łączenia tekstów, obrazów, wyników badań laboratoryjnych, informacji genetycznych, rezultatów badań naukowych. W ten sposób powstaje nowa wiedza, którą możemy wykorzystać np. do precyzyjnego leczenia nowotworów. Bardzo duży potencjał AI widzę także w kardiologii, neurologii i zdrowiu psychicznym.

Trwa „wyścig AI”: Chiny są już dziś liderem jeśli chodzi o liczbę patentów AI, Stany Zjednoczone przodują w komercjalizacji. Czy Europa, wprawdzie silna w ośrodki naukowe, ale ograniczona regulacjami prawnymi, liczy się w tym maratonie?

I tak i nie. Pozytywnym trendem są duże inwestycje w moc obliczeniową. W ramach inicjatywy AI Gigafactory na ten cel przeznaczono 200 mld euro ze środków prywatnych i dofinansowania Komisji Europejskiej. To ogromna kwota, a inwestycje przełożą się na ogromną moc obliczeniową pozwalającą wykorzystywać i opracowywać nowe algorytmy AI (redakcja: Polska stara się obecnie o utworzenie Baltic AI GigaFactory).

Drugim optymistycznym sygnałem są zmiany w polityce AI. UE postanowiła ściślej współpracować z przedsiębiorstwami, inwestując bezpośrednio w projekty, które przynoszą korzyści europejskiemu przemysłowi. To nowość.

Pod względem naukowym Europa jest silna, ale bądźmy szczerzy – wszystkie nagrody Nobla nadal trafiają do Amerykanów. Trudno konkurować z takim poziomem pieniędzy jak w USA. Potrzebujemy większych inwestycji w naukę. Jednak aby tak się stało, rządy poszczególnych krajów członkowskich muszą zrozumieć, że AI wymaga specjalnych programów finansowania.

Do tego dochodzi regulacja. Europa ma tendencję do regulowania na długo przed pełnym rozwojem technologii, co blokuje wszelkie inwestycje. Nie jestem przeciwny regulacjom, bo są one konieczne. Jednak same regulacje nie budują potencjału. Nie ma sensu regulować czegoś, co inni już rozwijają i wprowadzają do rozwiązań konsumenckich.

Kolejną technologią budzącą emocje są obliczenia kwantowe. Barcelona Supercomputing Center posiada już komputer kwantowy. Jak daleko jesteśmy od rzeczywistych zastosowań quantum computing w medycynie?

Tak, mamy już komputer kwantowy zakupiony przez rząd hiszpański i czekamy na drugi sfinansowany ze środków europejskich. Będzie one częścią kontynentalnej sieci komputerów kwantowych.

Maszyny te są nadal w fazie eksperymentalnej. Istnieją projekty badawcze w dziedzinie biologii wykorzystujące algorytmy kwantowe do wielokrotnego dopasowywania sekwencji, rekonstrukcji drzewa filogenetycznego czy w analizie obrazów. Gdy komputery kwantowe uzyskają stabilność pracy, pomogą w rozwiązywaniu bardzo palących problemów wymagających ogromnych mocy obliczeniowych, nieosiągalnych z wykorzystaniem klasycznych komputerów.

A kiedy będziemy mieli pierwsze w pełni funkcjonalne komputery kwantowe? Niektórzy twierdzą, że za pięć lat, a inni – że to kwestia dekad. Szczera odpowiedź brzmi: nie wiemy.

Komputer kwantowy w Barcelona 
Supercomputing Center.
Komputer kwantowy w Barcelona Supercomputing Center

Geoffrey Hinton, laureat Nagrody Nobla za pracę nad sieciami neuronowymi, ostrzega przed rozwojem super-inteligentnej AI. A czy Pan jest bardziej optymistą, czy pesymistą w tym obszarze?

Tutaj znowu mi trudno odpowiedzieć jednoznacznie. Na poziomie społecznym dostrzegam wiele zagrożeń. Już teraz obserwujemy manipulacje wyborcze, dezinformację i dominację kilku dużych amerykańskich firm kontrolujących przepływ informacji. Ludzie zaczynają ufać wszystkiemu, co wygląda na wiarygodne, niezależnie od tego, czy jest prawdziwe, czy fałszywe. To groźne, zwłaszcza z punktu widzenia Europy i życia społecznego.

Jednak z perspektywy naukowej, sztuczna inteligencja jest niezwykle obiecująca. Często porównuję ją do energii jądrowej, która jest niebezpieczna i może spowodować katastrofę, jeśli zostanie niewłaściwie wykorzystana. Jednak wykorzystujemy ją również w dobrych celach, zwłaszcza w medycynie.

Tak też postrzegam sztuczną inteligencję – jako technologię o podwójnym obliczu. Może przynieść ogromne korzyści, ale może też wyrządzić wielką szkodę.

Co zrobić, żeby zminimalizować zagrożenia AI i zmaksymalizować korzyści?

Musimy więcej inwestować. Regulacje bez inwestycji są bezsensowne. Musimy również budować potencjał i chronić europejską suwerenność w zakresie technologii. Trzeba inwestować w edukację AI, aby społeczeństwo wiedziało, jak z niej korzystać. Musimy też realistycznie podchodzić do ograniczeń AI i przestać ją traktować jak coś magicznego.

W grudniowym wydaniu czasopisma OSOZ Polska poznasz 16 najciekawszych innowacji technologicznych dla pacjentów i lekarzy, które mają szansę zrewolucjonizować medycynę.

Ponadto w numerze:

OSOZ Polska 12/2025
OSOZ Polska 12/2025

Spis treści:

Wszystkie wydania archiwalne dostępne są na zakładce POBIERZ.

Archiwalne wydania OSOZ

50% państw już stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami
50% państw już stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami

WHO opublikowało wyniki badania wdrażania sztucznej inteligencji w systemach ochrony zdrowia europejskiego regionu WHO. Oparty na danych z 50 państw raport nie pozostawia złudzeń: nie wystarczą ambitne strategie AI, bo jej zastosowanie hamuje brak regulacji i finansowania oraz obawy o odpowiedzialność za błędy.

Życzeniowe stosowanie AI

Za boomem technologii AI nie idzie strategiczna implementacja na szeroką skalę – wynika z raportu „Sztuczna inteligencja zmienia systemy opieki zdrowotnej: stan gotowości w regionie europejskim WHO”. Tylko 8% (4 z 50) państw członkowskich opublikowało krajowe strategie w zakresie sztucznej inteligencji w ochronie zdrowia, a 14% (7) jest w trakcie ich opracowywania. 66% (33 z 50) posiada krajowe międzysektorowe strategie AI. Choć wiele krajów dostrzega rosnącą rolę sztucznej inteligencji, tylko kilka z nich opracowało politykę dedykowaną opiece zdrowotnej. Polska należy właśnie do tej grupy państw – z końcem listopada pojawiła się zaktualizowana wersja „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” autorstwa Ministerstwa Cyfryzacji. Ministerstwo Zdrowia czy Centrum e-Zdrowia nie zaprezentowało dotąd żadnej strategii w tym zakresie.

Newsletter OSOZ

Jak podkreśla WHO, strategie międzysektorowe – choć korzystne dla koordynacji wdrażania AI – często nie uwzględniają specyficznych wymagań regulacyjnych, etycznych i operacyjnych sektora zdrowia. Do tego AI w ochronie zdrowia wymaga zupełnie innych inwestycji i modelu biznesowego, bo system zdrowia opiera się w większości na finansowaniu publicznym. Do tego poziom zaufania do AI w zdrowiu i przykładowo usługach publicznych jest zupełnie inny.

Jeśli chodzi o politykę AI, 46% (19 z 41) państw członkowskich deleguje ją do istniejących już agencji rządowych (w Polsce to Ministerstwo Cyfryzacji), a kolejne 46% rozdziela kompetencje między wiele agencji. Tylko 12% (5) utworzyło nowe jednostki rządowe ds. sztucznej inteligencji.

Raport WHO „Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”
Raport WHO „Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”

Wiedza na temat AI pozostaje daleko w tyle za rozwojem technologicznym

72% (36 z 50) państw konsultuje z interesariuszami strategie wdrażania AI, głównie ekspertami AI, przedstawicielami branży medycznej i administracją publiczną. Najczęściej – z instytucjami rządowymi (81%), świadczeniodawcami (75%) i twórcami systemów AI (75%), natomiast najrzadziej – ze stowarzyszeniami pacjentów (42%) i obywatelami (22%).

Jak zaznacza WHO, ta nierównowaga w fazie tworzenia strategii AI stwarza ryzyko, że rozwiązania AI nie będą spełniać potrzeb lekarzy i pacjentów oraz nie zyskają zaufania opinii publicznej. Kolejną przeszkodą wdrażania innowacji AI jest niewystarczająca wiedza pracowników ochrony zdrowia. Tylko 24% (12 z 50) państw oferuje celowane szkolenia z zakresu sztucznej dla pracowników ochrony zdrowia, a 20% (10) ma programy edukacyjne dla studentów medycyny. Tylko 42% (21 z 50) aktywnie tworzy nowe zawody w dziedzinie AI i nauki o danych. To spowalnia adaptację AI – gdy lekarze nie wiedzą, jak działa AI i jakie stwarza możliwości, pojawiają się obawy i nieufność.

Poprawa opieki nad pacjentem i redukcja obciążeń administracyjnych to główne przesłani stosowania AI w ochronie zdrowia
Poprawa opieki nad pacjentem i redukcja obciążeń administracyjnych to główne przesłani stosowania AI w ochronie zdrowia

W Polsce szkolenia z zakresu AI prowadzi jedynie Naczelna Izba Lekarska, przede wszystkim w ramach Sieci Lekarzy Innowatorów. I to wszystko: takich szkoleń trudno szukać w Akademii Centrum e-Zdrowia albo w Narodowym Funduszu Zdrowia.

Odpowiedzialność za błędy AI pozostaje niedoregulowana

8% (4) państw WHO Europa opracowało standardy odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję w służbie zdrowia. Zaledwie 6% (3) wprowadziło wymogi prawne dotyczące systemów generatywnej sztucznej inteligencji (genAI) w zdrowiu.

I właśnie brak jasnych reguł, kto jest odpowiedzialny, gdy systemy AI popełniają błędy lub działają nieprawidłowo, powoduje, że lekarze często nie chcą jej stosować. Z drugiej strony, taki stan powoduje, że osoby już korzystające z AI mogą nadmiernie polegać na rekomendacjach systemów, narażając pacjentów na niebezpieczeństwo. Zwłaszcza, że nadal rzadkością jest monitorowanie działania systemów AI po ich wprowadzeniu na rynek, w warunkach rzeczywistych. To ma zmienić Akt w sprawie AI (EU AI Act), zgodnie z którym systemy AI stosowane w diagnozie i leczeniu są systemami wysokiego ryzyka i dlatego m.in. będą poddawane większej kontroli, w tym raportowaniu działań niepożądanych, podobnie do leków.

Jasne ramy odpowiedzialności mogłyby podnieść zaufanie środowiska medycznego do innowacji – sugeruje WHO.

Brak zasad odpowiedzialności za błędy AI powoduje, że lekarze niechętnie z niej korzystają
Brak zasad odpowiedzialności za błędy AI powoduje, że lekarze niechętnie z niej korzystają

Infrastruktura danych jest traktowana priorytetowo, ale rozwijana powoli

Sztuczna inteligencja opiera się na bezpiecznych, wysokiej jakości, interoperacyjnych danych. 66% (33 z 50) państw posiada krajową strategię w zakresie gromadzenia i wymiany danych zdrowotnych, a 76% (38 z 50) ma lub opracowuje ramy zarządzania tymi danymi. 66% (33 z 50) utworzyło regionalne lub krajowe centra danych zdrowotnych, umożliwiające m.in. szkolenie modeli sztucznej inteligencji.

Jednak tylko 30% (15 z 50) opracowało wytyczne dotyczące wtórnego wykorzystania danych zdrowotnych, a kolejne 30% posiada przepisy dotyczące transgranicznego udostępniania danych. Wyniki nie napawają optymizmem – Europa wdraża obecnie Europejską Przestrzeń Danych Zdrowotnych (EHDS), której celem jest ułatwienie wymiany danych pierwotnych (podsumowanie danych pacjenta) oraz wtórne ich wykorzystanie do badań i opracowywania kolejnych innowacji. Polska wprawdzie wdrożyła e-receptę transgraniczną i jest na dobrej drodze do wymiany danych medycznych w ramach Podsumowania Pacjenta, ale jeszcze nie drgnęła tematu wtórnego przetwarzania danych w ramach EHDS.

Inwestować czy nie inwestować w sztuczną inteligencję?

64% (32 z 50) państw deklaruje stosowanie narzędzi diagnostyki wspomaganej AI, a kolejne 50% (25) stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami. AI jest stosowana przede wszystkich w obszarach, które mają strategiczne znaczenie dla systemów zdrowia: opieki nad pacjentami (98%), zmniejszenia presji obciążeń administracyjnych na pracowników (92%) oraz zwiększenia efektywności systemu opieki zdrowotnej (90%).

Niepewność legislacyjna powoduje, że AI w ochronie zdrowia jest nadal rzadko stosowana
Niepewność legislacyjna powoduje, że AI w ochronie zdrowia jest nadal rzadko stosowana

Jednak tylko 52% (26 z 50) wyznaczyło priorytetowe obszary zastosowania AI, a jeszcze mniej przeznaczyło na ten cel konkretne środki finansowe. To powoduje dysonans pomiędzy chęciami a czynami.

Największą przeszkodą we wdrażaniu sztucznej inteligencji jest niepewność regulacyjna, którą zgłasza 86% (43 z 50) państw. Drugą jest finansowanie innowacji AI (78%). Większość krajów zgadza się, że jasne zasady dotyczące odpowiedzialności (92%) oraz wytyczne dotyczące przejrzystości i wyjaśnialności modeli AI (90%) przyspieszyłyby wdrażanie AI. Wyniki badania przeprowadzonego przez WHO w regionie europejskim pokazują, że AI jest coraz poważniej implementowana w systemach zdrowia. Nadal jednak deklaracje różnią się od poziomu rzeczywistej adaptacji. AI jest na razie stosowana głównie w dużych szpitalach, najczęściej w systemach diagnostyki obrazowej. Aby do nowej technologii miały dostęp wszystkie placówki, potrzebne są dedykowane ścieżki refundacyjne dla innowacji, intensywne szkolenia i wsparcie wdrażania np. AI w EDM.

Uczestnicy debaty (od lewej): dr hab. n. med. i o. zdr. Piotr Merks (Uniwersytet Kardynała Stefana Wyszyńskiego), prof. dr hab. n. med. Janina Stępińska (Narodowy Instytut Kardiologii Stefana kardynała Wyszyńskiego - Państwowy Instytut Badawczy), gen. broni prof. dr hab. n. med. Grzegorz Gielerak (Wojskowy Instytut Medyczny - Państwowy Instytut Badawczy), Adam Konka (Dyrektor Centrum e-Zdrowia), Dariusz Szplit (Uniwersyteckie Centrum Kliniczne w Gdańsku), Karolina Tądel (Ministerstwo Zdrowia)
Uczestnicy debaty (od lewej): dr hab. n. med. i o. zdr. Piotr Merks (Uniwersytet Kardynała Stefana Wyszyńskiego), prof. dr hab. n. med. Janina Stępińska (Narodowy Instytut Kardiologii Stefana kardynała Wyszyńskiego – Państwowy Instytut Badawczy), gen. broni prof. dr hab. n. med. Grzegorz Gielerak (Wojskowy Instytut Medyczny – Państwowy Instytut Badawczy), Adam Konka (Dyrektor Centrum e-Zdrowia), Dariusz Szplit (Uniwersyteckie Centrum Kliniczne w Gdańsku), Karolina Tądel (Ministerstwo Zdrowia)

Sztuczna inteligencja już jest w urządzeniach medycznych dla radiologii i kardiologii, a lada dzień zacznie masowo wchodzić do systemów IT przychodni i szpitali. Jak zabrać się za jej wdrażanie, aby zdobyła zaufanie i stała się drugą parą oczu lekarza? Co z odpowiedzialnością za błędy AI? Relacja z debaty Centrum e-Zdrowia.

Technologie ratują życie na sali operacyjnej i na polu walki

Według Prof. Lucjana Wyrwicza, Kierownika Kliniki Onkologii i Radioterapii Narodowego Instytutu Onkologii im. Marii Skłodowskiej-Curie, sztuczna inteligencja nie służy podejmowaniu decyzji tam, gdzie mamy nadmiar danych, ale tam, gdzie danych brakuje, gdzie pozostaje tylko ryzyko, intuicja i odpowiedzialność. Analogicznie do sytuacji, gdy korzystamy z nawigacji w samochodzie właśnie wtedy, gdy jedziemy nową drogą, a nie tą samą co zawsze.

Newsletter OSOZ

Gen. broni prof. dr hab. n. med. Grzegorz Gielerak, dyrektor Wojskowego Instytutu Medycznego – Państwowego Instytutu Badawczego, podał przykład takich rozwiązań, który zastępują intuicyjne decyzje tymi opartymi na faktach – chodzi o system monitorujący na bieżąco parametry pacjenta podczas operacji, zanim personel dostrzeże zagrożenie np. pierwsze objawy świadczące, że coś dzieje się nie tak jak powinno.

– Maszyna nie tylko widzi szybciej. Ona daje nam czas na reakcję, zanim stanie się coś nieodwracalnego. Ale ten czas musi być właściwie wykorzystany przez człowieka, który rozumie, co się za chwilę wydarzy – mówił generał Gieralak, wskazując na korzyści w postaci bezpieczeństwa pacjenta i niższy kosztów leczenia. WIM realizował także projekt finansowany z Narodowego Centrum Badań i Rozwoju, w którym AI zastosowano do opieki nad pacjentami z przewlekłą niewydolnością krążenia, aby przewidywać pogorszenie stanu zdrowia i z wyprzedzeniem móc zastosować leczenie farmakologiczne.

Gen. broni prof. dr hab. n. med. Grzegorz Gielerak: na polu walki nie ma wysokiej klasy specjalistów, dlatego AI, telemedycyna i telemonitoring mogą ratować życie
Gen. broni prof. dr hab. n. med. Grzegorz Gielerak: „Na polu walki nie ma wysokiej klasy specjalistów, dlatego AI, telemedycyna i telemonitoring mogą ratować życie”

Jak przypomniał prof. Gieralak, AI i robotyka zyskują szczególnie na znaczeniu w medycynie wojskowej.

– Na polu walki rzadko mamy do dyspozycji profesorów czy wysokiej klasy specjalistów. Najczęściej działa tam średni personel medyczny. Doświadczenia z Ukrainy pokazały, że zakres udzielanej pomocy nie może zależeć wyłącznie od formalnych kompetencji, lecz przede wszystkim od bieżących potrzeb i sytuacji. Dlatego potrzebujemy rozwiązań, które realnie wspierają personel w takich warunkach, łącząc wszystkie kluczowe informacje – mówił generał. Najbardziej zaawansowana w tym zakresie jest amerykańska armia, która powszechnie stosuje tzw. TC3 (red.: Tactical Combat Casualty Care), czyli systemy zbierające sygnały biologiczne i dane medyczne od momentu zranienia aż po kolejne etapy udzielania pomocy. Informacje o stanie pacjenta, diagnostyce i zastosowanych procedurach są zintegrowane, co pozwala wypracować optymalną decyzję dotyczącą rokowania i dalszego postępowania.

Algorytmy znają historie chorób milionów pacjentów i znają ich przebieg

Prof. dr hab. n. med. Janina Stępińska z Narodowego Instytutu Kardiologii przypomniała, że technologia nie zastępuje empatii, ale może ją wspierać, jeśli zostanie mądrze zaprojektowana. AI może być bez dylematów stosowana do zadań „miękkich”, jak planowanie wyposażenia sal operacyjnych albo dyżurów. W przypadku zadań „twardych”, czyli klinicznych, trzeba bardzo ostrożnie planować włączenie AI do pracy lekarzy.

– AI może odciążyć lekarza z analiz i protokołów, ale nie powinna zabierać mu czasu na zadanie jednego fundamentalnego pytania: „czego Pan się najbardziej boi?” – mówił Prof. Stępińska, przytaczając badania pokazujące, jak pacjenci reagują na chatboty medyczne. Ku zaskoczeniu, wielu, pacjenci często czują się wysłuchani przez robota – nie dlatego, że robot rozumie ich stan zdrowia, ale dlatego, że nie przerywa, nie ocenia, nie spieszy się. Jej zdaniem, przyszłość medycyny to wspólna przestrzeń dla czujności algorytmów i doświadczenia lekarzy, ale centrum tej przestrzeni zawsze musi pozostać pacjent.

Szczególnie dobrze algorytmy radzą sobie w wyłapywaniu chorób rzadkich, gdzie AI może przeanalizować pełną dokumentację pacjenta i wyłapać korelacje, których lekarz nie jest w stanie zauważyć ze względu na ilość danych. Oprócz kardiologii, AI sprawdza się też a onkologii, dopasowując leczenie do najnowszych wytycznych. Przykładowo, w ramach Krajowej Sieci Onkologicznej (KSO), AI mogłyby pomagać w wypracowywaniu wysokiej jakości standardów leczenia, poprzez porównywanie danych na temat wyników leczenia. AI jest też w stanie monitorować pacjentów po wypisie ze szpitala, analizując parametry pacjenta i kontrolując, czy powrót do zdrowia przebiega zgodnie z normami.

Prof. dr hab. n. med. Janina Stępińska: Algorytmy szczególnie dobrze radzą sobie w diagnozie chorób rzadkich, gdzie człowiekowi trudno znaleźć subtelne korelacje w masie danych
Prof. dr hab. n. med. Janina Stępińska: Algorytmy szczególnie dobrze radzą sobie w diagnozie chorób rzadkich, gdzie człowiekowi trudno znaleźć subtelne korelacje w masie danych

Innowacje powinny chronić pacjentów przez wizytą w szpitalu

Dr hab. n. med. i o. zdr. Piotr Merks z Uniwersytetu Kardynała Stefana Wyszyńskiego przedstawił medycynę z perspektywy farmaceuty i profilaktyki społecznej. Opowiedział o projekcie wykorzystującym algorytmy do analizy recept i identyfikowania pacjentów narażonych na ciężki przebieg grypy, COVID-19 lub chorób przewlekłych. Jak zauważył, nie musimy marzyć o robotach chirurgicznych w każdym powiatowym szpitalu, skoro największe efekty można osiągnąć w prewencji. W farmacji AI ma też zastosowanie np. w produkcji leków, gdzie z pomocą kamer obserwuje się cały proces, a AI wykrywa potencjalnie niebezpieczne sytuacje mogące prowadzić do zanieczyszczenia preparatów.

– Innowacja, która zatrzymuje pacjenta przed drzwiami szpitala, to jest prawdziwy sukces medycyny jutra – mówił dr Merks.

Pobierz bezpłatny raport o AI w ochronie zdrowia
Pobierz bezpłatny raport o AI w ochronie zdrowia

Z kolei Karolina Tądel z Ministerstwa Zdrowia podkreśliła, że Amerykańska Agencja ds. Leków i Żywności dopuściła już na rynek 1200 algorytmów AI i uczenia maszynowego, przede wszystkim w radiologii i kardiologii. W zeszłym roku było ich 950 więc przyrost jest błyskawiczny. Do tego 70% szpitali korzystających z AI, nie wdraża ich do procedur diagnostycznych czy wspierania decyzji, ale do zadań administracyjnych. Jej zdaniem, technologia nie może być wdrażana od strony algorytmów, lecz od strony potrzeb.

Największym błędem systemu zdrowia jest to, że często mierzymy to, co łatwo zmierzyć, zamiast tego, co naprawdę ma znaczenie. Dlatego systemy zdrowia muszą też uwzględniać perspektywę pacjentów, jak motywację do wyzdrowienia czy bariery społeczne.

Karolina Tądel: Większość algorytmów wdrażanych w placówkach zdrowia wspomaga zadania administracyjne, a nie kliniczne
Karolina Tądel: Większość algorytmów wdrażanych w placówkach zdrowia wspomaga zadania administracyjne, a nie kliniczne

– Nie przekonamy pacjenta do profilaktyki liczbami, ale możemy go przekonać dzięki technologii, która rozumie jego język, sytuację i emocje – mówiła. „Konsekwencją wdrożenia AI musi być także reforma edukacji medycznej. Tak, by przyszli lekarze nie tylko znali systemy, ale potrafili je krytycznie wykorzystywać.”

AI może przewidzieć z dużym prawdopodobieństwem, co może się wydarzyć jutro albo za tydzień

Adam Konka, dyrektor Centrum e-Zdrowia, przypomniał, jak ważne jest zaprojektowanie narzędzi AI na miarę polskiego systemu zdrowia. Technologia musi działać zarówno w dużych centrach klinicznych jak i w małych, zwyczajnych przychodniach” Przestrzegł przed projektowaniem rozwiązań „doskonałych technologicznie, ale kompletnie bezużytecznych praktycznie”. Jego zdaniem, kluczowe będzie stworzenie fundamentu danych, który pozwoli uczyć i walidować rozwiązania AI w systemie publicznym.

– Mamy 100 procent cyfrowych danych medycznych w Polsce, ale nie umiemy ich jeszcze użyć. Technologia nie jest problemem. Problemem jest zaufanie i odpowiedzialność – mówił Konka, według którego przyszłość systemu polega na „wyposażeniu lekarza w narzędzia, które rozszerzają jego zdolności diagnostyczne i upraszczają powtarzalne zadania”.

Przedstawił też projekt realizowany w Śląskim Parku Technologii Medycznych Kardio-Med Silesia, skierowany do pacjentów z ciężką niewydolnością serca i wykorzystujący urządzenia wszczepialne oraz dodatkowe przystawki monitorujące najważniejsze parametry zdrowia. Dzięki nim możliwe jest stałe, zdalne nadzorowanie stanu chorego. System umożliwia raportowanie do lekarza specjalisty na drugim poziomie opieki, dzięki czemu można szybko podejmować działania ratujące życie lub stabilizujące stan pacjenta, a także przyspieszać dostęp do konsultacji, jeśli pojawiają się niepokojące sygnały. Zwłaszcza w chorobach kardiologicznych ważne jest, aby odpowiednio wcześnie wychwycić sygnały świadczące o pogarszającym się stanie pacjenta i temu właśnie służy system monitorowania.

Adam Konka, dyrektor Centrum e-Zdrowia: Monitorowanie zdrowia pacjentów z chorobami kardiologicznymi może uratować życie, uniknąć powikłań, a do tego przynosi oszczędności
Adam Konka: Monitorowanie zdrowia pacjentów z chorobami kardiologicznymi może uratować życie, pozwala uniknąć powikłań, a do tego przynosi oszczędności

Przyszłość medycyny to lekarz współpracujący z AI

Podczas debaty pojawiło się wiele przykładów praktycznych zastosowań AI: od monitorowania pacjentów z wszczepialnymi urządzeniami, przez algorytmiczne planowanie profilaktyki populacyjnej, po analizę danych obrazowych w kardiologii i onkologii lub w chirurgii do zmniejszania wpływu drgania rąk człowieka w operacjach robotycznych.

Gen. Gielerak przypomniał, że „algorytmy osiągają dziś 97% skuteczności w identyfikacji zmian o średnicy poniżej milimetra, ale nie potrafią powiedzieć pacjentowi, co to oznacza dla jego życia. Dlatego przyszłość AI widzi w płynnej współpracy technologii z człowiekiem, bo sama technologia często nie zna kontekstu i nie może pomóc. Przykładem są automatyczne boty na infoliniach, które są często powodem do frustracji, a nie wsparciem.

Na koniec debaty padło pytanie, czy młodzi lekarze, wychowani w środowisku algorytmów, będą potrafili działać samodzielnie. Prof. Stępińska poruszyła jedną z największych obaw: „Jeśli w sytuacji awaryjnej zabraknie systemów wspomagających decyzję, czy lekarz będzie umiał działać intuicyjnie, tak, jak uczono kiedyś?”. Gen. Gielerak doprecyzował, że chodzi o „zdolność do działania w chaosie, w warunkach braku danych, pod presją, ale z zachowaniem odpowiedzialności”. Dlatego medycyna analogowa nie utraci na wartości i każde pokolenie lekarzy będzie musiało mieć bazową wiedzę, aby działać bez wsparcia AI.

Sztuczna inteligencja nie zmieni medycyny od razu, ale już zmienia sposób, w jaki lekarze słuchają pacjentów, analizują dane i decydują o leczeniu. Czeka nas rewolucja relacji między człowiekiem a technologią, między wiedzą a intuicją, między zaufaniem a odpowiedzialnością.

Lek. med. Jerzy Radziszowski, Prezes Przychodni Lekarskiej Diamed Sp. z o.o. w Krakowie
Lek. med. Jerzy Radziszowski, Prezes Przychodni Lekarskiej Diamed Sp. z o.o. w Krakowie

Ponad 22 000 placówek medycznych w Polsce świadczy usługi na kontrakcie z NFZ. To im najtrudniej finansować cyfryzację, bo działają pod presją finansową i kadrową. Odwiedziliśmy jedną z nich – Przychodnię Lekarską Diamed Sp. z o.o. w Krakowie. Z Prezesem lek. med. Jerzy Radziszowskim rozmawiamy o aktualnych wyzwaniach digitalizacji, AI oraz centralnych projektach e-zdrowia.

Czy cyfryzacja to dla Pana koszt czy inwestycja? 

Każda inwestycja jest kosztem, ale nie każdy koszt jest inwestycją. Jeśli planujemy inwestycję, to niezależnie od wkładu finansowego, szacujemy korzyści z niej wynikające, nie zawsze muszą to być w pierwszej kolejności korzyści ekonomiczne. Z reguły zakup nowych systemów informatycznych zawsze wiąże się nie tylko z kosztami finansowymi, ale też wyzwaniami organizacyjnymi. Przede wszystkim migracja danych do nowego systemu, to z reguły największy problem. Szkolenie personelu z obsługi aplikacji, integracja z systemami zewnętrznymi itd.

Cyfryzacja to proces inwestycyjny, tak naprawdę niekończący się, bez którego nie da się obecnie prowadzić żadnej działalności, także w sektorze ochrony zdrowia. Proszę zauważyć, iż cała warstwa wymiany danych administracyjnych np. rozliczeniowych z NFZ, ale i innymi płatnikami, odbywa się od wielu lat wyłącznie w formie cyfrowej. Nie ma w tym zakresie alternatywy. E- recepty, skierowania do specjalistów, sanatorium, e-ZLA, karta DILO i inne to dokumenty generowane w formie elektronicznej.

Newsletter OSOZ

W tym złożonym procesie trzeba też uwzględnić oczekiwania i interesy pacjentów. Nie dla wszystkich informatyzacja oznacza ułatwienia. Jesteśmy społeczeństwem starzejącym się, nasi pacjenci to w dużej mierze osoby starsze, niekiedy posiadające ograniczenia uniemożliwiające korzystanie ze zdobyczy techniki. Ale nie tylko pacjenci, także kadra medyczna – starsze pokolenie medyków – ma z tym problem. Niewłaściwie zaprojektowane aplikacje, i nie tylko te w ochronie zdrowia, wręcz prowadzą do wykluczenia cyfrowego wielu osób, także zawodowo. Z drugiej strony są duże oczekiwania i presja młodszego pokolenia. Ta grupa społeczna chciałaby wszystkie sprawy załatwić on-line. Dlatego też, ważne jest odpowiednie wyważenie stopnia informatyzacji w poszczególnych segmentach systemu ochrony zdrowia. Te kwestie powinny zostać prawnie uregulowane.

Jakie wydatki na e-zdrowie planuje Pan w kolejnych 1-3 latach?

Na razie przyglądamy się, weryfikujemy i oceniamy, co oferuje rynek. Obecnie jesteśmy w okresie dużej niepewności w sektorze ochrony zdrowia finansowanej przez NFZ. Nie ma stabilnej polityki dotyczącej informatyzacji tego sektora. Trudno zatem podejmować decyzje. Inna sytuacja jest w sektorze komercyjnym. Moim zdaniem o wiele bardziej przejrzysta, mniej skomplikowana, pozbawiona konieczności gromadzenia i przetwarzania ogromnej ilości danych, najczęściej wielokrotnie tych samych, i co najważniejsze – przewidywalna. W tym sektorze prywatnym łatwiej jest zaplanować inwestycje, nie musimy się kierować zewnętrznymi uwarunkowaniami.

Skąd bierze Pan środki finansowe?

Wszelkie inwestycje IT finansujemy zawsze z własnych środków, zwłaszcza w oprogramowanie. Są to inwestycje niematerialne, raczej trudno przewidywalne, gdzie ryzyko inwestycyjne jest dość duże. Jeśli zaistnieje możliwość refundacji z programów pomocowych, to korzystamy z takich okazji.

Centrum e-Zdrowia wprowadza m.in. kolejne obligatoryjne dokumenty do EDM, w przyszłym roku wejdzie Centralna e-Rejestracja. Jak ocenia Pan te inicjatywy i strategię e-zdrowia realizowaną przez CeZ i MZ?

Centralna e-Rejestracja, jak każda centralna „inicjatywa”, jest mocno przewartościowania. Medialnie ma być panaceum na długie kolejki do lekarzy i zmniejszyć liczbę wizyt, na które pacjenci się nie zgłaszają. Moim zdaniem to niewiele zmieni, bo nie ma sankcji. Pacjent, który nie przyjdzie do lekarza na wyznaczony termin zapisany w CeR i tak ma prawo zarejestrować się ponownie, nie ponosząc żadnych konsekwencji.

Co do EDM, uczestniczyłem w projekcie pilotażowym – z sukcesem. I to na tyle. Gromadzenie olbrzymich ilości danych bez możliwości ich wymiany pomiędzy podmiotami leczniczymi nie wnosi żadnej nowej jakości. Nie ma centralnego repozytorium EDM, z zasobów którego moglibyśmy korzystać. Dlaczego nie mamy dostępu do badań diagnostycznych wykonywanych naszym pacjentom w innych placówkach np. RTG, MR, TK czy laboratoryjnych.

W moim przekonaniu informatyzacja w sektorze ochrony zdrowia postępuje zbyt wolno. Obarczono nas koniecznością gromadzenia, przetwarzania i udostępniania ogromnych ilości danych informatycznych, zamiast rozpocząć budowę systemu od zbierania najbardziej podstawowych danych i sukcesywnie zwiększać ich zakres w trakcie rozwoju systemu.

Istotnym czynnikiem hamującym rozwój e-zdrowia są bez wątpienia niedoskonałości udostępnianych przez NFZ i Centrum e-Zdrowia systemów informatycznych, co budzi uzasadniony sprzeciw.

Które elementy najbardziej wpływają na pomyślą digitalizację?

Czynników jest wiele, które składają się na całość. Przede wszystkim czynnik ludzki. W zakładach opieki zdrowotnej pracuje wiele grup zawodowych, ich oczekiwania są odmienne, czasami bardzo różne. Inne oczekiwania co do systemu będzie zgłaszał personel lekarski, inne pielęgniarki i położne, technicy, laboranci, a całkowicie inne priorytety wymienią sekretarki medyczne. Kolejnym elementem jest ergonomia systemu, intuicyjność i łatwość obsługi, automatyzacja procesów powtarzalnych. Integracja z systemami zewnętrznymi np. platformy P1, ZUS, DILO itd. Kolejny element to infrastruktura – serwery, komputery, drukarki, skanery. Czyli cała warstwa sprzętowa. Bez wątpienia o sukcesie digitalizacji w podmiotach leczniczych decyduje wiele czynników, które wymieniłem. W zależności od profilu działalności placówki medycznej jedne czynniki odgrywają większą inne mniejszą rolę.

Na co kładzie Pan szczególny nacisk we współpracy z dostawcą IT?

Z mojego punktu widzenia najważniejsze we współpracy z dostawcami systemów IT jest komunikacja i zdolność reagowania na zmieniające się warunki. I mam tu na myśli zarówno zmieniające nie wymagania płatnika, czyli NFZ oraz np. platformy P1, ZUS, jak i nasze oczekiwania wynikające z powyższych zmian oraz z wprowadzanych w placówkach systemów optymalizacji zarządzania, np. ruchu chorych, kanałów komunikacji elektronicznej.

Należy zaznaczyć, iż obecnie dostawcy IT dla podmiotów leczniczych skupiają się głównie na dostarczeniu oprogramowania, instalacji i najczęściej szkoleniu informatyków. Brakuje natomiast szkoleń praktycznych dla pracowników medycznych. Bardzo dziwi mnie fakt, iż np. studenci medycyny nie mają zajęć praktycznych z obsługi dostępnych na rynku systemów informatycznych. Przecież to będzie ich podstawowe narzędzie pracy. Brak tej wiedzy to powód stresu, niepotrzebnej frustracji dla nowych medyków i dodatkowe obciążenie dla przyszłych pracodawców.

Czy zatem firmy IT produkujące systemy informatyczne dla potrzeb ochrony zdrowia nie powinny wykazać się większą aktywnością w tym zakresie? Przecież takie kursy mogłyby organizować cyklicznie także Okręgowe Izby Lekarskie, przy wsparciu firm IT, np. w trakcie odbywania stażu podyplomowego. Kursy w OIL nie wymagają zmiany programu studiów – co w naszych warunkach może trwać latami – i można je zrealizować bez większych problemów. Certyfikat ukończenia kursu obsługi programu informatycznego byłby bez wątpienia dodatkowym atutem w aplikowaniu o posadę i ważną informacją dla pracodawcy.

Czy rozważa Pan już wprowadzanie rozwiązań opartych na sztucznej inteligencji, czy raczej jest to jeszcze odległa perspektywa?

Obecnie na świecie zapanowała moda na sztuczną inteligencję. Moim zdaniem na razie to fascynacja i bezkrytyczne podejście do niewątpliwie zaawansowanej technologii. AI to jednak technologia, i jak nazwa wskazuje, sztuczna. Jak każda maszyna, jest wytworem ludzkiej inteligencji. Nie mam nic przeciwko takim rozwiązaniom, jak najbardziej sztuczna inteligencja w znacznym stopniu zapewne usprawni wykonywanie wielu czynności powtarzalnych. Jednakże uważam, iż w tak newralgicznej kwestii jaką jest zdrowie i życie ludzkie, ostateczne decyzje zawsze powinien podejmować wykwalifikowany personel.

Bez wątpienia systemy oparte o AI, powinny być wprowadzane stopniowo na podstawie precyzyjnie określonych zapisów prawnych. Należy szczegółowo określić, w których obszarach ochrony zdrowia i w jakim stopniu można stosować systemy oparte na AI. Chociażby z powodu uregulowania roszczeń odszkodowawczych: Kto będzie i w jakim zakresie odpowiadał za ewentualne błędy medyczne popełnione przez AI. To tylko maszyna i jak każde urządzenie może zawieść. Jest jeszcze jeden, niezwykle istotny czynnik. W obecnym świecie zatracamy zdolność nawiązywania kontaktów i relacji międzyludzkich. Jak one są ważne w kwestii ochrony zdrowia i życia nie muszę chyba przekonywać. Jeśli się jednak mylę, to przed ciężko chorym onkologiczne pacjentem zamiast lekarza, z równie dobrym skutkiem terapeutycznym można by postawić humanoidalnego robota z AI. Czy na pewno?

Co będzie dla Pana największym wyzwaniem w 2026 toku?

Niewątpliwym wyzwaniem będzie zapewnienie finansowania świadczeń zdrowotnych udzielanych w ramach kontraktu z NFZ na co najmniej dotychczasowym poziomie. Oczekiwania pacjentów rozbudzane w ten czy inny sposób wywierają ogromna presję na zarządzających.

Sporo obaw dotyczy wprowadzenia Krajowego Systemu e-Faktur (KSeF). Nasze zaniepokojenie związane jest z generowaniem licznych faktur korygujących przez NFZ niekiedy za świadczenia udzielone wiele miesięcy wcześniej. Są one wynikiem najdelikatniej ujmując „niedoskonałości” w weryfikacji świadczeń udzielonych, sprawozdanych, potwierdzonych i rozliczonych przez NFZ. Nie mamy odpowiedzi jak ten problem będzie rozwiązany. Podobno w grudniu ma ruszyć środowisko testowe dla świadczeniodawców posiadających umowy z NFZ.

Kolejnym wyzwaniem jest preskrypcja leków, a właściwie automatyzacja ustalania stopnia odpłatności za przepisane przez lekarza leki. Prace trwają od lat i widocznych efektów jak nie było, tak nie ma. Przecież to klasyczny przykład automatyzacji. Zdumiewające jest to, że przy tak szeroko zachwalanej AI nie udało się opracować algorytmu automatycznie ustalającego poziom refundacji leku w zależności od postawionego rozpoznania, w oparciu o kod ICD:10, a w przypadkach bardziej złożonych klinicznie – o tzw. pytania dodatkowe. Kryteria poziomu refundacji są jasne, określa je Minister Zdrowia. Czy zatem przekracza to kompetencje i możliwości MZ i CEZ? Zastanawiam się dlaczego, żadna z wiodących firm IT nie przedstawiła nawet propozycji aplikacji automatyzującej ustalanie stopnia refundacji leków wraz ze środowiskiem testowym.

1 2 3 131