Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki
Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki

Czy obietnice związane z AI w medycynie są realne? Czy nowe modele AI będą wolne od halucynacji? Kiedy pierwsze komputery kwantowe zaczną szukać nowych leków? Wywiad z Profesorem Alfonso Valencia, dyrektorem działu nauk przyrodniczych w Barcelona Supercomputing Center (BSC) – jednego z największych europejskich hubów AI.

Newsletter OSOZ

W ciągu ostatnich 3 latach byliśmy świadkami szybkiego rozwoju sztucznej inteligencji, zwłaszcza modeli generatywnych. Czy możemy spodziewać się nowych, lepszych modeli niż te dostępne?

Nie sądzę, że modele, które mamy obecnie – czyli te mające zastosowanie w narzędziach takich jak ChatGPT – to końcowy etap rozwoju sztucznej inteligencji. W rzeczywistości to bardzo prosta technologia, bo opiera się na bazowych regułach statystyki. I nawet jeśli ChatGPT czasami sprawia takie wrażenie, to nie rozumie ani kontekstu, ani sytuacji, o których z nim rozmawiamy. Po prostu wypluwa zdania, które są najbardziej prawdopodobne w odniesieniu do zadanego pytania.

Powiem inaczej: jeśli modele generatywnej AI to wszystko, co w dziedzinie AI osiągnęliśmy na kolejne lata, to wówczas mamy poważny problem.

Dlaczego?

LLM są z definicji bardzo niewiarygodne. Nie wiemy, czy odpowiedzi generowane przez modele generatywne są poprawne i w jakim stopniu możemy im ufać. To stawia nas w bardzo trudnej sytuacji, bo trudno stwierdzić, na ile możemy wykorzystywać dalej uzyskane wyniki. I to niezależnie od tego, czy generujemy tekst czy obrazek.

To dlatego naukowcy i firmy nowych technologii na całym świecie robią wszystko, aby zwiększyć stopień użyteczności modeli generatywnej AI i skompensować istniejące niedoskonałości. Pamiętajmy, że w biologii i medycynie czynnik zaufania ma ogromne znaczenie. Dlatego wprowadzane są ulepszenia w transformerach (redakcja: architektura uczenia głębokiego opracowana przez Google) i innych architekturach AI. Pojawiają się coraz to lepsze modele i coraz to lepsza inżynieria modeli. Nie rozwiązuje to jednak podstawowego problemu, czyli ograniczeń generatywnej AI wynikających z ich natury działania.

Jedną z głównych obaw związanych z generatywną sztuczną inteligencją są tzw. halucynacje. Nowy model GPT-5, który miał premierę w sierpniu br., zmniejsza ich występowanie kilkukrotnie, jak deklaruje OpenAI. Czy można je całkowicie wyeliminować?

Z perspektywy maszyny halucynacje nie są tak naprawdę „błędami”. System po prostu maksymalizuje prawdopodobieństwa analizując różne możliwe scenariusze. Z ludzkiego punktu widzenia, gdy wynik nie odpowiada prawdzie, uważamy to za błąd. Jest to nieodłączna cecha działania systemów opartych na prawdopodobieństwie, a ich wyeliminowanie jest niemożliwe.

Dlatego obecne wysiłki koncentrują się na budowaniu kolejnych warstw kontroli. Przykładowo, może to być mechanizm weryfikacji wyniku w dostępnych bazach wiedzy albo tzw. walidacja międzymodelowa, czyli porównanie wyników kilku modeli. W ten sposób, AI jest wprawdzie coraz bardziej niezawodna, ale mimo to, żadne z tych interwencji nie eliminuje nieodłącznej niepewności towarzyszącej generatywnej AI. Co gorsza, nawet nie mamy dobrego sposobu na zmierzenie tej niepewności w działaniu modeli.

W dziedzinie, którą głownie się zajmuję, czyli w modelowaniu struktur białek, system taki jak AlphaFold daje poziom pewności na poziomie 80 – 90 proc. I w wielu przypadkach taki poziom jest zupełnie wystarczający i może prowadzić do rewolucyjnych odkryć.

W przypadku modeli językowych lub modeli generujących grafikę, nie mamy takiej pewności. Nie ma sposobu, aby stwierdzić, że dana odpowiedź jest wiarygodna w np. 80%. Dla mnie jest to kluczowa różnica. Inżynieria może ograniczyć liczbę błędów, ale nie może dać nam tego wskaźnika pewności. To sprawia, że technologia generatywnej AI jest niestabilna.

Mimo tych ograniczeń zachwyt nad generatywną AI nie słabnie. Niektórzy liderzy firm nowych technologii zaczynają mówić, że to bańka, która wkrótce pęknie.

Patrząc na liczby, trudno uwierzyć, że taki poziom inwestycji będzie utrzymywany w nieskończoność. Ogromne sumy pieniędzy płyną do firm takich jak OpenAI czy startupów AI. Ale czy zarabiają one wystarczająco dużo na AI, aby uzasadnić te inwestycje? Czy dzięki modelom AI można uzyskać rzeczywisty wzrost wydajności, który odpowiada szumowi medialnemu? Nie jest to aż tak oczywiste.

Z historii znamy wiele przereklamowanych technologii, które napędzały krótkoterminowe oczekiwania. Inwestowano bez zbytniego martwienia się o to, co będzie później. Podobnie obecny szum nie sprzyja zrównoważonemu rozwojowi AI.

W biomedycynie jest jednak inaczej, bo sztuczna inteligencja już przynosi konkretne efekty. Przykładem jest szukanie nowych struktur białek w pracach nad lekami, AI analizująca duże ilości danych genetycznych w medycynie personalizowanej albo modele stosowane do podsumowywania dokumentacji medycznej. To rzeczywistość, a nie obietnica. Nawet jeśli niektóre firmy AI upadną pod ciężarem niezrównoważonych inwestycji, społeczność naukowa będzie nadal korzystać z nowych modeli i wcześniejszych postępów.

Oprócz projektowania struktur białek, wsparcia w EDM albo genomice, jakie jeszcze zastosowania sztucznej inteligencji w medycynie zasługują na uwagę?

Jest ich wiele – od biologii przedklinicznej, czyli badań przed wprowadzeniem leku do stosowania u ludzi, po zastosowania kliniczne jak algorytmy wspomagające podejmowanie decyzji. Kilka lat temu w artykule opublikowanym w czasopiśmie Science napisano, że kolejnym frontem rozwoju modeli językowych jest biologia i medycyna. I to prawda. Coraz więcej badaczy zajmujących się AI przechodzi do nauk o zdrowiu, ponieważ jest to dziedzina, gdzie zastosowania AI mogą być bardzo szerokie.

Do tego dochodzi jeszcze jeden argument: wpływ AI w medycynie można badać, a sama AI ma realny wpływ na życie i zdrowie człowieka. W innych dziedzinach prace nad AI są bardzo teoretyczne i nie dają tej samej satysfakcji i wymiernych korzyści.

Powracając do pytania, oprócz odkrywania nowych leków, zwróciłbym jeszcze uwagę na zastosowanie generatywnej AI w tworzeniu dokumentacji medycznej. Szpitale już od dawna są wyposażone w technologie obrazowania medycznego wspomagane AI. Jednak wąskim gardłem zawsze był dostęp do dużych ilości danych medycznych, ich przetwarzanie i wyciąganie na ich podstawie wniosków do decyzji klinicznych.

Obecnie, po raz pierwszy mamy możliwość łączenia tekstów, obrazów, wyników badań laboratoryjnych, informacji genetycznych, rezultatów badań naukowych. W ten sposób powstaje nowa wiedza, którą możemy wykorzystać np. do precyzyjnego leczenia nowotworów. Bardzo duży potencjał AI widzę także w kardiologii, neurologii i zdrowiu psychicznym.

Trwa „wyścig AI”: Chiny są już dziś liderem jeśli chodzi o liczbę patentów AI, Stany Zjednoczone przodują w komercjalizacji. Czy Europa, wprawdzie silna w ośrodki naukowe, ale ograniczona regulacjami prawnymi, liczy się w tym maratonie?

I tak i nie. Pozytywnym trendem są duże inwestycje w moc obliczeniową. W ramach inicjatywy AI Gigafactory na ten cel przeznaczono 200 mld euro ze środków prywatnych i dofinansowania Komisji Europejskiej. To ogromna kwota, a inwestycje przełożą się na ogromną moc obliczeniową pozwalającą wykorzystywać i opracowywać nowe algorytmy AI (redakcja: Polska stara się obecnie o utworzenie Baltic AI GigaFactory).

Drugim optymistycznym sygnałem są zmiany w polityce AI. UE postanowiła ściślej współpracować z przedsiębiorstwami, inwestując bezpośrednio w projekty, które przynoszą korzyści europejskiemu przemysłowi. To nowość.

Pod względem naukowym Europa jest silna, ale bądźmy szczerzy – wszystkie nagrody Nobla nadal trafiają do Amerykanów. Trudno konkurować z takim poziomem pieniędzy jak w USA. Potrzebujemy większych inwestycji w naukę. Jednak aby tak się stało, rządy poszczególnych krajów członkowskich muszą zrozumieć, że AI wymaga specjalnych programów finansowania.

Do tego dochodzi regulacja. Europa ma tendencję do regulowania na długo przed pełnym rozwojem technologii, co blokuje wszelkie inwestycje. Nie jestem przeciwny regulacjom, bo są one konieczne. Jednak same regulacje nie budują potencjału. Nie ma sensu regulować czegoś, co inni już rozwijają i wprowadzają do rozwiązań konsumenckich.

Kolejną technologią budzącą emocje są obliczenia kwantowe. Barcelona Supercomputing Center posiada już komputer kwantowy. Jak daleko jesteśmy od rzeczywistych zastosowań quantum computing w medycynie?

Tak, mamy już komputer kwantowy zakupiony przez rząd hiszpański i czekamy na drugi sfinansowany ze środków europejskich. Będzie one częścią kontynentalnej sieci komputerów kwantowych.

Maszyny te są nadal w fazie eksperymentalnej. Istnieją projekty badawcze w dziedzinie biologii wykorzystujące algorytmy kwantowe do wielokrotnego dopasowywania sekwencji, rekonstrukcji drzewa filogenetycznego czy w analizie obrazów. Gdy komputery kwantowe uzyskają stabilność pracy, pomogą w rozwiązywaniu bardzo palących problemów wymagających ogromnych mocy obliczeniowych, nieosiągalnych z wykorzystaniem klasycznych komputerów.

A kiedy będziemy mieli pierwsze w pełni funkcjonalne komputery kwantowe? Niektórzy twierdzą, że za pięć lat, a inni – że to kwestia dekad. Szczera odpowiedź brzmi: nie wiemy.

Komputer kwantowy w Barcelona 
Supercomputing Center.
Komputer kwantowy w Barcelona Supercomputing Center

Geoffrey Hinton, laureat Nagrody Nobla za pracę nad sieciami neuronowymi, ostrzega przed rozwojem super-inteligentnej AI. A czy Pan jest bardziej optymistą, czy pesymistą w tym obszarze?

Tutaj znowu mi trudno odpowiedzieć jednoznacznie. Na poziomie społecznym dostrzegam wiele zagrożeń. Już teraz obserwujemy manipulacje wyborcze, dezinformację i dominację kilku dużych amerykańskich firm kontrolujących przepływ informacji. Ludzie zaczynają ufać wszystkiemu, co wygląda na wiarygodne, niezależnie od tego, czy jest prawdziwe, czy fałszywe. To groźne, zwłaszcza z punktu widzenia Europy i życia społecznego.

Jednak z perspektywy naukowej, sztuczna inteligencja jest niezwykle obiecująca. Często porównuję ją do energii jądrowej, która jest niebezpieczna i może spowodować katastrofę, jeśli zostanie niewłaściwie wykorzystana. Jednak wykorzystujemy ją również w dobrych celach, zwłaszcza w medycynie.

Tak też postrzegam sztuczną inteligencję – jako technologię o podwójnym obliczu. Może przynieść ogromne korzyści, ale może też wyrządzić wielką szkodę.

Co zrobić, żeby zminimalizować zagrożenia AI i zmaksymalizować korzyści?

Musimy więcej inwestować. Regulacje bez inwestycji są bezsensowne. Musimy również budować potencjał i chronić europejską suwerenność w zakresie technologii. Trzeba inwestować w edukację AI, aby społeczeństwo wiedziało, jak z niej korzystać. Musimy też realistycznie podchodzić do ograniczeń AI i przestać ją traktować jak coś magicznego.

W grudniowym wydaniu czasopisma OSOZ Polska poznasz 16 najciekawszych innowacji technologicznych dla pacjentów i lekarzy, które mają szansę zrewolucjonizować medycynę.

Ponadto w numerze:

OSOZ Polska 12/2025
OSOZ Polska 12/2025

Spis treści:

Wszystkie wydania archiwalne dostępne są na zakładce POBIERZ.

Archiwalne wydania OSOZ

50% państw już stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami
50% państw już stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami

WHO opublikowało wyniki badania wdrażania sztucznej inteligencji w systemach ochrony zdrowia europejskiego regionu WHO. Oparty na danych z 50 państw raport nie pozostawia złudzeń: nie wystarczą ambitne strategie AI, bo jej zastosowanie hamuje brak regulacji i finansowania oraz obawy o odpowiedzialność za błędy.

Życzeniowe stosowanie AI

Za boomem technologii AI nie idzie strategiczna implementacja na szeroką skalę – wynika z raportu „Sztuczna inteligencja zmienia systemy opieki zdrowotnej: stan gotowości w regionie europejskim WHO”. Tylko 8% (4 z 50) państw członkowskich opublikowało krajowe strategie w zakresie sztucznej inteligencji w ochronie zdrowia, a 14% (7) jest w trakcie ich opracowywania. 66% (33 z 50) posiada krajowe międzysektorowe strategie AI. Choć wiele krajów dostrzega rosnącą rolę sztucznej inteligencji, tylko kilka z nich opracowało politykę dedykowaną opiece zdrowotnej. Polska należy właśnie do tej grupy państw – z końcem listopada pojawiła się zaktualizowana wersja „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku” autorstwa Ministerstwa Cyfryzacji. Ministerstwo Zdrowia czy Centrum e-Zdrowia nie zaprezentowało dotąd żadnej strategii w tym zakresie.

Newsletter OSOZ

Jak podkreśla WHO, strategie międzysektorowe – choć korzystne dla koordynacji wdrażania AI – często nie uwzględniają specyficznych wymagań regulacyjnych, etycznych i operacyjnych sektora zdrowia. Do tego AI w ochronie zdrowia wymaga zupełnie innych inwestycji i modelu biznesowego, bo system zdrowia opiera się w większości na finansowaniu publicznym. Do tego poziom zaufania do AI w zdrowiu i przykładowo usługach publicznych jest zupełnie inny.

Jeśli chodzi o politykę AI, 46% (19 z 41) państw członkowskich deleguje ją do istniejących już agencji rządowych (w Polsce to Ministerstwo Cyfryzacji), a kolejne 46% rozdziela kompetencje między wiele agencji. Tylko 12% (5) utworzyło nowe jednostki rządowe ds. sztucznej inteligencji.

Raport WHO „Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”
Raport WHO „Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”

Wiedza na temat AI pozostaje daleko w tyle za rozwojem technologicznym

72% (36 z 50) państw konsultuje z interesariuszami strategie wdrażania AI, głównie ekspertami AI, przedstawicielami branży medycznej i administracją publiczną. Najczęściej – z instytucjami rządowymi (81%), świadczeniodawcami (75%) i twórcami systemów AI (75%), natomiast najrzadziej – ze stowarzyszeniami pacjentów (42%) i obywatelami (22%).

Jak zaznacza WHO, ta nierównowaga w fazie tworzenia strategii AI stwarza ryzyko, że rozwiązania AI nie będą spełniać potrzeb lekarzy i pacjentów oraz nie zyskają zaufania opinii publicznej. Kolejną przeszkodą wdrażania innowacji AI jest niewystarczająca wiedza pracowników ochrony zdrowia. Tylko 24% (12 z 50) państw oferuje celowane szkolenia z zakresu sztucznej dla pracowników ochrony zdrowia, a 20% (10) ma programy edukacyjne dla studentów medycyny. Tylko 42% (21 z 50) aktywnie tworzy nowe zawody w dziedzinie AI i nauki o danych. To spowalnia adaptację AI – gdy lekarze nie wiedzą, jak działa AI i jakie stwarza możliwości, pojawiają się obawy i nieufność.

Poprawa opieki nad pacjentem i redukcja obciążeń administracyjnych to główne przesłani stosowania AI w ochronie zdrowia
Poprawa opieki nad pacjentem i redukcja obciążeń administracyjnych to główne przesłani stosowania AI w ochronie zdrowia

W Polsce szkolenia z zakresu AI prowadzi jedynie Naczelna Izba Lekarska, przede wszystkim w ramach Sieci Lekarzy Innowatorów. I to wszystko: takich szkoleń trudno szukać w Akademii Centrum e-Zdrowia albo w Narodowym Funduszu Zdrowia.

Odpowiedzialność za błędy AI pozostaje niedoregulowana

8% (4) państw WHO Europa opracowało standardy odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję w służbie zdrowia. Zaledwie 6% (3) wprowadziło wymogi prawne dotyczące systemów generatywnej sztucznej inteligencji (genAI) w zdrowiu.

I właśnie brak jasnych reguł, kto jest odpowiedzialny, gdy systemy AI popełniają błędy lub działają nieprawidłowo, powoduje, że lekarze często nie chcą jej stosować. Z drugiej strony, taki stan powoduje, że osoby już korzystające z AI mogą nadmiernie polegać na rekomendacjach systemów, narażając pacjentów na niebezpieczeństwo. Zwłaszcza, że nadal rzadkością jest monitorowanie działania systemów AI po ich wprowadzeniu na rynek, w warunkach rzeczywistych. To ma zmienić Akt w sprawie AI (EU AI Act), zgodnie z którym systemy AI stosowane w diagnozie i leczeniu są systemami wysokiego ryzyka i dlatego m.in. będą poddawane większej kontroli, w tym raportowaniu działań niepożądanych, podobnie do leków.

Jasne ramy odpowiedzialności mogłyby podnieść zaufanie środowiska medycznego do innowacji – sugeruje WHO.

Brak zasad odpowiedzialności za błędy AI powoduje, że lekarze niechętnie z niej korzystają
Brak zasad odpowiedzialności za błędy AI powoduje, że lekarze niechętnie z niej korzystają

Infrastruktura danych jest traktowana priorytetowo, ale rozwijana powoli

Sztuczna inteligencja opiera się na bezpiecznych, wysokiej jakości, interoperacyjnych danych. 66% (33 z 50) państw posiada krajową strategię w zakresie gromadzenia i wymiany danych zdrowotnych, a 76% (38 z 50) ma lub opracowuje ramy zarządzania tymi danymi. 66% (33 z 50) utworzyło regionalne lub krajowe centra danych zdrowotnych, umożliwiające m.in. szkolenie modeli sztucznej inteligencji.

Jednak tylko 30% (15 z 50) opracowało wytyczne dotyczące wtórnego wykorzystania danych zdrowotnych, a kolejne 30% posiada przepisy dotyczące transgranicznego udostępniania danych. Wyniki nie napawają optymizmem – Europa wdraża obecnie Europejską Przestrzeń Danych Zdrowotnych (EHDS), której celem jest ułatwienie wymiany danych pierwotnych (podsumowanie danych pacjenta) oraz wtórne ich wykorzystanie do badań i opracowywania kolejnych innowacji. Polska wprawdzie wdrożyła e-receptę transgraniczną i jest na dobrej drodze do wymiany danych medycznych w ramach Podsumowania Pacjenta, ale jeszcze nie drgnęła tematu wtórnego przetwarzania danych w ramach EHDS.

Inwestować czy nie inwestować w sztuczną inteligencję?

64% (32 z 50) państw deklaruje stosowanie narzędzi diagnostyki wspomaganej AI, a kolejne 50% (25) stosuje chatboty oparte na sztucznej inteligencji do opieki nad pacjentami. AI jest stosowana przede wszystkich w obszarach, które mają strategiczne znaczenie dla systemów zdrowia: opieki nad pacjentami (98%), zmniejszenia presji obciążeń administracyjnych na pracowników (92%) oraz zwiększenia efektywności systemu opieki zdrowotnej (90%).

Niepewność legislacyjna powoduje, że AI w ochronie zdrowia jest nadal rzadko stosowana
Niepewność legislacyjna powoduje, że AI w ochronie zdrowia jest nadal rzadko stosowana

Jednak tylko 52% (26 z 50) wyznaczyło priorytetowe obszary zastosowania AI, a jeszcze mniej przeznaczyło na ten cel konkretne środki finansowe. To powoduje dysonans pomiędzy chęciami a czynami.

Największą przeszkodą we wdrażaniu sztucznej inteligencji jest niepewność regulacyjna, którą zgłasza 86% (43 z 50) państw. Drugą jest finansowanie innowacji AI (78%). Większość krajów zgadza się, że jasne zasady dotyczące odpowiedzialności (92%) oraz wytyczne dotyczące przejrzystości i wyjaśnialności modeli AI (90%) przyspieszyłyby wdrażanie AI. Wyniki badania przeprowadzonego przez WHO w regionie europejskim pokazują, że AI jest coraz poważniej implementowana w systemach zdrowia. Nadal jednak deklaracje różnią się od poziomu rzeczywistej adaptacji. AI jest na razie stosowana głównie w dużych szpitalach, najczęściej w systemach diagnostyki obrazowej. Aby do nowej technologii miały dostęp wszystkie placówki, potrzebne są dedykowane ścieżki refundacyjne dla innowacji, intensywne szkolenia i wsparcie wdrażania np. AI w EDM.

Uczestnicy debaty (od lewej): dr hab. n. med. i o. zdr. Piotr Merks (Uniwersytet Kardynała Stefana Wyszyńskiego), prof. dr hab. n. med. Janina Stępińska (Narodowy Instytut Kardiologii Stefana kardynała Wyszyńskiego - Państwowy Instytut Badawczy), gen. broni prof. dr hab. n. med. Grzegorz Gielerak (Wojskowy Instytut Medyczny - Państwowy Instytut Badawczy), Adam Konka (Dyrektor Centrum e-Zdrowia), Dariusz Szplit (Uniwersyteckie Centrum Kliniczne w Gdańsku), Karolina Tądel (Ministerstwo Zdrowia)
Uczestnicy debaty (od lewej): dr hab. n. med. i o. zdr. Piotr Merks (Uniwersytet Kardynała Stefana Wyszyńskiego), prof. dr hab. n. med. Janina Stępińska (Narodowy Instytut Kardiologii Stefana kardynała Wyszyńskiego – Państwowy Instytut Badawczy), gen. broni prof. dr hab. n. med. Grzegorz Gielerak (Wojskowy Instytut Medyczny – Państwowy Instytut Badawczy), Adam Konka (Dyrektor Centrum e-Zdrowia), Dariusz Szplit (Uniwersyteckie Centrum Kliniczne w Gdańsku), Karolina Tądel (Ministerstwo Zdrowia)

Sztuczna inteligencja już jest w urządzeniach medycznych dla radiologii i kardiologii, a lada dzień zacznie masowo wchodzić do systemów IT przychodni i szpitali. Jak zabrać się za jej wdrażanie, aby zdobyła zaufanie i stała się drugą parą oczu lekarza? Co z odpowiedzialnością za błędy AI? Relacja z debaty Centrum e-Zdrowia.

Technologie ratują życie na sali operacyjnej i na polu walki

Według Prof. Lucjana Wyrwicza, Kierownika Kliniki Onkologii i Radioterapii Narodowego Instytutu Onkologii im. Marii Skłodowskiej-Curie, sztuczna inteligencja nie służy podejmowaniu decyzji tam, gdzie mamy nadmiar danych, ale tam, gdzie danych brakuje, gdzie pozostaje tylko ryzyko, intuicja i odpowiedzialność. Analogicznie do sytuacji, gdy korzystamy z nawigacji w samochodzie właśnie wtedy, gdy jedziemy nową drogą, a nie tą samą co zawsze.

Newsletter OSOZ

Gen. broni prof. dr hab. n. med. Grzegorz Gielerak, dyrektor Wojskowego Instytutu Medycznego – Państwowego Instytutu Badawczego, podał przykład takich rozwiązań, który zastępują intuicyjne decyzje tymi opartymi na faktach – chodzi o system monitorujący na bieżąco parametry pacjenta podczas operacji, zanim personel dostrzeże zagrożenie np. pierwsze objawy świadczące, że coś dzieje się nie tak jak powinno.

– Maszyna nie tylko widzi szybciej. Ona daje nam czas na reakcję, zanim stanie się coś nieodwracalnego. Ale ten czas musi być właściwie wykorzystany przez człowieka, który rozumie, co się za chwilę wydarzy – mówił generał Gieralak, wskazując na korzyści w postaci bezpieczeństwa pacjenta i niższy kosztów leczenia. WIM realizował także projekt finansowany z Narodowego Centrum Badań i Rozwoju, w którym AI zastosowano do opieki nad pacjentami z przewlekłą niewydolnością krążenia, aby przewidywać pogorszenie stanu zdrowia i z wyprzedzeniem móc zastosować leczenie farmakologiczne.

Gen. broni prof. dr hab. n. med. Grzegorz Gielerak: na polu walki nie ma wysokiej klasy specjalistów, dlatego AI, telemedycyna i telemonitoring mogą ratować życie
Gen. broni prof. dr hab. n. med. Grzegorz Gielerak: „Na polu walki nie ma wysokiej klasy specjalistów, dlatego AI, telemedycyna i telemonitoring mogą ratować życie”

Jak przypomniał prof. Gieralak, AI i robotyka zyskują szczególnie na znaczeniu w medycynie wojskowej.

– Na polu walki rzadko mamy do dyspozycji profesorów czy wysokiej klasy specjalistów. Najczęściej działa tam średni personel medyczny. Doświadczenia z Ukrainy pokazały, że zakres udzielanej pomocy nie może zależeć wyłącznie od formalnych kompetencji, lecz przede wszystkim od bieżących potrzeb i sytuacji. Dlatego potrzebujemy rozwiązań, które realnie wspierają personel w takich warunkach, łącząc wszystkie kluczowe informacje – mówił generał. Najbardziej zaawansowana w tym zakresie jest amerykańska armia, która powszechnie stosuje tzw. TC3 (red.: Tactical Combat Casualty Care), czyli systemy zbierające sygnały biologiczne i dane medyczne od momentu zranienia aż po kolejne etapy udzielania pomocy. Informacje o stanie pacjenta, diagnostyce i zastosowanych procedurach są zintegrowane, co pozwala wypracować optymalną decyzję dotyczącą rokowania i dalszego postępowania.

Algorytmy znają historie chorób milionów pacjentów i znają ich przebieg

Prof. dr hab. n. med. Janina Stępińska z Narodowego Instytutu Kardiologii przypomniała, że technologia nie zastępuje empatii, ale może ją wspierać, jeśli zostanie mądrze zaprojektowana. AI może być bez dylematów stosowana do zadań „miękkich”, jak planowanie wyposażenia sal operacyjnych albo dyżurów. W przypadku zadań „twardych”, czyli klinicznych, trzeba bardzo ostrożnie planować włączenie AI do pracy lekarzy.

– AI może odciążyć lekarza z analiz i protokołów, ale nie powinna zabierać mu czasu na zadanie jednego fundamentalnego pytania: „czego Pan się najbardziej boi?” – mówił Prof. Stępińska, przytaczając badania pokazujące, jak pacjenci reagują na chatboty medyczne. Ku zaskoczeniu, wielu, pacjenci często czują się wysłuchani przez robota – nie dlatego, że robot rozumie ich stan zdrowia, ale dlatego, że nie przerywa, nie ocenia, nie spieszy się. Jej zdaniem, przyszłość medycyny to wspólna przestrzeń dla czujności algorytmów i doświadczenia lekarzy, ale centrum tej przestrzeni zawsze musi pozostać pacjent.

Szczególnie dobrze algorytmy radzą sobie w wyłapywaniu chorób rzadkich, gdzie AI może przeanalizować pełną dokumentację pacjenta i wyłapać korelacje, których lekarz nie jest w stanie zauważyć ze względu na ilość danych. Oprócz kardiologii, AI sprawdza się też a onkologii, dopasowując leczenie do najnowszych wytycznych. Przykładowo, w ramach Krajowej Sieci Onkologicznej (KSO), AI mogłyby pomagać w wypracowywaniu wysokiej jakości standardów leczenia, poprzez porównywanie danych na temat wyników leczenia. AI jest też w stanie monitorować pacjentów po wypisie ze szpitala, analizując parametry pacjenta i kontrolując, czy powrót do zdrowia przebiega zgodnie z normami.

Prof. dr hab. n. med. Janina Stępińska: Algorytmy szczególnie dobrze radzą sobie w diagnozie chorób rzadkich, gdzie człowiekowi trudno znaleźć subtelne korelacje w masie danych
Prof. dr hab. n. med. Janina Stępińska: Algorytmy szczególnie dobrze radzą sobie w diagnozie chorób rzadkich, gdzie człowiekowi trudno znaleźć subtelne korelacje w masie danych

Innowacje powinny chronić pacjentów przez wizytą w szpitalu

Dr hab. n. med. i o. zdr. Piotr Merks z Uniwersytetu Kardynała Stefana Wyszyńskiego przedstawił medycynę z perspektywy farmaceuty i profilaktyki społecznej. Opowiedział o projekcie wykorzystującym algorytmy do analizy recept i identyfikowania pacjentów narażonych na ciężki przebieg grypy, COVID-19 lub chorób przewlekłych. Jak zauważył, nie musimy marzyć o robotach chirurgicznych w każdym powiatowym szpitalu, skoro największe efekty można osiągnąć w prewencji. W farmacji AI ma też zastosowanie np. w produkcji leków, gdzie z pomocą kamer obserwuje się cały proces, a AI wykrywa potencjalnie niebezpieczne sytuacje mogące prowadzić do zanieczyszczenia preparatów.

– Innowacja, która zatrzymuje pacjenta przed drzwiami szpitala, to jest prawdziwy sukces medycyny jutra – mówił dr Merks.

Pobierz bezpłatny raport o AI w ochronie zdrowia
Pobierz bezpłatny raport o AI w ochronie zdrowia

Z kolei Karolina Tądel z Ministerstwa Zdrowia podkreśliła, że Amerykańska Agencja ds. Leków i Żywności dopuściła już na rynek 1200 algorytmów AI i uczenia maszynowego, przede wszystkim w radiologii i kardiologii. W zeszłym roku było ich 950 więc przyrost jest błyskawiczny. Do tego 70% szpitali korzystających z AI, nie wdraża ich do procedur diagnostycznych czy wspierania decyzji, ale do zadań administracyjnych. Jej zdaniem, technologia nie może być wdrażana od strony algorytmów, lecz od strony potrzeb.

Największym błędem systemu zdrowia jest to, że często mierzymy to, co łatwo zmierzyć, zamiast tego, co naprawdę ma znaczenie. Dlatego systemy zdrowia muszą też uwzględniać perspektywę pacjentów, jak motywację do wyzdrowienia czy bariery społeczne.

Karolina Tądel: Większość algorytmów wdrażanych w placówkach zdrowia wspomaga zadania administracyjne, a nie kliniczne
Karolina Tądel: Większość algorytmów wdrażanych w placówkach zdrowia wspomaga zadania administracyjne, a nie kliniczne

– Nie przekonamy pacjenta do profilaktyki liczbami, ale możemy go przekonać dzięki technologii, która rozumie jego język, sytuację i emocje – mówiła. „Konsekwencją wdrożenia AI musi być także reforma edukacji medycznej. Tak, by przyszli lekarze nie tylko znali systemy, ale potrafili je krytycznie wykorzystywać.”

AI może przewidzieć z dużym prawdopodobieństwem, co może się wydarzyć jutro albo za tydzień

Adam Konka, dyrektor Centrum e-Zdrowia, przypomniał, jak ważne jest zaprojektowanie narzędzi AI na miarę polskiego systemu zdrowia. Technologia musi działać zarówno w dużych centrach klinicznych jak i w małych, zwyczajnych przychodniach” Przestrzegł przed projektowaniem rozwiązań „doskonałych technologicznie, ale kompletnie bezużytecznych praktycznie”. Jego zdaniem, kluczowe będzie stworzenie fundamentu danych, który pozwoli uczyć i walidować rozwiązania AI w systemie publicznym.

– Mamy 100 procent cyfrowych danych medycznych w Polsce, ale nie umiemy ich jeszcze użyć. Technologia nie jest problemem. Problemem jest zaufanie i odpowiedzialność – mówił Konka, według którego przyszłość systemu polega na „wyposażeniu lekarza w narzędzia, które rozszerzają jego zdolności diagnostyczne i upraszczają powtarzalne zadania”.

Przedstawił też projekt realizowany w Śląskim Parku Technologii Medycznych Kardio-Med Silesia, skierowany do pacjentów z ciężką niewydolnością serca i wykorzystujący urządzenia wszczepialne oraz dodatkowe przystawki monitorujące najważniejsze parametry zdrowia. Dzięki nim możliwe jest stałe, zdalne nadzorowanie stanu chorego. System umożliwia raportowanie do lekarza specjalisty na drugim poziomie opieki, dzięki czemu można szybko podejmować działania ratujące życie lub stabilizujące stan pacjenta, a także przyspieszać dostęp do konsultacji, jeśli pojawiają się niepokojące sygnały. Zwłaszcza w chorobach kardiologicznych ważne jest, aby odpowiednio wcześnie wychwycić sygnały świadczące o pogarszającym się stanie pacjenta i temu właśnie służy system monitorowania.

Adam Konka, dyrektor Centrum e-Zdrowia: Monitorowanie zdrowia pacjentów z chorobami kardiologicznymi może uratować życie, uniknąć powikłań, a do tego przynosi oszczędności
Adam Konka: Monitorowanie zdrowia pacjentów z chorobami kardiologicznymi może uratować życie, pozwala uniknąć powikłań, a do tego przynosi oszczędności

Przyszłość medycyny to lekarz współpracujący z AI

Podczas debaty pojawiło się wiele przykładów praktycznych zastosowań AI: od monitorowania pacjentów z wszczepialnymi urządzeniami, przez algorytmiczne planowanie profilaktyki populacyjnej, po analizę danych obrazowych w kardiologii i onkologii lub w chirurgii do zmniejszania wpływu drgania rąk człowieka w operacjach robotycznych.

Gen. Gielerak przypomniał, że „algorytmy osiągają dziś 97% skuteczności w identyfikacji zmian o średnicy poniżej milimetra, ale nie potrafią powiedzieć pacjentowi, co to oznacza dla jego życia. Dlatego przyszłość AI widzi w płynnej współpracy technologii z człowiekiem, bo sama technologia często nie zna kontekstu i nie może pomóc. Przykładem są automatyczne boty na infoliniach, które są często powodem do frustracji, a nie wsparciem.

Na koniec debaty padło pytanie, czy młodzi lekarze, wychowani w środowisku algorytmów, będą potrafili działać samodzielnie. Prof. Stępińska poruszyła jedną z największych obaw: „Jeśli w sytuacji awaryjnej zabraknie systemów wspomagających decyzję, czy lekarz będzie umiał działać intuicyjnie, tak, jak uczono kiedyś?”. Gen. Gielerak doprecyzował, że chodzi o „zdolność do działania w chaosie, w warunkach braku danych, pod presją, ale z zachowaniem odpowiedzialności”. Dlatego medycyna analogowa nie utraci na wartości i każde pokolenie lekarzy będzie musiało mieć bazową wiedzę, aby działać bez wsparcia AI.

Sztuczna inteligencja nie zmieni medycyny od razu, ale już zmienia sposób, w jaki lekarze słuchają pacjentów, analizują dane i decydują o leczeniu. Czeka nas rewolucja relacji między człowiekiem a technologią, między wiedzą a intuicją, między zaufaniem a odpowiedzialnością.

Lek. med. Jerzy Radziszowski, Prezes Przychodni Lekarskiej Diamed Sp. z o.o. w Krakowie
Lek. med. Jerzy Radziszowski, Prezes Przychodni Lekarskiej Diamed Sp. z o.o. w Krakowie

Ponad 22 000 placówek medycznych w Polsce świadczy usługi na kontrakcie z NFZ. To im najtrudniej finansować cyfryzację, bo działają pod presją finansową i kadrową. Odwiedziliśmy jedną z nich – Przychodnię Lekarską Diamed Sp. z o.o. w Krakowie. Z Prezesem lek. med. Jerzy Radziszowskim rozmawiamy o aktualnych wyzwaniach digitalizacji, AI oraz centralnych projektach e-zdrowia.

Czy cyfryzacja to dla Pana koszt czy inwestycja? 

Każda inwestycja jest kosztem, ale nie każdy koszt jest inwestycją. Jeśli planujemy inwestycję, to niezależnie od wkładu finansowego, szacujemy korzyści z niej wynikające, nie zawsze muszą to być w pierwszej kolejności korzyści ekonomiczne. Z reguły zakup nowych systemów informatycznych zawsze wiąże się nie tylko z kosztami finansowymi, ale też wyzwaniami organizacyjnymi. Przede wszystkim migracja danych do nowego systemu, to z reguły największy problem. Szkolenie personelu z obsługi aplikacji, integracja z systemami zewnętrznymi itd.

Cyfryzacja to proces inwestycyjny, tak naprawdę niekończący się, bez którego nie da się obecnie prowadzić żadnej działalności, także w sektorze ochrony zdrowia. Proszę zauważyć, iż cała warstwa wymiany danych administracyjnych np. rozliczeniowych z NFZ, ale i innymi płatnikami, odbywa się od wielu lat wyłącznie w formie cyfrowej. Nie ma w tym zakresie alternatywy. E- recepty, skierowania do specjalistów, sanatorium, e-ZLA, karta DILO i inne to dokumenty generowane w formie elektronicznej.

Newsletter OSOZ

W tym złożonym procesie trzeba też uwzględnić oczekiwania i interesy pacjentów. Nie dla wszystkich informatyzacja oznacza ułatwienia. Jesteśmy społeczeństwem starzejącym się, nasi pacjenci to w dużej mierze osoby starsze, niekiedy posiadające ograniczenia uniemożliwiające korzystanie ze zdobyczy techniki. Ale nie tylko pacjenci, także kadra medyczna – starsze pokolenie medyków – ma z tym problem. Niewłaściwie zaprojektowane aplikacje, i nie tylko te w ochronie zdrowia, wręcz prowadzą do wykluczenia cyfrowego wielu osób, także zawodowo. Z drugiej strony są duże oczekiwania i presja młodszego pokolenia. Ta grupa społeczna chciałaby wszystkie sprawy załatwić on-line. Dlatego też, ważne jest odpowiednie wyważenie stopnia informatyzacji w poszczególnych segmentach systemu ochrony zdrowia. Te kwestie powinny zostać prawnie uregulowane.

Jakie wydatki na e-zdrowie planuje Pan w kolejnych 1-3 latach?

Na razie przyglądamy się, weryfikujemy i oceniamy, co oferuje rynek. Obecnie jesteśmy w okresie dużej niepewności w sektorze ochrony zdrowia finansowanej przez NFZ. Nie ma stabilnej polityki dotyczącej informatyzacji tego sektora. Trudno zatem podejmować decyzje. Inna sytuacja jest w sektorze komercyjnym. Moim zdaniem o wiele bardziej przejrzysta, mniej skomplikowana, pozbawiona konieczności gromadzenia i przetwarzania ogromnej ilości danych, najczęściej wielokrotnie tych samych, i co najważniejsze – przewidywalna. W tym sektorze prywatnym łatwiej jest zaplanować inwestycje, nie musimy się kierować zewnętrznymi uwarunkowaniami.

Skąd bierze Pan środki finansowe?

Wszelkie inwestycje IT finansujemy zawsze z własnych środków, zwłaszcza w oprogramowanie. Są to inwestycje niematerialne, raczej trudno przewidywalne, gdzie ryzyko inwestycyjne jest dość duże. Jeśli zaistnieje możliwość refundacji z programów pomocowych, to korzystamy z takich okazji.

Centrum e-Zdrowia wprowadza m.in. kolejne obligatoryjne dokumenty do EDM, w przyszłym roku wejdzie Centralna e-Rejestracja. Jak ocenia Pan te inicjatywy i strategię e-zdrowia realizowaną przez CeZ i MZ?

Centralna e-Rejestracja, jak każda centralna „inicjatywa”, jest mocno przewartościowania. Medialnie ma być panaceum na długie kolejki do lekarzy i zmniejszyć liczbę wizyt, na które pacjenci się nie zgłaszają. Moim zdaniem to niewiele zmieni, bo nie ma sankcji. Pacjent, który nie przyjdzie do lekarza na wyznaczony termin zapisany w CeR i tak ma prawo zarejestrować się ponownie, nie ponosząc żadnych konsekwencji.

Co do EDM, uczestniczyłem w projekcie pilotażowym – z sukcesem. I to na tyle. Gromadzenie olbrzymich ilości danych bez możliwości ich wymiany pomiędzy podmiotami leczniczymi nie wnosi żadnej nowej jakości. Nie ma centralnego repozytorium EDM, z zasobów którego moglibyśmy korzystać. Dlaczego nie mamy dostępu do badań diagnostycznych wykonywanych naszym pacjentom w innych placówkach np. RTG, MR, TK czy laboratoryjnych.

W moim przekonaniu informatyzacja w sektorze ochrony zdrowia postępuje zbyt wolno. Obarczono nas koniecznością gromadzenia, przetwarzania i udostępniania ogromnych ilości danych informatycznych, zamiast rozpocząć budowę systemu od zbierania najbardziej podstawowych danych i sukcesywnie zwiększać ich zakres w trakcie rozwoju systemu.

Istotnym czynnikiem hamującym rozwój e-zdrowia są bez wątpienia niedoskonałości udostępnianych przez NFZ i Centrum e-Zdrowia systemów informatycznych, co budzi uzasadniony sprzeciw.

Które elementy najbardziej wpływają na pomyślą digitalizację?

Czynników jest wiele, które składają się na całość. Przede wszystkim czynnik ludzki. W zakładach opieki zdrowotnej pracuje wiele grup zawodowych, ich oczekiwania są odmienne, czasami bardzo różne. Inne oczekiwania co do systemu będzie zgłaszał personel lekarski, inne pielęgniarki i położne, technicy, laboranci, a całkowicie inne priorytety wymienią sekretarki medyczne. Kolejnym elementem jest ergonomia systemu, intuicyjność i łatwość obsługi, automatyzacja procesów powtarzalnych. Integracja z systemami zewnętrznymi np. platformy P1, ZUS, DILO itd. Kolejny element to infrastruktura – serwery, komputery, drukarki, skanery. Czyli cała warstwa sprzętowa. Bez wątpienia o sukcesie digitalizacji w podmiotach leczniczych decyduje wiele czynników, które wymieniłem. W zależności od profilu działalności placówki medycznej jedne czynniki odgrywają większą inne mniejszą rolę.

Na co kładzie Pan szczególny nacisk we współpracy z dostawcą IT?

Z mojego punktu widzenia najważniejsze we współpracy z dostawcami systemów IT jest komunikacja i zdolność reagowania na zmieniające się warunki. I mam tu na myśli zarówno zmieniające nie wymagania płatnika, czyli NFZ oraz np. platformy P1, ZUS, jak i nasze oczekiwania wynikające z powyższych zmian oraz z wprowadzanych w placówkach systemów optymalizacji zarządzania, np. ruchu chorych, kanałów komunikacji elektronicznej.

Należy zaznaczyć, iż obecnie dostawcy IT dla podmiotów leczniczych skupiają się głównie na dostarczeniu oprogramowania, instalacji i najczęściej szkoleniu informatyków. Brakuje natomiast szkoleń praktycznych dla pracowników medycznych. Bardzo dziwi mnie fakt, iż np. studenci medycyny nie mają zajęć praktycznych z obsługi dostępnych na rynku systemów informatycznych. Przecież to będzie ich podstawowe narzędzie pracy. Brak tej wiedzy to powód stresu, niepotrzebnej frustracji dla nowych medyków i dodatkowe obciążenie dla przyszłych pracodawców.

Czy zatem firmy IT produkujące systemy informatyczne dla potrzeb ochrony zdrowia nie powinny wykazać się większą aktywnością w tym zakresie? Przecież takie kursy mogłyby organizować cyklicznie także Okręgowe Izby Lekarskie, przy wsparciu firm IT, np. w trakcie odbywania stażu podyplomowego. Kursy w OIL nie wymagają zmiany programu studiów – co w naszych warunkach może trwać latami – i można je zrealizować bez większych problemów. Certyfikat ukończenia kursu obsługi programu informatycznego byłby bez wątpienia dodatkowym atutem w aplikowaniu o posadę i ważną informacją dla pracodawcy.

Czy rozważa Pan już wprowadzanie rozwiązań opartych na sztucznej inteligencji, czy raczej jest to jeszcze odległa perspektywa?

Obecnie na świecie zapanowała moda na sztuczną inteligencję. Moim zdaniem na razie to fascynacja i bezkrytyczne podejście do niewątpliwie zaawansowanej technologii. AI to jednak technologia, i jak nazwa wskazuje, sztuczna. Jak każda maszyna, jest wytworem ludzkiej inteligencji. Nie mam nic przeciwko takim rozwiązaniom, jak najbardziej sztuczna inteligencja w znacznym stopniu zapewne usprawni wykonywanie wielu czynności powtarzalnych. Jednakże uważam, iż w tak newralgicznej kwestii jaką jest zdrowie i życie ludzkie, ostateczne decyzje zawsze powinien podejmować wykwalifikowany personel.

Bez wątpienia systemy oparte o AI, powinny być wprowadzane stopniowo na podstawie precyzyjnie określonych zapisów prawnych. Należy szczegółowo określić, w których obszarach ochrony zdrowia i w jakim stopniu można stosować systemy oparte na AI. Chociażby z powodu uregulowania roszczeń odszkodowawczych: Kto będzie i w jakim zakresie odpowiadał za ewentualne błędy medyczne popełnione przez AI. To tylko maszyna i jak każde urządzenie może zawieść. Jest jeszcze jeden, niezwykle istotny czynnik. W obecnym świecie zatracamy zdolność nawiązywania kontaktów i relacji międzyludzkich. Jak one są ważne w kwestii ochrony zdrowia i życia nie muszę chyba przekonywać. Jeśli się jednak mylę, to przed ciężko chorym onkologiczne pacjentem zamiast lekarza, z równie dobrym skutkiem terapeutycznym można by postawić humanoidalnego robota z AI. Czy na pewno?

Co będzie dla Pana największym wyzwaniem w 2026 toku?

Niewątpliwym wyzwaniem będzie zapewnienie finansowania świadczeń zdrowotnych udzielanych w ramach kontraktu z NFZ na co najmniej dotychczasowym poziomie. Oczekiwania pacjentów rozbudzane w ten czy inny sposób wywierają ogromna presję na zarządzających.

Sporo obaw dotyczy wprowadzenia Krajowego Systemu e-Faktur (KSeF). Nasze zaniepokojenie związane jest z generowaniem licznych faktur korygujących przez NFZ niekiedy za świadczenia udzielone wiele miesięcy wcześniej. Są one wynikiem najdelikatniej ujmując „niedoskonałości” w weryfikacji świadczeń udzielonych, sprawozdanych, potwierdzonych i rozliczonych przez NFZ. Nie mamy odpowiedzi jak ten problem będzie rozwiązany. Podobno w grudniu ma ruszyć środowisko testowe dla świadczeniodawców posiadających umowy z NFZ.

Kolejnym wyzwaniem jest preskrypcja leków, a właściwie automatyzacja ustalania stopnia odpłatności za przepisane przez lekarza leki. Prace trwają od lat i widocznych efektów jak nie było, tak nie ma. Przecież to klasyczny przykład automatyzacji. Zdumiewające jest to, że przy tak szeroko zachwalanej AI nie udało się opracować algorytmu automatycznie ustalającego poziom refundacji leku w zależności od postawionego rozpoznania, w oparciu o kod ICD:10, a w przypadkach bardziej złożonych klinicznie – o tzw. pytania dodatkowe. Kryteria poziomu refundacji są jasne, określa je Minister Zdrowia. Czy zatem przekracza to kompetencje i możliwości MZ i CEZ? Zastanawiam się dlaczego, żadna z wiodących firm IT nie przedstawiła nawet propozycji aplikacji automatyzującej ustalanie stopnia refundacji leków wraz ze środowiskiem testowym.

Adam Konka, Dyrektor Centrum e-Zdrowia, poprowadził debatę o AI w diagnostyce obrazowej
Adam Konka, Dyrektor Centrum e-Zdrowia, poprowadził debatę o AI w diagnostyce obrazowej

Platforma Usług Inteligentnych (PUI) jest bezprecedensową szansą na to, aby kilkaset szpitali wdrożyło nowoczesne algorytmy AI w diagnostyce obrazowej. Ale jej wdrożenie wisi na włosku – na ogłoszone trzy przetargi wpłynęło do końca listopada sześć protestów. Podczas debaty zorganizowanej przez Centrum e-Zdrowia eksperci rozmawiali o tym, po co radiologom algorytmy.

Aby zastosowanie sztucznej inteligencji (AI) w diagnostyce obrazowej i opiece nad pacjentem zaczęło przekładać się na konkretne korzyści, jak szybsza diagnoza i lepsze wyniki leczenia, trzeba zadbać o jakość i standaryzację danych oraz integrację systemów RIS (systemy do radiologii) i PACS (systemy archiwizacji obrazów) z systemami szpitalnymi HIS – to główny wniosek z debaty. Ale dużo mówiono też o PUI, która mogłaby uczynić z Polski lidera AI w radiologii, ale projekt jest zagrożony. Czy uda się go zrealizować i o czym jeszcze rozmawiali eksperci?

Newsletter OSOZ

Radiolodzy chcą korzystać z AI, problemem są dane

Profesor Barbara Bobek-Billewicz z Narodowego Instytutu Onkologii w Gliwicach zaznaczyła, że największą nadzieję na AI w radiologii wiąże z analizą badań sekwencyjnych w czasie i ocenę skuteczności leczenia. Przykładem jest segmentacja i liczenie objętościowych zmian guza, które AI wykonuje szybko i w sposób porównywalny. Jej zdaniem taka powtarzalność ma ogromną wartość kliniczną i „nawet jeśli AI się myli, to powtarza ten sam błąd, co pozwala utrzymać wiarygodność porównań w czasie”. AI w gliwickim ośrodku służy głównie do oceny odpowiedzi na leczenie, porównania objętości zmian i planowania dalszej terapii.

Radiolodzy są zgodni, że AI jest konieczna, aby poprawić szybkość i jakość diagnozowania. Bezprecedensową szansą jest Platforma Usług Inteligentnych
Radiolodzy są zgodni, że AI jest konieczna, aby poprawić szybkość i jakość diagnozowania. Bezprecedensową szansą jest Platforma Usług Inteligentnych

– My jako radiolodzy bardzo potrzebujemy sztucznej inteligencji, ale nie do tego, by za nas diagnozowała, lecz do porównywania wyników z różnych etapów leczenia – mówiła prof. Billewicz.

Krzysztof Gibiński z Uniwersyteckiego Centrum Klinicznego im. prof. Kornela Gibińskiego w Katowicach skupił się na barierach ściśle technicznych: braku standaryzacji nazw sekwencji, formatów obrazów, sygnatur DICOM oraz niewspółdziałaniu systemów. Jego zdaniem największym problemem jest to, że dane nie są jednolite, a sprzęt i systemy informatyczne nie „rozmawiają ze sobą” w sposób zgodny z potrzebami klinicznymi. Kwestie techniczne blokują normalną pracę lekarza z AI. Podkreślił też, że zanim AI zostanie włączona do procesu diagnostycznego, placówka musi uporządkować strukturę danych wejściowych.

– Idealnym obszarem zastosowania sztucznej inteligencji jest uporządkowanie oznaczeń, struktur i metadanych badań, bo na razie panuje chaos – mówił.

Pobierze darmowy raport o AI w ochronie zdrowia
Pobierze darmowy raport o AI w ochronie zdrowia

Narzędzia są, szwankuje komunikacja między nimi

Dr n. med. Andrzej Górecki z ZOZ nr 2 w Rzeszowie  zwrócił uwagę, że wiele rozwiązań AI działa już „w tle”, poprawiając jakość obrazów lub wspierając priorytetyzację przypadków klinicznych. Jednak największym problemem pozostaje brak spójnego, wieloetapowego przepływu danych. Narzędzia działają fragmentarycznie i brakuje pełnej integracji.

– Sztuczna inteligencja weszła do naszej codziennej pracy, choć często nawet nie zdajemy sobie z tego sprawy. Działa przy akwizycji obrazu, redukcji szumów czy ustawianiu protokołów – mówił dr Górecki. Podkreślił jednak, że prawdziwa wartość AI w diagnostyce pojawi się dopiero wtedy, gdy wszystkie etapy – od skierowania, przez badanie, po opis i archiwizację – będą cyfrowo zintegrowane. „Większym problemem niż dostępność narzędzi jest ich połączenie w jedną spójną ścieżkę opieki nad pacjentem.”

Prof. dr hab. n. med. Jerzy Walecki  z Państwowego Instytutu Medycznego MSWiA przypomniał, że radiologia od lat korzysta z zaawansowanych algorytmów wspomagających analizę obrazu, a obecnie wchodzimy w zupełnie nową fazę wykorzystania analizy teksturalnej, radiomiki i modelowania predykcyjnego. Radiomika, która jest już odrębną gałęzią nauki, pozwala wydobywać informacje z obrazu, których lekarz nie jest w stanie zobaczyć: dotyczące biologii guza, potencjalnej odpowiedzi na terapię czy przewidywania remisji choroby.

– Uzyskujemy dane o cechach guza, których nie widać gołym okiem, o jego biologii, strukturze i rokowaniu  i to bez wykonywania biopsji – mówi prof. Walecki. Ale AI idzie jeszcze dalej i dziś na podstawie cech z diagnostyki obrazowej można nawet prognozować przebieg choroby, monitorować jej rozwój i obliczać rokowania.

Szybsza diagnoza, szybsze leczenie

Jak zauważył dr n. med. Piotr Palczewski z Warszawskiego Uniwersytetu Medycznego, obecna dyskusja o AI często skupia się na skomplikowanych zastosowaniach, podczas gdy realna potrzeba kliniczna jest bardziej podstawowa: przyspieszenie procesu opisywania badań, zwłaszcza w warunkach pilnych. Jego zdaniem, najważniejszym zastosowaniem AI jest automatyczna identyfikacja badań krytycznych i skrócenie okresu od diagnozy do leczenia. AI redukuje czas oczekiwania na opis badania, zwłaszcza w sytuacjach dużej presji czasu, przykładowo w nocy na SOR-ach. Radiolodzy oczekują też odciążenia od prostszych przypadków, które nadal bardzo ich angażują. Prof. Palczewski podkreślił, że w jego pracy najbardziej liczy się szybkie rozpoznanie oznak patologii, bo czasami liczy się każda minuta.

Prof. dr hab. Katarzyna Karmelita-Katulska, Prezeska Polskiego Lekarskiego Towarzystwa Radiologicznego dodała, że zanim jakiekolwiek rozwiązania AI zostaną efektywnie wdrożone, trzeba ustandaryzować infrastrukturę informatyczną szpitali. Problemy z integracją wynikają z tego, że każdy szpital funkcjonuje w innym środowisku technologicznym, często niestabilnym i niewspółpracującym z zewnętrznymi systemami.

Prof. dr hab. Katarzyna Karmelita-Katulska, Prezeska Polskiego Lekarskiego Towarzystwa Radiologicznego (w środku): "Do tej pory każdy szpital był odpowiedzialny za swój własny HIS, wybierał to, co albo było tańsze, albo było bardziej wygodne, albo akurat na danym terenie było przez kogoś polecane. I tak powstał chaos w wymianie danych"
Prof. dr hab. Katarzyna Karmelita-Katulska, Prezeska Polskiego Lekarskiego Towarzystwa Radiologicznego (w środku): „Do tej pory każdy szpital był odpowiedzialny za swój własny HIS, wybierał to, co albo było tańsze, albo było bardziej wygodne, albo akurat na danym terenie było przez kogoś polecane. I tak powstał chaos w wymianie danych”

– Do tej pory każdy szpital był odpowiedzialny za swój własny HIS, a integracja zawsze była dramatem, bo nikt nie myślał o interoperacyjności – mówił prof. Karmelita-Katulska. Zwróciła także uwagę, że radiolodzy chcą aktywnie współtworzyć narzędzia AI, bo tylko wtedy będą one odpowiadały realnym potrzebom. Największe nadzieje wiąże z AI do usprawnienia pracy, wspomagające przepływ danych i ich analizę.

Decydujące miesiące dla Platformy Usług Inteligentnych

Jednym z największych projektów centralnych, dzięki którym radiologia w Polsce ma szansę zrobić ogromny krok do przodu, jest Platforma Usług Inteligentnych (PUI). Adam Konka, dyrektor Centrum e-Zdrowia jest zdeterminowany, aby projekt zrealizować mimo napiętych terminów. Jeśli nie zdążymy do końca marca, stracimy pieniądze z Unii. Potrójny przetarg został ogłoszony na początku listopada, ale do końca miesiąca wpłynęło już 6 protestów. Zakładając, Krajowa Izba Odwoławcza (KIO) rozpatrzy je w połowie stycznia, a ewentualne oddalenie protestu zostanie zaskarżone do sądu, wówczas na wdrożenie PUI zostanie praktycznie kilka, najwyżej kilkanaście tygodni. Nie ma co liczyć, że Unia przedłuży terminy z KPO.

Pobierz raport OSOZ "AI w ochronie zdrowia"
Pobierz raport OSOZ „AI w ochronie zdrowia”

 – Jeżeli ktoś myśli, że da się ten proces zatrzymać protestami, to się nie uda – zaznaczył Konka. Platforma ma umożliwiać testowanie, certyfikowanie i wykorzystanie algorytmów AI w skali krajowej, zapewniając zgodność z wymogami bezpieczeństwa, prywatności i jakości danych. PUI jest „koniecznym fundamentem dla integracji danych, warunkiem, aby algorytm mógł działać na poziomie ogólnopolskim”.

Wniosek z debaty jest jednoznaczny: wdrażanie AI w Polsce rozbija się o brak spójnej infrastruktury danych. Technologia jest, ale nie ma danych, tymczasem potencjał AI w diagnostyce obrazowej zależy od jakości metadanych, struktury obrazów, spójności formatów i interoperacyjności systemów. Bez standaryzacji, wdrożenia algorytmów w diagnostyce obrazowej będą ograniczone do pojedynczych placówek, bez możliwości skalowania. Niestety, systemy HIS, RIS i PACS funkcjonują jako silosy, bez jednolitego słownika danych i trybów wymiany informacji.

Adam Konka, Prezes CeZ, podsumował, że Polska już jest jednym z liderów cyfryzacji w Europie, a jeżeli wdrożymy PUI, to wejdziemy na poziom nieosiągalny dla krajów europejskich i Stanów Zjednoczonych
Adam Konka, Prezes CeZ, podsumował, że Polska już jest jednym z liderów cyfryzacji w Europie, a jeżeli wdrożymy PUI, to wejdziemy na poziom nieosiągalny dla krajów europejskich i Stanów Zjednoczonych

Konieczne jest stworzenie spójnej ścieżki klinicznej, w której algorytmy będą działać na wiarygodnych danych, z odpowiednią kontrolą jakości, walidacją i monitoringiem. Dopiero na tej podstawie można myśleć o algorytmach predykcyjnych, prognozujących przebieg choroby lub personalizujących terapię. Eksperci zgodzili się, że rola AI w radiologii nie polega na autonomicznej ocenie obrazów, ale na uporządkowaniu danych, wsparciu w interpretacji i wyrównaniu jakości diagnostyki między placówkami.

Calm została pobrana 180 mln razy, ma 4 mln indywidualnych subskrybentów oraz 17 mln użytkowników w ramach planów ubezpieczenia zdrowotnego lub bonusów pracodawcy
Calm została pobrana 180 mln razy, ma 4 mln indywidualnych subskrybentów oraz 17 mln użytkowników w ramach planów ubezpieczenia zdrowotnego lub bonusów pracodawcy

Calm to wielokrotnie nagradzana aplikacja do higieny zdrowia psychicznego. I w pełni na to zasługuje, bo pomaga zredukować stres i odzyskać wewnętrzną równowagę w kilka minut.

W sekcji medytacji i uważności znajdziemy szeroki wybór sesji, np. krótkie medytacje, które można wykonać nawet w miejscu pracy. Są też zaawansowane medytacje przeznaczone do łagodzenia niepokoju, zarządzania stresem, poprawy koncentracji, snu, samooceny czy wzmacniania poziomu odczuwalnego szczęścia. Każdą sesję prowadzą doświadczeni eksperci, co jest pomocne zwłaszcza dla początkujących. Są też kilkudniowe programy terapeutyczne jak np. 7-dniowy program z zakresu uważności dla początkujących i zaawansowanych.

Calm oferuje duży wybór medytacji, opowieści do snu i ćwiczeń relaksacyjnych

Drugim mocnym filarem jest poprawa jakości snu. Ciekawostką są opowieści do snu – nagrania, które przypominają bajki dla dorosłych. Ich celem jest wyciszenie i przygotowanie do głębokiego, regenerującego snu. Jedna z popularnych historii zabiera słuchaczy w podróż malowniczą kolejką Nordland w Norwegii.

Trzecie zastosowanie dotyczy codziennej walki ze stresem. Dzięki systematycznym sesjom Daily Calm czy krótkim, 10-minutowym programom można obniżyć poziom niepokoju i zwiększyć koncentrację, nawet w środku intensywnego dnia pracy. Dodatkowo aplikacja pozwala monitorować postępy i systematyczność medytacji.

Użytkownicy chwalą sobie piękną oprawę dźwiękowo-graficzną. Medytacjom towarzyszą fale oceanu, szumiący potok albo deszcz. Można przy nich zasnąć albo odprężyć się podczas podróży komunikacją miejską. Biblioteka dźwięków jest systematycznie aktualizowana i zawsze można znaleźć coś nowego.

Wszystkie sesje są rejestrowane w Apple Health, co ułatwia śledzenie wpływu medytacji na zdrowie. Jak deklaruje twórca Calm, polecają ją psychologowie, terapeuci i eksperci zdrowia psychicznego. Dostęp do pełnej zawartości wymaga subskrypcji. I nie jest ona tania: 199,99 zł rocznie. Calm polecana jest zwłaszcza tym, którzy stawiają pierwsze kroki w medytacji i poszukują dobrego, motywującego narzędzia oraz osobom potrzebującym szybkiego sposobu na odzyskanie równowagi w stresującym dniu.

CALM
Dla kogo: dla każdego
System: iOS, Android
Język: polski, angielski
Cena: bezpłatna w wersji bazowej
Strona internetowa: www.calm.com
Śledzone dane: zdrowie, dane kontaktowe, historia wyszukiwania

Cyberbezpieczeństwo powinno się postrzegać przez pryzmat bezpieczeństwa pacjentów
Uczestnicy debaty (od lewej): Komisarz Dariusz Śpicha (CBZC), Piotr Drobek (UODO, Dyrektor Departamentu Innowacyjności), dr Jakub Syta (Akademia Marynarki Wojennej), dr Tomasz Jeruzalski (CSIRT CeZ), dr Beata Konieczna-Drzewiecka (UKSW, Inspektor Ochrony Danych), Prof. Marlena Sakowska-Baryła (Uniwersytet Łódzki, ABI Expert), Prof. Agnieszka Gryszczyńska (Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie, moderator debaty)

Podczas konferencji Centrum e-Zdrowia, eksperci z CSIRT Centrum e-Zdrowia, Centralnego Biura Zwalczania Cyberprzestępczości (CBZC), Urzędu Ochrony Danych Osobowych (UODO) oraz środowiska medycznego rozmawiali o tym, jak się zabezpieczyć przed atakami hakerów i jak na nie reagować. Przedstawiono też kulisy największego przestępstwa cybernetycznego w ochronie zdrowia ostatnich lat, które wykryło CBZC.

Więcej informacji o bezpieczeństwie danych w ochronie zdrowia? Zapisz się do naszego newslettera
Więcej informacji o bezpieczeństwie danych w ochronie zdrowia? Zapisz się do naszego newslettera

Tylko 60% placówek wykonuje testy kopii zapasowych

Jeremi Olechnowicz, Kierownik CSIRT Centrum e-Zdrowia, podkreślił, że sektor zdrowia jest jednym z najbardziej podatnych na ataki, co wynika z kilku czynników: systemy są złożone, przetwarzają dane wrażliwe (medyczne, osobowe, dokumentację), a placówki często mają ograniczone zasoby kadrowe i techniczne.

Dane nie pozostawiają złudzeń: gwałtownie rośnie liczba incydentów cybernetycznych, a zgodnie z globalnym raportem IBM, sektor zdrowia generuje najwyższe straty finansowe spośród wszystkich sektorów, właśnie ze względu na wrażliwość danych oraz znaczenie systemów dla życia i zdrowia pacjentów.

Liczba incydentów ochrony danych w sektorze zdrowia (źródło: Centrum e-Zdrowia)
Liczba incydentów ochrony danych w sektorze zdrowia (źródło: Centrum e-Zdrowia)

Według Olechnowicza, były już pojedyncze przypadki na świecie, kiedy doszło do takiej sytuacji, że utrudniony dostęp do dokumentacji medycznej zagroził zdrowiu i życiu pacjenta. Hakerzy najczęściej zorganizowane grupy przestępcze, które posiadają budżet i działają w pełni profesjonalnie. Statystyki Centrum e-Zdrowia sugerują, że najczęstsze formy ataków na placówki zdrowia to:

Najczęstsze przyczyny incydentów ochrony danych w sektorze zdrowia (źródło: Centrum e-Zdrowia)
Najczęstsze przyczyny incydentów ochrony danych w sektorze zdrowia (źródło: Centrum e-Zdrowia)

Czynnik ludzki nadal pozostaje najsłabszym ogniwem systemu ochrony danych. Wielu incydentów dałoby się uniknąć dzięki prostym nawykom bezpieczeństwa i edukacji pracowników.

– Cyberbezpieczeństwo to złożone zadanie dla każdego podmiotu. Wymaga zaangażowania wszystkich pracowników, całej organizacji, no i niestety budżetu – mówił Olechnowicz. Do bazowych zabezpieczeń należą antywiriusy, aktualne oprogramowanie, inwestowanie w kompetencje pracowników, spełnienie wymagań prawnych w zakresie RODO oraz monitorowanie infrastruktury IT.

Ekspert CSIRT CeZ podkreślił, że cyberbezpieczeństwo to proces. Nie chodzi tylko o to, żeby co roku odnawiać subskrypcję na program antywirusowy. Cyberprzestępcy szukają nowych metod, nowych wektorów ataku, więc organizacja też musi się przystosować i zabezpieczyć przed tymi atakami.

Wkrótce Cez opublikuje wyniki ankiety badającej poziom cyberodporności w sektorze zdrowia. Wstępne wyniki są alarmujące. Chociaż ponad 90% podmiotów posiada system kopii zapasowych, to tylko niecałe 60% wykonuje ich testy. W krytycznym momencie może się okazać, że kopie nie działają albo kopie są nieprawidłowe. 9% podmiotów nie ma podstawowych narzędzi bezpieczeństwa, takich jak antywirus, firewall czy ADR (systemy wykrywania i reagowania na incydenty). Duże zaniedbania są też w uwierzytelnianiu wieloskładnikowym, choć mówi się o tym od wielu lat.

CSIRT CeZ wspiera placówki medyczne, pomagając w obsłudze incydentów, monitorując podatności oraz szkoląc personel i przygotowując wytyczne sektorowe.

–  Wspólnie z Akademią Cez przeszkoliliśmy już ponad 1700 przedstawicieli podmiotów medycznych. Uruchamiamy też platformy e-learningowe, żeby dotrzeć do szerszego grona odbiorców –  podsumował  Olechnowicz.

Pobierz bezpłatny poradnik bezpieczeństwa danych w ochronie zdrowia
Pobierz bezpłatny poradnik bezpieczeństwa danych w ochronie zdrowia

Centralne Biuro Zwalczania Cyberprzestępczości zdradza kulisy działania hakerów w ochronie zdrowia

Komisarz Dariusz Śpicha, z CBZC przedstawił operacyjne spojrzenie na cyberzagrożenia w sektorze zdrowia, oparte na konkretnych śledztwach i przestępstwach. Opowiedział m.in. o dużej grupie przestępczej, którą CBZC rozpracowało w czasie pandemii COVID-19. Cyberprzestępcy zdobywali dane logowania do systemów, m.in. do gabinet.gov.pl i rejestru podmiotów wykonujących działalność leczniczą (RPWDL) wykorzystując brak uwierzytelnienia wieloskładnikowego (MFA).

Za pomocą przejętych kont generowali fałszywe recepty oraz potwierdzenia szczepień COVID, które były sprzedawane nawet za 1500 zł. Taki certyfikat był następnie wpisywany do centralnego systemu. Grupa wykorzystywała wycieki danych, które zdobywała na forach darknetowych, a następnie sprzedawała dane lub używała ich do dalszych włamań.

Wraz z upływem czasu certyfikaty covidowe przestały być chodliwym towarem, dlatego grupa zmieniła sposób działania i zaczęła wystawiać recepty na leki opioidowe, które bardzo dobrze się sprzedawały zarówno w Polsce, jak i za granicą. Wykorzystywali do tego dostęp do e-recept, logując się przez konta pozyskane z wcześniejszych ataków (np. gabinet.gov.pl), ale także przekształcając konta zwykłych użytkowników w konta lekarzy. Pozyskiwali dane logowania z wycieków z różnych podmiotów medycznych, które były słabo zabezpieczone. Większość placówek medycznych korzysta z aplikacji zewnętrznych i wiele z tych aplikacji nie ma uwierzytelniania dwuskładnikowego, co pozwalało na łatwe logowanie. Lekarz mógł nawet nie wiedzieć, że – używając jego konta – wystawiane są recepty, które trafiają do przestępców.

Ostatecznie, CBZC we współpracy z Centrum e-Zdrowia doprowadziło do wdrożenia MFA, które znacząco utrudniło przejmowanie kont. Jednak przestępcy zaczęli szukać innych punktów wejścia. Dlatego monitoring darknetu i wymiana informacji między instytucjami są kluczowe.

Jeszcze inna grupa hakerów przeprowadziła trzy kampanie phishingowe wymierzone w NFZ, z których jedna – najlepiej przygotowana – zakończyła się powodzeniem. W jej wyniku 180 użytkowników odpowiedziało na fałszywy komunikat i podało swoje dane dostępowe.

– Dzięki temu przestępcy założyli około 20 kont w różnych podmiotach medycznych. Dlaczego było to dla nich tak ważne? Ponieważ chcieli uzyskać własne konta – najlepiej z uprawnieniami administratora – w placówkach medycznych. Dzięki takim kontom mogli infekować systemy, wprowadzać własnych użytkowników, tworzyć dodatkowe konta i pozyskiwać dostęp do aplikacji oraz danych. Mieli listę stworzonych kont w kilku instytucjach medycznych. Większość z nich udało się później zablokować – mówił Komisarz Śpicha.

Hakerzy często korzystają z tzw. info-stealer’ów instalowanych na komputerach ofiar. Jest ono często niewidoczne nawet dla antywirusa. Takie oprogramowanie pobiera wszystkie dane zapisane w przeglądarce, w tym loginy, hasła i dane wrażliwe, i przekazuje je do przestępców w postaci tekstu jawnego. Kradzione są również pliki cookies z aktywnych sesji logowania, co oznacza, że nawet zabezpieczenia MFA nie chronią, jeśli użytkownik nie wylogował się z konta. Pobierane są także dane typu autofill – czyli wszystko, co wpisujemy w przeglądarkę: numery kont, dane adresowe, wyszukiwane informacje. Dzięki temu przestępcy mogą tworzyć pełne profile użytkowników i ich aktywności. Tak pozyskane informacje trafiają do serwisów handlujących wyciekami.

W marcu 2024 roku wydarzył się kolejny incydent – tym razem w placówce medycznej korzystającej z niezabezpieczonego systemu MyDr. Doszło do przełamania zabezpieczeń i wycieku danych. Ponieważ placówka miała podpięte API do systemu eWuś, przestępcy masowo zadawali zapytania – nawet kilka milionów. Udało się jednak zidentyfikować sprawcę, zatrzymać go i odzyskać całość danych. Jedynie niewielka liczba rekordów została wcześniej sprzedana.

Komisarz podkreślił, że CBZC nie tylko ściga sprawców, ale również prowadzi działania prewencyjne i monitoruje fora darknetowe, aby możliwie wcześnie powiadamiać instytucje o zagrożeniach. Wymienił liczne przypadki placówek (szpitale, centra krwiodawstwa, firmy farmaceutyczne), w których odkryto podatności techniczne i przekazano zalecenia naprawcze.

Można mieć świetny sprzęt i nadal być podatnym na ataki

Cyberbezpieczeństwo w ochronie zdrowia to zagadnienie techniczne, strategiczne, organizacyjne i etyczne. Podczas panelu dyskusyjnego podkreślano, że główne zagrożenie wynika dzisiaj z braku świadomości, kultury bezpieczeństwa oraz umiejętności reagowania. Podmiotom medycznym często wydaje się, że skoro inwestują w systemy, zabezpieczenia i dokumentację, to ich poziom bezpieczeństwa jest wystarczający. Tymczasem, jak zauważyła prof. Marlena Sakowska-Baryła z Uniwersytetu Łódzkiego, „można mieć system, procedury i sprzęt, a mimo to być kompletnie nieprzygotowanym”.

– Widziałam wiele gabinetów, w których polityka dotycząca danych osobowych była tylko skopiowana od kogoś i częściowo uzupełniona. Często podstawowe dane, takie jak lokalizacja, nie były zmieniane, przez co polityka wskazywała na zupełnie inny podmiot, czasem nawet geograficznie odległy – mówiła prof. Sakowska-Baryła.

Jeszcze bardziej niebezpieczne jest przekonanie, że naruszenie danych to tylko „wyciek”, podczas gdy realnym ryzykiem są manipulacje, utrata integralności dokumentacji medycznej czy niedostępność systemów, która unieruchamia pracę całej placówki.

Przypomniano przy tym, że RODO to nie „fasadowa procedura narzucona przez Unię Europejską”, ale podejście chroniące dane. „Często myślimy, że wystarczy polityka RODO kupiona za 300 zł, wpisanie własnych danych i nagłówek – reszta nie jest czytana i w praktyce RODO po prostu nie działa.”

Dr inż. Jakub Syta z Akademii Marynarki Wojennej zaznaczył, że w sektorze medycznym priorytetem nie jest poufność, ale dostępność. „Brak dostępu do danych przez godzinę może być różnicą między życiem a śmiercią”. Dane medyczne należy traktować jak element procesu leczenia, a nie jak informację zapisaną w komputerze. Jak dodała prof. Sakowska-Baryła, „tak naprawdę nie bronimy danych, ale bronimy człowieka przed konsekwencjami utraty tych danych”.

Eksperci podkreślali, że błędem jest traktowanie incydentu jako kompromitacji organizacji. Wiele szpitali do dziś boi się zgłaszać incydenty, chcąc je wyciszyć lub ukryć. To właśnie ten mechanizm powoduje największe szkody. Jak zauważył komisarz Śpicha, „incydent to nie porażka – porażką jest brak reakcji”. Dlatego każdy incydent w ochronie zdrowia musi być traktowany jako problem medyczny, organizacyjny, prawny, a nawet humanitarny. Na ostatnim, a nie pierwszym miejscu, jest myślenie o wizerunku podmiotu.

Niewiedza i strach pracownika to największy sprzymierzeniec hakera

Wiele uwagi poświęcono kulturze organizacyjnej, a raczej jej brakowi. Z jednej strony widać placówki, które mają procedury, wiedzą jak reagować i natychmiast uruchamiają odpowiednie działania. Ale są też jednostki, w których pierwszą reakcją jest panika, ukrywanie i działanie na własną rękę.

Dr Beata Konieczna-Drzewiecka z Wydziału Prawa i Administracji Uniwersytetu Kardynała Stefana Wyszyńskiego oraz Inspektor Ochrony Danych przytoczyła sytuację, w której pracownik, nie mając żadnego szkolenia ani wsparcia, po zauważeniu zaszyfrowanych plików, w panice kupił kryptowaluty i próbował samodzielnie zapłacić cyberprzestępcom, aby „załatwić sprawę po cichu”. O ataku nie wiedział nawet informatyk. Ten przykład pokazuje, że brak świadomości jest realnym zagrożeniem generującym ogromne straty. Dla kontrastu, opisała sytuację placówki, w której wystarczyło jedno zgłoszenie, szybka reakcja administratora i sprawnie działające procedury, które zatrzymały atak zanim wyrządził szkody. Jak podkreśliła Konieczna-Drzewiecka, najlepiej zabezpieczona placówka to nie ta, która nie ma incydentów, ale ta, która potrafi je właściwie obsłużyć.

– Jedna z dużych placówek zdrowia padła ofiarą ataku ransomware. Dzięki temu, że kierownictwo regularnie szkoliło wszystkich pracowników w zakresie bezpieczeństwa i reagowania na ataki, udało się szybko zareagować. Pani doktor zauważyła, że coś jest nie tak z komputerem podczas przyjęcia pacjenta. Natychmiast przerwała wizytę i powiadomiła kierownika, co uruchomiło szybki kontakt z działem IT i podjęcie działań naprawczych. Ten przykład pokazuje, że kompleksowa analiza ryzyk i procedury wynikające z dokumentacji bezpieczeństwa są kluczowe. Brak takiej dokumentacji może skutkować wysokimi karami dla administratora w przypadku kontroli. Z drugiej strony, dobrze przygotowane procedury pozwalają pracownikom wiedzieć, jak reagować i gdzie zgłosić problem – mówiła Konieczna-Drzewiecka.

Konsekwencje ataków dla placówek, które nie są przygotowane, są ogromne. Odłączenie systemów może całkowicie uniemożliwić pracę, analogicznie jak odcięcie prądu. Dlatego przeprowadzanie ocen i analiz ryzyka w jednostkach jest niezbędne, aby zidentyfikować słabe punkty i odpowiednio się zabezpieczyć.

Fundamentem bezpieczeństwa jest wiedza ludzi na każdym poziomie organizacji. To właśnie brak zrozumienia sprawia, że personel medyczny unika zgłaszania incydentów, bo „nie wie do kogo”, „boi się konsekwencji” albo „myśli, że poradzi sobie sam. Dlatego szkolenia z ochrony danych nie mogą być traktowane jako jednorazowy obowiązek i powinny stać się naturalnym elementem kultury pracy – tak, jak higiena, etyka czy tajemnica lekarska.

Prostota obsługi systemów to też element bezpieczeństwa

Ochrona danych wprowadza zasady, które powinny być uwzględniane już na etapie projektowania systemów. Jedną z nich jest „ochrona danych w fazie projektowania”, która poprzez odpowiednie rozwiązania technologiczne i organizacyjne minimalizuje ryzyka. Chodzi m.in. o uniemożliwienie użytkownikom popełniania błędów poprzez przemyślany design procesów i interfejsów użytkownika, ich ujednolicenie i przyjazność obsługi.

Często zapomina się, że na końcu mamy człowieka – w przypadku placówek medycznych to personel medyczny, który jest zajęty i nie może poświęcać dużo czasu na naukę nowych systemów. Dlatego kluczowe jest projektowanie narzędzi tak, aby były intuicyjne i ułatwiały właściwe zachowanie użytkowników. To w dużej mierze decyduje o bezpieczeństwie całej placówki.

Niewygoda obsługi może być ryzykowna, bo jeśli funkcja bezpieczeństwa jest uciążliwa w korzystaniu, użytkownik jej nie użyje, obejdzie albo dezaktywuje. Najczęstszym grzechem jest wyłączanie niektórych zabezpieczeń, bo wymagają powtórnego logowania czy wprowadzania kodów. Piotr Drobek, Dyrektor Departamentu Innowacyjności w UODO podkreślił, że system, który jest wprawdzie wdrożony, ale jest nieużywalny, też jest niebezpieczny. Dlatego każda placówka musi analizować, jak personel medyczny faktycznie pracuje i jak korzysta z zasobów IT. Lekarz dyżurny nie będzie studiował instrukcji ani zastanawiał się nad zasadami MFA. On „musi wejść do systemu natychmiast, bo ktoś leży na oddziale i czeka na decyzję”.

To też pokazuje, że cyberbezpieczeństwo nie jest już domeną działu IT. Systemy, które są intuicyjne, odpowiadają potrzebom i są zaprojektowane z myślą o codziennym funkcjonowaniu personelu, są wielokrotnie skuteczniejsze niż nawet najbardziej zaawansowane rozwiązania techniczne niedopasowane do realiów pracy szpitala. Zwrócono także uwagę, że w wielu klinikach jednym z najlepszych narzędzi bezpieczeństwa okazał się zwykły system komunikacji – numer telefonu i zasada: „Jeśli coś nie działa – zgłoś natychmiast”.

– Kluczowa jest świadomość kierownictwa – niezależnie od wielkości placówki – zarówno w zakresie ochrony danych osobowych przy nowych inwestycjach, jak i w kontekście cyberbezpieczeństwa dotyczącego już istniejących systemów. Często wyznacza się inspektora ochrony danych i zakłada, że on sam odpowiada za bezpieczeństwo danych, podczas gdy kierownictwo nie czuje się odpowiedzialne. Bez tego trudno, aby system działał właściwie. Podczas szkoleń inspektorzy przypominają, że dyrektorzy i kierownictwo muszą rozumieć swoją rolę i odpowiedzialność – zarówno finansową, jak i organizacyjną – mówił Drobek dodając, że nie można przerzucać całej odpowiedzialności tylko na administratora danych, bo dyrektorzy i zarządy szpitali, choć nie są ekspertami od cyberbezpieczeństwa, powinni wiedzieć, jakie działania należy podjąć, aby minimalizować ryzyko i zapewnić bezpieczeństwo placówki.

Kolejny problem w placówkach zdrowia to koncentrowanie się jedynie na łańcuchu dostaw i weryfikowanie podwykonawców, ale przy tym ignorowanie własnego, wewnętrznego bezpieczeństwa. Dostawcy też powinni być bezpieczni, ale nie można przerzucać całej odpowiedzialności na podmioty trzecie. „Najpierw powinniśmy zadbać o to, jak funkcjonuje nasza własna organizacja – jakie mamy procesy i usługi. Kiedy to przeanalizujemy, możemy określić rodzaje przetwarzanych informacji, ich znaczenie i poziom ryzyka.”

Wyciek danych? Zadzwonić na Policję, do CSIRT CeZ czy UODO?

Jak placówki zdrowia powinny reagować na incydenty ochrony danych? Komisarz Dariusz Śpicha wielokrotnie podkreślał, że najlepiej, aby to Policja była pierwsza na miejscu, bo każda godzina zwłoki to zniszczony dowód. Jest to powszechny problem: Placówki, zamiast zgłosić incydent, najpierw próbują go „naprawić”: restartują systemy, zmieniają hasła, wgrywają kopie, co w praktyce niszczy ślady ataku i dowody.

W efekcie cyberprzestępcy są nieuchwytni nie dlatego, że są tacy sprytni, ale dlatego, że wszystkie dowody zostały usunięte przez administratorów. „Lepiej nie dotykać niczego i zadzwonić, niż działać na własną rękę i stracić wszystko”.

– W przypadku ataków ransomware trzeba pamiętać, że zaszyfrowanie systemu to najczęściej tylko efekt końcowy. Sprawcy byli wcześniej w systemie – czasem nawet kilka miesięcy – pobierali dane, przygotowywali infrastrukturę do szantażu. Jeśli ktoś przywraca kopie zapasowe z tego okresu, często są one już skompromitowane – mówił Komisarz Śpicha. Przypomniał też, że jednostki zdrowia mają stałe połączenia z innymi szpitalami, laboratoriami, dostawcami usług. Trzeba natychmiast odciąć te kanały i poinformować partnerów, aby incydent się nie rozprzestrzenił.

Eksperci zachęcali do zgłaszania ataków hakerów. CSIRT CeZ i CBZC potrafią pomóc w przywróceniu systemów i nawet zatrzymać sprawców. Nie są od tego, aby kontrolować i karać.

– Obecnie, jeśli podmiot w ochronie zdrowia ma incydent, ma obowiązek go zgłosić, również do CSIRT CeZ. Zgodnie z nowelizacją ustawy o KSC, wszystkie takie incydenty będą zgłaszane do nas. My wówczas niezwłocznie, maksymalnie w ciągu 8 godzin, powiadamiamy NASK i współpracujemy z nimi – tłumaczył dr Tomasz Jeruzalski z CSIRT CeZ.

Jak mówił Jeruzalski, incydent poważny należy zgłosić w ciągu 24 godzin. Wówczas można liczyć na pomoc w obsłudze incydentu. Może ona obejmować dostarczenie sprzętu, urządzeń sieciowych, notebooków czy transfer kompetencji.

– Oferujemy analizę logów, wsparcie sprzętowe, kontakt z innymi jednostkami oraz szkolenia dla personelu. Pracujemy nad platformą, która umożliwi szkolenia zarówno personelowi medycznemu, jak i administracyjnemu. Dla zainteresowanych przeprowadzamy testy podatności i przygotowujemy raporty z rekomendacjami, jak poprawić bezpieczeństwo systemów. Mamy też bardziej zaawansowane testy dla jednostek, które chcą pogłębić swoją ochronę – podsumował Jeruzalski.

Dzięki DOM, lekarz sprawdzi wyniki pomiarów przesłane online przez pacjenta i dopasuje leczenie
Dzięki DOM, lekarz sprawdzi wyniki pomiarów przesłane przez pacjenta i dopasuje leczenie

Osoby chore na cukrzycę będą mogły wkrótce monitorować swój stan zdrowia za pomocą cyfrowego glukometru. Wyniki będą automatycznie przesyłane na Indywidualne Konto Zdrowotne (IKP), a lekarz sprawdzi trendy zdrowia pacjenta, dopasuje sposób leczenia i zaleci zmiany w stylu życia – nad takim nowym modelem opieki pracuje właśnie Centrum e-Zdrowia (CeZ). W planach także podobny system do profilaktyki i leczenia chorób kardiologicznych.

Wirtualna opieka dla diabetyków w domu

Domowa Opieka Medyczna (DOM) powstaje dzięki dofinansowaniu z Krajowego Planu Odbudowy, które CeZ otzymał w tym roku. Na razie jeszcze nie znamy dokładnej premiery systemu, ale można przypuszczać, że będzie to 2026 rok, bo do czerwca trzeba rozliczyć środki z KPO i do tego czasu system powinien być gotowy.

Jak będzie wyglądała opieka na cukrzykami w ramach DOM? Oto przykład:

Jan, 58-letni mieszkaniec niewielkiego miasta, od ponad 10 lat choruje na cukrzycę typu 2. Mimo regularnych wizyt u diabetologa, stosowania leków i próby zmiany stylu życia, jego wyniki często odbiegają od normy. Wahania poziomu glukozy i uczucie osłabienia doprowadziły do poczucia utraty kontroli nad chorobą, co z czasem stało się obciążeniem psychicznym, pogorszając jakość życia.

Podczas wizyty kontrolnej, lekarz rodzinny widząc problemy z monitorowaniem cukrzycy, włącza Jana do programu Domowej Opieki Medycznej DOM. Pacjent otrzymuje inteligentny glukometr automatycznie przesyłający wyniki wykonywanych pomiarów do aplikacji mojeIKP. Dodatkowo lekarz zaleca systematyczne notowanie informacji o samopoczuciu, aktywności fizycznej i posiłkach w tzw. Dzienniczku Pacjenta. Trendy danych są widoczne dla lekarza. Ten może skontaktować się z pacjentem i podczas teleporady przekazać wskazówki dotyczące dalszego leczenia. W ten sposób nadzór nad cukrzycą realizowany jest w trybie ciągłym i staje się bardziej spersonalizowany. Dzięki temu wyniki Jana ustabilizowały się, doprowadzając z czasem do ogólnej poprawy stanu zdrowia. Lekarz kończy program DOM, a pacjent samodzielnie kontynuuje leczenie.

Newsletter czasopisma OSOZ

DOM poprawi bezpieczeństwo leczenia i jakość życia diabetyków

Około 3 mln Polaków choruje na cukrzycę. Według szacunków, nie wie o tym nawet 1/3 pacjentów. Cukrzyca to jedna z najczęściej występujących chorób przewlekłych na świecie (440 mln chorych) wymagająca stałej kontroli parametrów zdrowotnych, takich jak poziom glukozy we krwi, ciśnienie tętnicze czy masa ciała. Skuteczne leczenie opiera się na regularnym przyjmowaniu leków, ale przede wszystkim na skrupulatnym monitorowaniu poziomu glukozy we krwi i odpowiednim reagowaniu na jej zmiany. Liczba chorych szybko rośnie i do 2030 może osiągnąć nawet 10% społeczeństwa.

Nowy system Domowej Opieki Medycznej wprowadzi zdalny nadzór nad pacjentami. Chorzy będą mogli otrzymać wsparcie, gdy pojawią się niepokojące objawy. Taka ciągłość monitoringu zdrowia diabetyków jest kluczowa w zapobieganiu powikłaniom cukrzycowym, takim jak udary, zawały, uszkodzenia nerek czy retinopatia.

Dla kogo DOM?

To lekarz będzie decydował, czy pacjent – przykładowo ze względu na niestabilne wyniki albo pogarszający się stan zdrowia – zostanie zakwalifikowany do DOM. Nie będzie to program, którym objęci zostaną wszyscy pacjenci, ale tylko ci zagrożeni powikłaniami cukrzycowymi albo nie radzący sobie z chorobą. Zdalny monitoring będzie ograniczony w czasie – po zakończeniu etapu diagnostyczno-terapeutycznego, lekarz przekazuje dalsze zalecenia pacjentowi i zamyka program DOM.     

Opieką w ramach DOM będzie można objąć osoby z grup podwyższonego ryzyka wystąpienia chorób przewlekłych, w ambulatoryjnej opieki specjalistycznej (AOS) dla pacjentów wymagających stałej opieki specjalistycznej  oraz w ramach opieki koordynowanej.

W przypadku diabetyków, DOM będzie opierał się na inteligentnych glukometrach, które przesyłają wyniki do smartfonów, a dokładnie do aplikacji Google Zdrowie lub Apple Zdrowie. Stąd są pobierane dalej do IKP. Do tego pacjent będzie wpisywał swoje objawy i informacje o samopoczuciu i stylu życia do Dzienniczka Pacjenta w IKP albo aplikacji MojeIKP. W ten sposób lekarz może przeanalizować trendy i reakcję organizmu na leczenie.

Pacjenci nie będą musieli pojawiać się w przychodni za każdym razem, aby skonsultować wyniki, co jest szczególnie ważne dla osób z ograniczoną mobilnością albo obciążonymi dodatkowymi chorobami. DOM ma też charakter edukacyjny, bo chory uczy się zarządzania swoim zdrowiem i tego, jak dopasować styl życia do wyników pomiarów. Lekarz uzyskuje wgląd w dokładne dane o zdrowiu pacjenta, co powoduje, że opieka staje się spersonalizowana i precyzyjna. I na koniec dochodzi jeszcze wygoda dzięki teleporadom.

Jak działa DOM?

Oprócz opieki diabetologicznej, DOM obejmie też leczenie kardiologiczne oraz profilaktykę. Docelowo będzie rozszerzany o kolejne dziedziny medycyny. Jednak procedura kwalifikacji i przebiegu opieki w ramach DOM będzie zawsze taka sama:

Od strony pacjenta, rozwiązanie będzie dostępne w aplikacjach IKP i mojeIKP, a w przypadku lekarzy – w Gabinet.gov.pl i zintegrowanych systemach gabinetowych.

DOM nie jest zupełnie nowym systemem. Wprowadzono go kilka lat temu w modelu pilotażowym. To dzięki niemu, podczas pandemii COVID-19 chorzy z grup ryzyka otrzymywali pocztą pulsoksymetry i byli monitorowani przez lekarza w domu. Potem jednak o projekcie zapomniano i dopiero finansowanie z KPO pozwoliło na jego ponowne uruchomienie, tym razem już w charakterze stałego elementu opieki, a nie pilotażu.

Słaba infrastruktura danych i prawo hamują rozwój AI w Polsce
Słaba infrastruktura danych i prawo hamują rozwój AI w Polsce

Raport Komisji Europejskiej „Sztuczna inteligencja w sektorze publicznym: przegląd sytuacji w Europie” (Study on the deployment of AI in healthcare) pokazuje czarno na białym, jak nieżyciowe prawo i brak wiedzy o AI hamują jej powszechne wykorzystanie. Polsce doskwierają przede wszystkimi luki w infrastrukturze i danych, a AI w ochronie zdrowia ma marginalne znaczenie.

Europa chce postawić na AI, ale przeszkód nie brakuje

Mimo, że można odnieść wrażenie, że Europa przede wszystkim reguluje zastosowanie AI, to tylko połowa prawdy. W mediach tematem numer jeden jest unijny Akt w sprawie AI, wprowadzający opartą na ryzyku klasyfikację AI (od minimalnego do niedopuszczalnego ryzyka) i regulujący wdrażanie AI w obszarach publicznych o wysokim ryzyku, w tym opiece zdrowotnej.

Newsletter czasopisma OSOZ

Równolegle UE inwestuje w infrastrukturę i technologię. Wśród przykładów są platforma AI-on-Demand (najlepsze europejskie narzędzia, zbiory danych i usługi AI dla badań naukowych i przemysłu), ośrodki testowania i eksperymentowania (TEF) oraz cyfrowe centra innowacji (EDIH). O ile sektor prywatny nieźle sobie radzi z adaptacją AI, raport widzi duże zaległości właśnie w sektorze publicznym, gdzie AI mogłaby zmniejszyć niepotrzebną biurokrację i poprawić efektywność.

Ale rzeczywistość na razie rozczarowuje. Wdrażanie AI często kończy się na projektach pilotażowych, a niepewność legislacyjna zniechęca skutecznie do próbowania nowego. Jedną z największych barier są zamówienia publiczne. Niewiele organizacji publicznych posiada wiedzę niezbędną do przygotowania przetargów na rozwiązania z AI, które muszą zawierać techniczne specyfikacje w tym kryteria oceny wydajności algorytmów.

Polska: otwartość na innowacje jest, brakuje pieniędzy i danych

Jak zauważają autorzy raportu, Polska „nie jest ani technologicznym maruderem, ani liderem, ale krajem podejmującym przemyślane działania w ramach krajowej strategii AI.” Za strategiczny rozwój AI w Polsce odpowiada Ministerstwo Cyfryzacji. Obecnie trwają prace nad nową strategią AI do roku 2030, która ma zastąpić pierwszą na lata 2020–2027.

AI w polskim sektorze usług publicznych to rzadkość. Wprawdzie odbyło się kilka pilotaży, ale nic z nich nie wyniknęło. Przykładowo, Ministerstwo Sprawiedliwości badało możliwości wykorzystania AI do optymalizacji wewnętrznego funkcjonowania wymiaru sprawiedliwości. Testowano nawet „Narzędzie do automatyzacji pracy sądów”, czyli system wykorzystujący przetwarzanie języka naturalnego do kategoryzowania dokumentów prawnych i ich przetwarzania w zależności od stopnia złożoności. Innym przykładem są narzędzia analizy prawnej, które miałyby pomóc sądom analizować precedensy i trendy.

W ochronie zdrowia, szpitale w Warszawie i Wrocławiu przetestowały narzędzia sztucznej inteligencji do wykrywania raka płuc na podstawie tomografii komputerowej. Niektóre szpitale regionalne wykorzystują sztuczną inteligencję do prognozowania przepływu pacjentów, szczególnie na oddziałach ratunkowych, co pozwala lepiej alokować zasoby personelu medycznego.

Jednak wdrażanie sztucznej inteligencji w opiece zdrowotnej jest fragmentaryczne i często uzależnione od finansowania unijnego lub inicjatyw regionalnych. Nic dziwnego, że tylko niecałe 6% placówek zdrowia korzysta obecnie z AI. Nie ma jednolitej platformy sztucznej inteligencji na poziomie krajowym. Jedyną nadzieją jest Platforma Usług Inteligentnych (PUI) zapowiadana na 2026 rok przez Centrum e-Zdrowia i finansowana z KPO. Poprzez PUI, wszystkie szpitale w sieci szpitali będą miały bezpłatny dostęp do algorytmów AI.

Mało się też dzieje na poziomie miast i gmin. Poznań wykorzystuje AI do optymalizacji rozkładów jazdy transportu publicznego na podstawie danych o ruchu drogowym i pasażerach w czasie rzeczywistym. Z kolei Łódź integruje AI z systemami zarządzania energią w celu optymalizacji ogrzewania i chłodzenia w budynkach użyteczności publicznej. I w tym przypadku to wyjątki w regule.

Pobierz bezpłatny raport OSOZ "42 aplikacje zdrowotne"
Pobierz bezpłatny raport OSOZ „42 aplikacje zdrowotne”

Nowa strategia AI do 2030. O zdrowiu mało i ogólnikowo

Rozwój AI w ochronie zdrowia zajmuje tylko 2 strony w nowej, 64-stronicowej strategii AI. Czytamy w niej m.in., że AI wykorzystuje już ok. 20% placówek medycznych na świecie, a do 2035 r. ma być obecna w 90% szpitali. AI przyczynia się do redukcji czasu poświęcanego na zadania administracyjne, wspiera diagnostykę, rozwój leków i urządzeń medycznych, a także może złagodzić skutki niedoboru personelu.

Dokument zwraca uwagę, że mamy predyspozycje do rozwoju AI. W ochronie zdrowia stworzyliśmy solidną infrastrukturą cyfrową (e-recepta, e-skierowania, EDM i Internetowe Konto Pacjenta IKP), rośnie krajowy ekosystem startupów rozwijających rozwiązania med-tech. Wspomina się też o Europejskiej Przestrzeni Danych dotyczących Zdrowia (EHDS), która zapewni pacjentom w UE bezpieczny dostęp do dokumentacji medycznej oraz pozwoli naukowcom na wykorzystanie zanonimizowanych danych do badań.

I to tyle. Brakuje ambitnego planu i konkretnych inicjatyw. Efekt widać gołym okiem: nasz kraj plasuje się na 36 miejscu Tortoise Global AI Index – rankingu obejmującego 83 kraje na świecie i oceniającego dojrzałość wdrażania AI po względem 122 wskaźników. Raport „Sztuczna inteligencja w sektorze publicznym” wylicza też przeszkody, jakie uniemożliwiają Polsce przyspieszenie tempa wdrażania AI:

Raport kończy prosta konkluzja: ambicje Europy w zakresie AI nie są jedynie obowiązkiem Brukseli, ale też Warszawy, Wiednia, Lizbony i setek gmin, gdzie cyfrowe usługi publiczne mają wpływ na życie obywateli. Raport zaleca tworzenie centrów kompetencji AI, międzyministerialnych gremiów doradczych, organizację szkoleń dla pracowników sektora publicznego, inwestowanie w przygotowania do Europejskiej Przestrzeni Danych (w tym EHDS).

1 2 3 130