Dzięki wbudowanej generatywnej AI, Neo nie tylko posprząta, ale będzie można z nim porozmawiać
Dzięki wbudowanej generatywnej AI, Neo nie tylko posprząta, ale będzie można z nim porozmawiać

Neo ma ludzką sylwetkę i na pierwszy rzut oka robi ogromne wrażenie. Posprząta, przyniesie kawę, pozmywa naczynia. Na rynek trafi w 2026 roku. Jest jednak mały kruczek.

Ubrany w biały, futurystyczny kostium Neo odkurza dywan, sprząta toaletę, wkłada naczynia do zmywarki, przynosi tacę z herbatą, podlewa kwiatki, podaje gazetę, włącza i wyłącza światło. Porusza się jeszcze trochę niezgrabnie, ale i tak robi wrażenie swoimi umiejętnościami manualnymi i motoryką ruchów. Jak na pierwszego komercyjnego robota całkiem nieźle.

Neo ma z pozoru banalne zadanie – wyręczyć nas w prostych i powtarzalnych czynnościach wykonywanych dziesiątki albo setki razy dziennie i zajmujących czas, który moglibyśmy poświęcić na robienie tego, co naprawdę lubimy. To zresztą pokazują scenki reklamowe: kiedy Neo ściera kurze, dwóch seniorów gra w karty; gdy młode małżeństwo czyta gazetę w stylowym domu, Neo przynosi kawę.

Newsletter OSOZ

Neo to robotyczny służący, na którego ma być stać klasę średnią. Można go mieć na własność za 20 000 USD albo za 500 USD miesięcznie – zdecydowanie taniej niż miesięczna pensja człowieka i do tego bez etycznych dylematów, czy korzystanie z pomocy człowieka do włączenia światła albo przyniesienia szklanki z wodą jest już na granicy niewolnictwa. I bez posądzania o lenistwo. Misją jego twórcy, kalifornijskiej firmy 1X, jest demokratyzacja pomocy domowej.

Do wyboru jest NEO w kolorze beżowym, szarym i ciemnobrązowym. Można go obsługiwać za pomocą aplikacji lub poleceń głosowych. Bazowe czynności, jak włączanie światła czy otwieranie drzwi są z góry zaprogramowane i wykonywane automatycznie. Ale można go nauczyć bardziej złożonych czynności, jak przyniesienie posiłku albo napoju z lodówki. I tutaj jest haczyk, o którym mało kto wie. W trybie nauki, robot jest… sterowany przez człowieka, który w siedzibie firmy ma założone okulary wirtualnej rzeczywistości i widzi otoczenie robota. Po co? Aby wytrenować robota. Jak przyznają jego twórcy, takiego trybu nauki będzie wymagała większość czynności, bo każdy robot porusza się w zupełnie innych warunkach i przestrzeni. Chodzi o to, aby sieć neuronowa, na której opiera się silnik AI robota, została wytrenowana zanim robot wykona zadanie autonomicznie.

Śnieżnobiały kostium ukrywa plastikowe wnętrze i sprawia, że Neo wygląda jak człowiek, a nie maszyna
Śnieżnobiały kostium ukrywa plastikowe wnętrze i sprawia, że Neo wygląda jak człowiek, a nie maszyna

Ale to nie znaczy, że to fejk, a nie robot. Można się spodziewać, że z czasem zbierane dane spowodują, że urządzenie będzie coraz użyteczniejsze i samodzielniejsze. To jednak może potrwać. W teście przeprowadzonym przez dziennikarkę Wall Street Journal widzimy, jak topornie działa robot i to nawet w trybie treningowym. Przyniesienie wody z lodówki oddalonej o 2 metry zajmuje mu 1–2 minuty, a włożenie dwóch szklanek do zmywarki, ok. 3–4 minut. Człowiek wykonuje te proste czynności w kilka sekund. To uświadamia, jak perfekcyjnym systemem jest ludzkie ciało i mózg. Nawet tym najlepszym robotom jeszcze do nich daleko.

Firma podkreśla, że urządzenie jest tak zaprojektowane, aby zagwarantować prywatność: wizerunki osób obecnych w domu mogą być zamazane, aby operator ich nie widział, można zdefiniować strefy prywatności, do których robot nie ma dostępu. Neo to na razie bardziej zabawka dla fanów gadżetów technologicznych niż prawdziwa pomoc. Dobrze wygląda w reklamie, ale niejeden użytkownik straci cierpliwość, gdy kawa znowu wychłodnie zanim robot ją przyniesie, albo co gorsza – po drodze upadnie mu filiżanka. Szybko może okazać się, że zamiast robot pomoże jego posiadaczowi, będzie na odwrót. Na rewolucję robotów domowych trzeba będzie jeszcze poczekać.

92% Polaków ma dostęp do elektronicznej kartoteki medycznej, ale brakuje na niej wyników badań laboratoryjnych i zdjęć diagnostyki medycznej - wynika z raportu OECD
92% Polaków ma dostęp do elektronicznej kartoteki medycznej, ale brakuje na niej wyników badań laboratoryjnych i zdjęć diagnostyki medycznej – wynika z raportu OECD

Najnowszy raport OECD Health at a Glance 2025 pokazuje, że polska ochrona zdrowia cierpi na braki kadrowe oraz wysoką śmiertelność z powodu chorób cywilizacyjnych. Zrobiliśmy duże postępy e-zdrowiu, ale za małe, aby cyfryzacja rozwiązała wspomniane problemy.

Krytycznie mało pielęgniarek, wydatki na zdrowie w górę

Według raportu OECD, całkowite wydatki na ochronę zdrowia wynoszą obecnie 8,1 proc. PKB, z czego aż 23% to wydatki prywatne. Ale mimo to nadal jesteśmy poniżej średniej dla krajów OECD (9,3%). Wprawdzie w ostatnich latach wydatki wzrosły o 5%, ale prognoza sugeruje, że do 2045 roku publiczne pieniądze na zdrowie wzrosną niewiele i nie mamy szansy dogonić innych krajów. To odbija się na wskaźnikach zdrowotnych.

Tematem nr 1 od lat są kolejki do specjalistów. Tutaj są powody do optymizmu: czasy oczekiwania na niektóre zabiegi planowe mocno spadły. Przykładowo, w 2024 r. mniej niż 20 proc. pacjentów czekało ponad 3 miesiące na operację zaćmy, co plasuje Polskę w czołówce krajów OECD. To efekt zwiększonego finansowania przez Narodowy Fundusz Zdrowia od 2019 roku. Z drugiej strony, przykładowo na endoprotezoplastykę stawu biodrowego czeka się aż 343 dni. W 2026 roku ruszy Centralna e-Rejestracja, która ma pomóc w lepszym zarządzaniu terminami. Czy zmniejszy kolejki? Na efekty trzeba będzie poczekać.

Newsletter OSOZ

Polska ochrona zdrowia jest mocno nastawiona na szpitalnictwo. Mamy 6,3 łóżka szpitalne na 1 000 mieszkańców (średnia OECD to 4,2). Ale wiele z nich już ma problem ze znalezieniem personelu. 5,9 pielęgniarek na 1 000 mieszkańców to o 30% mniej niż średnia OECD wynosząca 9,2. Liczba lekarzy na 1000 mieszkańców to 3,9 – dokładnie tyle ile średnia OECD. Najbardziej brakuje specjalistów opiece długoterminowej (0,3 pracownika na 100 osób w wieku 65+ podczas gdy średnia to 5,0). Przy tym niechętnie korzystamy z lekarzy zza granicy. W krajach OECD już średnio 20% lekarzy to osoby wykształcone za granicą, podczas gdy w Polsce ten odsetek wynosi ok. 5%.

Polacy nie dbają o zdrowie

Oczekiwana długość życia w Polsce to 78,4 lat, o 2,7 roku poniżej średniej OECD. Przyczyn można szukać w profilaktyce i stylu życia. Mamy bardzo wysoką śmiertelność z powodu schorzeń możliwych do uniknięcia (tzw. „avoidable mortality”) wynoszącą 202 zgony na 100 tys. mieszkańców, znacznie więcej niż średnia OECD (145). Nadal 17,1 proc. Polaków codziennie pali papierosy, a spożycie alkoholu na poziomie 10 litrów na osobę przewyższa średnią OECD (8,5 l). Tylko 37 proc. kobiet poddaje się screeningowi w kierunku raka piersi (OECD – 55%).

40 proc. dorosłych w Polsce deklaruje, że ich aktywność fizyczna jest niewystarczająca (średnia OECD – 30 proc.). Do tego nadużywamy antybiotyków – lekarze przepisują na receptę 22 dzienne dawki zdefiniowane (DDD) antybiotyków na 1 000 mieszkańców, podczas gdy średnia OECD wynosi 16 DDD. Te wszystkie problemy kumulują się w postrzeganie systemu zdrowia – tylko 51% Polaków deklaruje zadowolenie z dostępności wysokiej jakości usług medycznych, podczas gdy średnia dla OECD to 64%.

Polacy mają dostęp do swoich danych, ale telemedycyna zrobiła krok w tył

Jak podkreśla raport, technologie cyfrowe, takie jak telemedycyna, elektroniczna dokumentacja medyczna (EDM), cyfrowe terapie i sztuczna inteligencja (AI), są coraz szerzej stosowane, poprawiając ciągłość opieki i terminowość świadczenia usług. Wszystkie kraje OECD inwestują w e-zdrowie i medyczne usługi cyfrowe. I to widać w liczbach. W 2024 r. dostępność internetowych usług cyfrowych w zakresie zdrowia osiągnęła 82%, o 3 punkty procentowe więcej niż rok wcześniej. Pełny dostęp do elektronicznej dokumentacji medycznej zapewniają jednak tylko dwa kraje: Belgia i Estonia. Pozostałe inwestują w zapewnienie interoperacyjności między szpitalami, gabinetami lekarskimi i innymi placówkami opieki zdrowotnej, co nadal jest największym wyzwaniem cyfryzacji. Jak podkreślają autorzy raportu, wymiana danych to nie tylko wyzwanie techniczne, ale także organizacyjne, ponieważ fragmentaryczne dane prowadzą do nieefektywności w systemie, utrudniając ciągłość opieki i blokując rozwój profilaktyki.

% obywateli mających dostęp online do danych medycznych
% obywateli mających dostęp online do danych medycznych

Pod względem dostępu obywateli do elektronicznej kartoteki medycznej Polska wypadła bardzo dobrze, plasując się na 5 miejscu, zaraz po Belgii, Estonii, Danii i Litwie – 92% Polaków ma dostęp do danych na Internetowym Koncie Pacjenta (IKP), podczas gdy średnia dla OECD to 82%. Ale nie wygląda to już tak dobrze pod względem zakresu danych, bo na IKP można znaleźć wykonane świadczenia medyczne, e-recepty i e-skierowania, e-zwolnienia, szczepienia. Brakuje wyników badań laboratoryjnych, zdjęć diagnostyki medycznej czy podsumowań informacji z wizyt lekarskich jak to ma miejsce w Estonii.

Liczba użytkowników IKP rośnie i październiku przekroczyła 20 mln
Liczba użytkowników IKP rośnie i w październiku przekroczyła 20 mln

Do tego nadal z IKP rzadziej korzystają osoby, które mogłyby najbardziej skorzystać na zarządzaniu swoim zdrowiem. Z 20 mln użytkowników IKP, jedynie 29% to osoby po 60 roku życia.

W Polsce telekonsultacje były szeroko stosowane podczas pandemii, ale obecnie są rzadkością
W Polsce telekonsultacje były szeroko stosowane podczas pandemii, ale obecnie są rzadkością

W 2019 r. średnia liczba zdalnych konsultacji telefonicznych lub wideo wyniosła 0,5 na pacjenta rocznie. Do 2021 r. – w wyniku pandemii koronawirusa – wzrosła ponad dwukrotnie do 1,3 telekonsultacji, najbardziej w Izraelu, Hiszpanii, Chorwacji, na Litwie i także w Polsce (1,6 konsultacji na osobę). Do 2023 r. wskaźnik telekonsultacji ustabilizował się na poziomie 1,0 na pacjenta rocznie. Polsce nie udało się w pełni wykorzystać potencjału telemedycyny. Spadek jej wykorzystania po pandemii jest ponad dwukrotny, czyli jeden z największych wśród wszystkich krajów OECD. Raport OECD pokazuje, że transfromacja cyfrowa ochrony zdrowia, ale taka która pozytywnie odbija się na zdrowiu Polaków i dostępności świadczeń, dopiero przed nami. I to mimo tego, że dziś jesteśmy jednym z liderów e-zdrowia w Europie.

ChatGPT wygeneruje w kilka sekund politykę cyberbezpieczeństwa, ale najlepsza jest ta tworzona samodzielnie
ChatGPT wygeneruje w kilka sekund politykę cyberbezpieczeństwa, ale najlepsza jest ta tworzona samodzielnie

Jak zaprojektować testy odporności, przygotować cykliczne szkolenia z bezpieczeństwa danych i regularnie informować o nowych zagrożeniach? Zrób to we własnym zakresie z pomocą AI.

Dostępny od sierpnia 2025 roku nowy model GPT-5 dorównuje albo przewyższa poziom wiedzy eksperckiej człowieka – tak przynajmniej twierdzi szef OpenAI. Czy także w zakresie cyberbezpieczeństwa? Na pytanie o to, jak wzmocnić ochronę danych, otrzymamy praktyczne wskazówki. ChatGPT zasugeruje zabezpieczenia techniczne, szkolenia personelu, tworzenie kopii zapasowych. Ale jego największą zaletą jest możliwość wzmocnienia wiedzy pracowników o tym, jak chronić dane – a wiemy ze statystyk, że za 80% skutecznych ataków hakerów odpowiada właśnie czynnik ludzki. Tę umiejętność ChatGPT można inteligentnie, ale ostrożnie, wykorzystać do poprawy poziomu cyberbezpieczeństwa.

Pobierz bezpłatny raport o cyberbezpieczeństwie w ochronie zdrowia
Pobierz bezpłatny raport o cyberbezpieczeństwie w ochronie zdrowia

Symulacje phishingu

Ataki z wykorzystaniem metod socjotechnicznych, czyli najczęściej phishing, są najczęstszą metodą wykorzystywaną przez hakerów. To od nich zaczyna się 90% skutecznych cyberataków. Wystarczy nieuważnie kliknąć na link w wiadomości e-mail albo SMS i hacker zyskuje dostęp do komputerów, blokuje je i żąda okupu. Jeszcze gorzej, gdy wykrada dane i upublicznia je w darknecie.

Dlatego każda organizacja powinna systematycznie badać, czy pracownicy potrafią rozpoznać fałszywe wiadomości. Do tego służą tzw. ataki symulowane. Taką wiadomość z łatwością przygotuje ChatGPT. Wystarczy poprosić o napisanie „maila typu phishing z NFZ albo dostawcy oprogramowania z informacją o zablokowaniu konta i prośbą o weryfikację tożsamości”. Mamy treść, teraz trzeba odpowiednio zaprojektować wysyłkę. Najlepiej sięgnąć do jednego z wielu dostępnych na rynku narzędzi do symulacji phishingu jak np. Microsoft Attack Simulator. Takich rozwiązań jest dużo i nie kosztują dużo. Narzędzia do symulacji ataków phishingowych od razu raportują, osoby z jakimi adresami e-mail kliknęły w link albo otwarły załącznik w mailu. Taką symulację można przeprowadzać regularnie traktując to w charakterze zabawy, aby pracownicy nie czuli niepotrzebnej presji kontroli.

Newsletter OSOZ

Wirtualny trener dla pracowników

ChatGPT świetnie się sprawdza w charakterze interaktywnego trenera. Zalecanym rozwiązaniem jest stworzenie własnego modelu wytrenowanego na danych placówki, ale to już wyższa szkoła jazdy dla dużych podmiotów, które rozwijają modele działające lokalnie.

W przypadku małych placówek wystarczy uruchomienie bezpłatnego ChatuGPT i poproszenie go o wcielenie się w rolę eksperta cyberbezpieczeństwa w placówce medycznej i zadawanie pytań pracownikowi na np. podstawowym poziomie. W prompcie należy sprecyzować, że każda błędna odpowiedź powinna być korygowana i zadawana w podobny sposób ponownie i aby czat składał się z np. 10 sesji o długości 15 minut każda. W ten sposób ChatGPT sam planuje cały kurs.

Testy i system certyfikacji dla pracowników

Testowanie wiedzy pracowników trzeba dobrze przemyśleć, aby zachować równowagę. Tak, bezpieczeństwo danych jest kluczowe i będzie coraz ważniejsze, ale musi działać w tle. ChatGPT jest źródłem pomysłów, jak stworzyć wewnętrzny, zabawny i oryginalny system certyfikatów traktowanych mniej poważnie. Wszystko zależy od kultury organizacyjnej i hierarchii – w większej organizacji lepiej sprawdzi się sformalizowany system, który pozwoli śledzić postępy wzmacniania poziomu wiedzy z cyberbezpieczeństwa w dużej grupie pracowników; w mniejszej – nieformalne podejście.

ChatGPT jest wprost idealny do tworzenia testów z wiedzy o bezpieczeństwie danych. Wygeneruje pytania otwarte albo testy jedno- i wielkokrotnego wyboru. Przygotuje krótkie studia przypadków i pytania kontekstowe dopasowane do różnych ról w organizacji – od lekarzy i pielęgniarek do rejestratorek i księgowych. Przeprowadzane np. co kwartał testy mogą zawierać przykłady najbardziej aktualnych metod działania hakerów. Testy należy ocenić, przygotować raport słabych i mocnych stron pracownika i na koniec zaproponować indywidualny plan szkoleń.

Weryfikacja i aktualizacja procedur bezpieczeństwa i polityk reagowania na incydenty

Każda placówka powinna mieć – choć w praktyce jest zupełnie inaczej – politykę ochrony danych i reagowania na incydenty. Najczęściej trafia ona na dno szuflady, bo nikt nie ma czasu, aby ją regularnie przeglądać i aktualizować. Ale i tutaj świetnie sprawdzi się ChatGPT. Po wczytaniu dokumentu opisującego politykę bezpieczeństwa (bez podawania danych placówki), AI sprawdzi, czy zawiera on wszystkie niezbędne punkty i podpowie, jak ją udoskonalić. Jeśli w międzyczasie pojawiły się nowe wytyczne, można wprost poprosić ChatGPT o odpowiednie zaktualizowanie procedur.

To samo dotyczy polityki reagowania na incydenty – ta zmienia się w raz z rozwojem placówki i dojrzewaniem cyfrowym. Przykładowo, jeśli podmiot przeszedł na pełną elektroniczną dokumentację medyczną, za tym muszą iść odpowiednie korekty w dokumentach opisujących, co robić w przypadku ataku. Kiedyś to zadanie było żmudne i wymagało przeglądu całych dokumentów. Dzisiaj w kilka sekund zrobi to za nas ChatGPT.

Co więcej, ChatGPT może wykryć niespójności z RODO, EU AI Act a nawet z dyrektywą NIS2 i interpretacjami, które opublikowano już w tym zakresie. Po wczytaniu Ustawy o Krajowym Systemie Cyberbezpieczeństwa i dostępnych wytycznych, ChatGPT krok po kroku przygotuje do audytów zewnętrznych.

Symulator sytuacji kryzysowej

Scenariuszy ataków hakerskich może być wiele: zablokowanie systemów kontrahenta, przykładowo laboratorium wykonującego badania albo firmy cateringowej, groźba publikacji wrażliwych danych pacjentów itd. Jak reagować w takiej sytuacji? Udany atak hakerski to duży stres dla organizacji i w takim przypadku trzeba działać szybko i zgodnie z góry zaplanowanym harmonogramem. Każdy musi wiedzieć co robić, musi być jasne, kto za co odpowada, aby atak nie stał się zagrożeniem dla zdrowia i życia pacjentów. Do tego służą symulacje sytuacji kryzysowych. Może je wygenerować ChatGPT, testując opcje, których czasami nawet nie możemy sobie wyobrazić, a przez które przeszły inne placówki zdrowia.

ChatGPT jako doradca ds. bezpieczeństwa i twórca newslettera

Według statystyk Centrum e-Zdrowia, tyko co trzecia placówka posiada wewnętrzną komórkę ds. bezpieczeństwa danych. Rzeczywistość jest taka, że zadania z tym związane są delegowanie do działu IT (jeśli jest) albo osoby z działu organizacji. Z danych Centrum e-Zdrowia wynika, że 30 proc. podmiotów nigdy nie opublikowało dokumentu polityki cyberbezpieczeństwa.

Cyberochrona nie jest wyłączną kompetencją i często tonie w masie innych obowiązków. Dlatego ChatGPT może być tymczasową pomocą – cyfrowym doradcą. Potrafi naprawdę wiele – zaplanuje harmonogram wdrażania wymagań związanych z dyrektywą NIS2, streści długie raporty i rekomendacje, stworzy plan szkoleń. Od czego zacząć? Od eksperymentowania z wymienionymi zadaniami.

Jeszcze kilka lat temu samodzielne przygotowanie newslettera wewnętrznego o nowych zagrożeniach i z krótkimi praktycznymi radami dla personelu wymagałoby przynajmniej jednego dnia pracy. Dziś zrobi to AI. Ale w pracy z ChatGP obowiązuje ważna zasada: AI nie może uzyskać dostępu do danych pacjentów. Wszystkie wczytywane do modelu dokumenty należy pozbawić danych adresowych (optymalne są modele działające lokalnie). Nowy model GPT-5 nadal, choć rzadziej, halucynuje, dlatego w kwestii cyberbezpieczeństwa najlepiej stosować go do mniej strategicznych zadań jak wspomniane testy czy symulacje phishingu, a kwestie technicznych i organizacyjnych zabezpieczeń pozostawić ekspertom.

Przejście na EDM to klasyczny przypadek gry koordynacyjnej, w której najważniejsze jest to, ilu graczy już wdrożyło EDM
Przejście na EDM to klasyczny przypadek gry koordynacyjnej, w której najważniejsze jest to, ilu graczy już wdrożyło EDM

W 2026 roku EDM obchodzi jubileusz, którego nie powinna obchodzić: 5 lat opóźnień. Według ostatnich statystyk, 6 na 10 placek prowadzi EDM. Kiedy uda się w końcu dokończyć jej wdrażanie? Sięgając do teorii gier i modelu dyfuzji innowacji wytypowaliśmy dwa najbardziej prawdopodobne scenariusze. Obydwa zaskakują.

Wdrożyć czy nie wdrożyć EDM?

Z perspektywy teorii gier, wdrożenie elektronicznej dokumentacji (EDM) medycznej można potraktować jako klasyczny dylemat interesów i współpracy. Kiedy w życie wszedł obowiązek EDM, czyli 1 lipca 2021 roku, każda placówka stanęła przed tym samym pytaniem: wdrożyć od razu, ponosząc koszty finansowe, czasowe i organizacyjne, czy zwlekać, licząc, że inni też tego nie zrobią i w ten sposób większość opóźnionych będzie miała siłę przebicia, a MZ nie odważy się wdrożyć środków przymusu.

Ci, którzy do dziś zwlekają z EDM wychodzą z pragmatycznego założenia: w krótkim okresie bardziej opłaca się „nie wdrażać”. Podmiot unika kosztów, wysiłku organizacyjnego i ryzyka potencjalnych zakłóceń. Jednak w dłuższej perspektywie, wraz z tym jak coraz więcej placówek przechodzi na EDM, zwlekanie się nie opłaca, bo traci się korzyści, do których mają dostęp inni, czyli wymianę danych i koordynację opieki. Z jedną uwagą: ta korzyść może mieć inną wagę w zależności od tego, jak placówka postrzega cyfryzację – jako koszt czy inwestycję – oraz która perspektywa jest dominująca – krótko- czy długoterminowa. Niezależnie od tego, teoria gier sugeruje też, że jeśli wskaźnik placówek prowadzących EDM przekroczy 50%, szala się odwraca na niekorzyść spóźnionych.

To klasyczny przypadek gry koordynacyjnej, w której najważniejsze jest to, ilu graczy już wdrożyło EDM. W teorii gier mówi się tu o tzw. punkcie równowagi Nasha. To stan, gdy – w omawianym przypadku – żaden z podmiotów nie ma motywacji, by zmienić swoją decyzję. Przykładowo, nawet jeśli większość innych placówek już wdrożyła EDM, mniejsze placówki i tak nie zmienią swojej decyzji o niewdrażaniu, bo ich indywidualny koszt nadal nie przewyższa potencjalnych plusów, niezależnie od tego, jak są one oczywiste z punktu widzenia lekarza czy pacjenta. Jeśli w lokalnym ekosystemie jest więcej takich placówek, wzmacniają się w przekonaniu, że robią dobrze. Jak widać, gra toczy się o postrzegane, a nie obiektywne korzyści i koszty.

Model adaptacji innowacji na rynku
Model adaptacji innowacji na rynku

„Maruderów” zmusi tylko prawo

Jeśli teorię gier uzupełnimy teorią dyfuzji innowacji otrzymamy przybliżoną liczbę, ile placówek nie wdroży EDM bez przymusu. Zgodnie z nią, każda innowacja przechodzi przez 5 faz i ma 5 grup użytkowników. Wcześni innowatorzy, czyli pionierzy z entuzjazmem wdrażają nowinki, ale stanowią tylko ok. 2,5% docelowych użytkowników technologii. Za nimi idą wcześni naśladowcy, których przekonują argumenty pionierów. Jest ich ok. 13,5%. Kolejną grupą jest wczesna większość, stanowiąca 34% wszystkich adresatów technologii. Są oni sceptyczni na początku, ale widząc, że wszystko działa jak trzeba, w końcu decydują się na wdrożenie. Dalej jest późna większość (także 34%), czyli ci, którzy wdrażają, bo rośnie presja. Na tym etapie jest właśnie wdrażanie EDM i jeśli Ministerstwo Zdrowia zna teorię gier, to strategicznie czeka, aż zrobi to min. 50% późnej większości. Dlaczego? Bo wie, że tzw. maruderów (16%) przekona już jedynie przymus. Ale jeśli EDM wdroży 70–80%, co jest realne, będzie miało twardy argument do opcji atomowej, czyli np. rozliczeń z NFZ na podstawie świadczeń medycznych indeksowanych w P1. Wtedy zyska poparcie większości, która traci na tym, że mniejszość zwleka. Ta teoria też jasno pokazuje, że prędzej czy później opcja przymusu będzie nieunikniona. Niezależnie od tego, jak dobra jest technologia, sceptycy zawsze byli i będą.

Skoro EDM przeszła już pierwsze trzy etapy krzywej wdrażania technologii i znajduje się w czwartej na pięć faz, sprawa jest jasna: EDM nie jest już kwestią ani technologii, ani kosztów, ale społeczną. Barierą są przyzwyczajenia i strach przed zmianą. Oczywiście mały margines trzeba zostawić dla placówek, które faktycznie borykają się z obiektywnymi przeszkodami jak np. brak dostępu do dobrego połączenia internetowego.

Newsletter OSOZ

Modele modelami, ale do tego dochodzi polityka

Te symulacje trzeba skorygować danymi historycznymi i polityką. EDM miała być obowiązkowa od 1 lipca 2021 roku, czyli na półmetku rządu Prawa i Sprawiedliwości, które to wygrało wybory w 2019 roku. Według badania stopnia informatyzacji prowadzonego przez Centrum e-Zdrowia, w 2021 roku EDM prowadziła zdecydowana mniejszość. Przykładowo, rok przed wyborami, bo w 2022 roku, 45,7% badanych zadeklarowała, że prowadzi EDM w zakresie informacji dla lekarza kierującego świadczeniobiorcę do poradni specjalistycznej lub leczenia szpitalnego o rozpoznaniu, sposobie leczenia, rokowaniu, ordynowanych lekach, środkach spożywczych specjalnego przeznaczenia żywieniowego i wyrobach medycznych; 28,4% badanych placówek – w zakresie wyników badań laboratoryjnych wraz z opisem, a co trzeci ankietowany podmiot (33,2%) – w zakresie opisu badań diagnostycznych innych niż laboratoryjne. Czyli nadal zdecydowanie za mało, aby ryzykować politycznie opcję przymusu przed wyborami w 2023 roku. I tak PiS odstawił EDM na bok.

Już w innej sytuacji jest obecna Koalicja Rządząca. Kolejne wybory są w 2027 roku. W 2026 roku procent placówek prowadzących EDM przekroczy najpewniej ok. 60%. Jeśli tak się stanie, wprowadzenie przymusu będzie już odpowiednio uzasadnione, ale nadal ryzykowne – na rok przed wyborami lepiej unikać wrażliwych tematów. W międzyczasie o wiele ważniejsze jest wdrożenie Centralnej e-Rejestracji, bo to ona ma „dowieźć” wyborczą obietnicę skrócenia kolejek. Przymus i osiągnięcie 100% placówek prowadzących EDM nie przyniesie medialnie atrakcyjnych korzyści dla pacjentów, które można by wykorzystać w kampanii – to, co liczy się dla pacjentów, to kolejki do lekarzy, a nie wyższa jakość opieki czy koordynacja wynikająca z możliwości wymiany danych.

Pobierz nowy numer czasopisma OSOZ
Pobierz nowy numer czasopisma OSOZ

Co z tego wynika? Trzy scenariusze. Pierwszy z nich zakłada efekt domina. Wdrażanie przekracza punkt przeciążenia, czyli 60% podmiotów z EDM, a placówki zaczynają odczuwać korzyści z wymiany danych. Opóźnieni widzą, że nie ma już odwrotu od EDM. Coraz częściej pojawiają się informacje o rozliczeniach z NFZ na podstawie zdarzeń medycznych indeksowanych w P1, koordynacja opieki nie jest możliwa bez EDM. W teorii gier to moment, w którym strategia „wdrażam EDM” staje się dominująca, bo zapewnia przynależność do większości i realne korzyści. Nikt nie chce być na końcu, a to odczucie wkrótce zacznie pukać do drzwi „maruderów”.

W drugim scenariuszu EDM osiąga stan równowagi Nasha: część placówek konsekwentnie nie będzie prowadziła EDM, ale nie przeszkadza im to funkcjonowaniu. Na tym etapie nie pomoże już wsparcie finansowane dla opóźnionych, zresztą byłoby ono niesprawiedliwe w stosunku do tych, którzy EDM wdrożyli po własnych kosztach.

W trzecim, najbardziej prawdopodobnym scenariuszu, adopcja EDM będzie powoli osiągać poziom ok. 70%. Wówczas MZ może wykorzystać argument, że większość już wdrożyła i zmusić „maruderów”. Opcja szoku regulacyjnego jest nieunikniona, bo inaczej mniejszość będzie blokowała pełne korzyści z EDM. Pozostaje pytanie, czy stanie się to jeszcze przed wyborami w 2027 czy dopiero po nich.

W modelu dyfuzji innowacji, tempo adopcji (krzywa S) przyspiesza po przekroczeniu progu 50%, a potem spowalnia, gdy zbliża się do nasycenia (100%). Jeśli obecne 60% odpowiada środkowi krzywej, możemy oczekiwać, że w ciągu 2–3 lat poziom adopcji osiągnie ok. 75%, o ile nie wystąpią jakieś nieprzewidywalne sytuacje.

Zwlekający z EDM są na przegranej pozycji

EDM jest już technicznie dojrzała i teraz jej wdrożenie zależy bardziej od mechanizmów społecznych i regulacyjnych niż od technologii. Teoria gier wskazuje, że placówki zachowują się racjonalnie w sensie lokalnym – minimalizują własne ryzyko. Teoria dyfuzji innowacji z kolei pokazuje, że dalszy rozwój zależy od motywacji późnej większości i maruderów, którzy reagują głównie na presję społeczną i administracyjną.

Doszliśmy już do 60%, czyli punktu przeciążenia. MZ powinno teraz szeroko komunikować korzyści EDM, także do pacjentów. Jeśli zabraknie zachęt lub zapowiedzi sankcji, EDM może się zatrzymać na obecnym poziomie, a podział pomiędzy prowadzącymi i nieprowadzącymi EDM utrwali się na długo. Jaka jest zatem nasza prognoza? Według wszystkich modeli, EDM zostanie w 100% wdrożona na przełomie 2026/2027 albo w drugiej połowie 2028 roku. Wynika to z teorii adaptacji technologii i kalendarza wyborów. W 2026/2027 roku kiedy można będzie powołać się na większość tych, którzy wdrożyli EDM, odbierając argumenty mniejszości. 2028 rok, bo po wygranych wyborach nie zaczyna się od restrykcji. Miejmy nadzieję, że pełne wdrożenie EDM jest kwestią 2–3 lat.

Różne aplikacje, różne formaty danych i chaos informacyjny - to codzienność placówek zdrowia
Różne systemy IT, różne formaty danych i chaos informacyjny – to codzienność placówek zdrowia

Każda placówka ma swoją indywidualną historię cyfryzacji. Oprogramowanie IT rozrasta się, dochodzą nowe aplikacje – czasami innych dostawców. Placówka stopniowo dojrzewa cyfrowo, ale wraz z tym infrastruktura danych staje się coraz bardziej zawiła, aż w końcu nikt nad nią nie panuje. Taki stan, pod którym może podpisać się wiele przychodni i szpitali, to nie tylko problem danych, ale i koordynacji opieki.

Dane determinują płynność działania i jakość opieki

Kiedy wchodząc do placówki medycznej wszystko działa jak trzeba, to znak, że informacje płynnie przepływają pomiędzy pracownikami, wydziałami, administracją i częścią kliniczną. Pacjent nie oczekuje zbyt długo na wizytę, każdy dokładnie wie, co robić, nie ma pośpiechu na korytarzu. Lekarz ma dostęp do danych pomagających mu podejmować decyzje, a cała uwaga skupia się na pacjencie, a nie na procesach administracyjnych.

Zakłóceń w przepływie informacji zazwyczaj nie widać, ale z czasem kumulują się one w duże nieefektywności. Panuje chaos, pracownicy tracą czas na szukaniu informacji, a to odbija się na jakości opieki nad pacjentem. To pierwszy znak, że trzeba uporządkować i uprościć przepływy informacji i uporządkować dane.

Zdecydowana większość menedżerów ochrony zdrowia wie, jak ważny jest niezakłócony obieg informacji. Ale niewielu może się pochwalić dobrze działającą infrastrukturą danych. Od czego zacząć? Przede wszystkim od weryfikacji, jak i gdzie dane są przechowywane. Jeśli na tej liście jest kilka niepołączonych ze sobą systemów, rozwiązanie musi być radykalne: wprowadzenie jednego, zintegrowanego systemu z jedną bazą danych. I to możliwie szybko.

9 bazowych pytań, od których zaczyna się wzmacnianie infrastruktury danych
9 bazowych pytań, od których zaczyna się wzmacnianie infrastruktury danych

Niewidzialna ręka dobrej cyfryzacji

Wymiana systemu może być droga, ale w efekcie suma wydatków zamortyzuje się w kilka lat. Czasami potrzebna będzie tylko rozbudowa już posiadanego systemu, jeśli jest on na tyle elastyczny i daje takie możliwości. Przy tym trzeba myśleć nie o dzisiejszych potrzebach, ale o tym, co będzie za kilka lat. Biorąc pod uwagę bezpieczeństwo danych, upowszechnienie algorytmów AI oraz integrowanie przepływów danych między placówką a pacjentem, pierwszym wyborem jest chmura danych. Ta pozwoli wdrażać elastycznie nowe technologie jak generatywną sztuczną inteligencję.

Newsletter OSOZ

Dobry system daje gwarancję, że w razie potrzeby będzie go można skalować, elastycznie rozbudowywać, dostosowywać do nowych wymagań raportowania i potrzeb biznesowo-klinicznych. Doświadczony dostawca zaoferuje na czas potrzebny upgrade, moduł do obsługi nowej specjalizacji w ramach rozwijającej się placówki albo rozwiązanie AI, które stało się właśnie technologicznie możliwe, a które znacznie ułatwia pracę. Dobrym przykładem są wymagane centralnie funkcjonalności e-zdrowia jak EDM czy Centralna e-Rejestracja. Klienci dużych firm IT mogli je wdrożyć na wczesnym etapie, bo mają odpowiednie zasoby kadrowo-logistyczne, aby szybko przygotować i udostępnić nową funkcjonalność

Ale to też pewność, że dane są dobrze chronione dzięki wbudowanym zabezpieczeniom zgodnym z najnowszymi standardami. Tego też nie widać na pierwszy rzut oka, ale bezpieczeństwo danych jest podstawą zaufania pracowników do cyfrowej infrastruktury.

Infrastruktura IT gotowa na centralne wymagania i warunki rynkowe

Infrastruktura cyfrowa jest jak żywy organizm – musi ciągle się rozwijać, a czasami nawet wyprzedzać aktualne wyzwania zarządzania danymi. Dzisiaj dane są jeszcze zamknięte w placówkach i tylko niektóre z nich – na razie w ramach Elektronicznej Dokumentacji Medycznej – są wymieniane. Niedługo dołączą do nich nowe dokumenty obligatoryjne w EDM, powstaje Centralna e-Rejestracja, lekarze zyskają dostęp do podsumowania pacjenta (Patient Summary) wdrażanego w ramach Europejskiej Przestrzeni Danych Zdrowotnych (EHDS). MZ ma ambicję wprowadzenia standardu zapisu wyników badań laboratoryjnych (LOINC). Można się spodziewać kolejnych programów profilaktycznych, a za kilka lat standardem może być opieka farmaceutyczna i opieka koordynowana w kolejnych grupach pacjentów – to wszystko powoduje, że placówki zdrowia będą wymieniały ze sobą kolejne rodzaje danych. I to nie tylko między sobą, ale też z aptekami.

Oprócz tych zewnętrznych zmian w systemie zdrowia, motywacją do priorytetowego traktowania ekosystemu danych powinny być też wewnętrzne korzyści: sprawniejsza komunikacja z pacjentem, szybsze podejmowania decyzji medycznych opartych na dowodach, mniejsze obciążenia administracyjne. Do tego dochodzi cały szereg nowych możliwości, które uwolnią algorytmy AI. Oczywiście można podważać sens proaktywnej cyfryzacji, dbania o dane i wdrażania nowości IT argumentując, że płatnik publiczny nie płaci za jakość, ale za wykonania. To jednak błędne koło – placówka zdrowia nie tylko musi zadbać o dodatni wynik finansowy, ale też o swoich pracowników, zwłaszcza w sytuacji braków kadrowych. Dobra infrastruktura danych pozytywnie odbija się na obydwu elementach, likwidując nieefektywności, marnotrawstwo zasobów i oszczędzając czas. Suma summarum ostatecznie największym beneficjentem będzie pacjent.

Od 9 miesięcy systematycznie spada liczba wydawanych zamienników leków w aptekach. Co jest tego powodem? W 2024 roku apteki sprzedały ponad 43 mln opakowań leków na zgagę i nadkwasotę żołądka. To rekord na przestrzeni ostatnich 20 lat. Zapoznaj się z najnowszymi danymi z rynku farmaceutycznego.

Grudniowe wydanie OSOZ Statystyki - pobierz raport
OSOZ Statystyki 12/2025

W numerze 12/2025 OSOZ Statystyki:

Spada skala substytucji aptecznej

Skala substytucji aptecznej – czyli zamiany leku na ten przepisany przez lekarza – od lat oscyluje na poziomie 5%. W pierwszych trzech kwartałach 2025, zamienniki stanowiły 4,7% wszystkich opakowań leków wydanych pacjentom w aptekach. Substytucja dla leków pełnopłatnych rośnie w czasie – z 5,6% w październiku 2023 do 6% we wrześniu 2025. W tym samym okresie substytucja leków refundowanych spada z 4,2 do 3,3%.

Najczęstszym powodem zamiany leku z recepty na odpowiednik jest brak leku na magazynie aptecznym. We wrześniu 2025 roku, aż 62% przypadków substytucji było spowodowane właśnie występowaniem stock-outu. Poziom wpływu zatowarowania na skalę substytucji jednak spada w czasie – we wrześniu 2023 roku brak leku w aptece odpowiadał za 71% sytuacji, w której pacjent otrzymał odpowiednik. Pozostałe – niemal 40% przyczyn substytucji – to tak zwana substytucja czynna. To sytuacja, w której pacjent otrzymuje inny lek niż przepisany na recepcie, ale nie wynika to z braku na magazynie aptecznym. Pacjent prosi o inny, na przykład tańszy, lek albo zamiana odbywa się z rekomendacji farmaceuty. Poziom tego typu substytucji rośnie w czasie.

Czytaj dalej 👉

Sprzedaż leków na zgagę i nadkwasotę żołądka

W okresie zaledwie 10 lat, sprzedaż leków na zgagę i nadkwaśność żołądka wzrosła o 35%, a w okresie ostatnich 20 lat – aż czterokrotnie. W 2024 roku apteki sprzedały 43 mln opakowań. Rosnąca sprzedaż jest efektem pogarszających się nawyków żywieniowych, ale i intensywnych kampanii leków na niestrawność i zgagę. W oczy rzuca się korelacja między porą roku a popytem – latem jest on najmniejszy, a największy w grudniu, co w dużym stopniu ma związek ze spotkaniami świątecznymi przy obfitym stole. Na uwagę zasługuje też trend ceny. Do czasu pandemii COVID-19, czyli 2019 roku, średnia cena opakowania systematycznie malała i w 2019 roku osiągnęła rekordowo niski poziom 14,36 zł. Potem zaczęła szybko rosnąć i do 2024 wzrosła o 25% do poziomu 17,83 zł.

Szacuje się, że zgaga dotyka ok. 20–30% dorosłych.

Czytaj dalej 👉

Ponadto w numerze:

Archiwalne wydania OSOZ
Omnimedis łączy dane rozproszone w różnych częściach systemu w wiedzę wspomagającą opiekę nad pacjentem
Omnimedis łączy dane rozproszone w różnych częściach systemu w wiedzę wspomagającą opiekę nad pacjentem

Płynna koordynacja opieki na pacjentem to kwestia inteligentnego łączenia danych w wiedzę, która wspiera sprawne zarządzanie i podejmowanie decyzji diagnostyczno-terapeutycznych. KAMSOFT zaprezentował system IT OSOZ-OmniMedis, który ma w tym pomóc. Środowisko integracyjne API.MED pozwala zamienić rozproszone dane w jeden ekosystem.

Zintegrowana platforma do kompleksowej opieki nad pacjentem i sprawnego zarządzania placówką medyczną

Prowadzenie kompleksowej koordynacji opieki nad pacjentem wymaga jednoczesnego działania na dwóch kluczowych płaszczyznach. Z jednej strony należy zadbać o perfekcyjną organizację samej placówki, a z drugiej – o precyzyjne zaplanowanie i monitorowanie ścieżki leczenia pacjenta.

Efektywność operacyjna, sprawne zarządzanie grafikami wizyt oraz optymalne wykorzystanie gabinetów stanowią fundament, na którym opiera się cała reszta. Z kolei planowanie, monitorowanie i standaryzacja ścieżki leczenia pacjenta są kluczowe dla osiągnięcia celów medycznych. Dzięki temu każdy pacjent otrzyma opiekę zgodną z najlepszymi standardami, a cały proces będzie przewidywalny i mierzalny.

Aby sprostać obu tym wyzwaniom jednocześnie, nowoczesne placówki medyczne mogą sięgnąć po zintegrowane systemy informatyczne jak np. OSOZ-OmniMedis produkcji KAMSOFT. Jak to działa w praktyce?

Zarządzanie skoordynowaną opieką nad pacjentem

OSOZ – OmniMedis to holistyczne i wielowymiarowe podejście do koordynacji opieki nad pacjentem. Obejmuje całościowe spojrzenie na koordynację zarówno od strony medycznej, jak i organizacyjnej. Przekształca proces w konkretne, mierzalne działania, które przekładają się na lepszą jakość opieki i wyższą efektywność organizacji. Lekarz i koordynator otrzymują rozwiązanie IT, które umożliwia tworzenie spersonalizowanych, wieloetapowych ścieżek terapeutycznych dla pacjentów zgodnie z obowiązującymi standardami medycznymi, na bieżąco monitorują postępy w realizacji planu leczenia, co pozwala na szybką reakcję na ewentualne odchylenia i zapewnia ciągłość opieki.

Inteligentne powiadomienia o kluczowych zmianach w parametrach zdrowia pozwalają skupić się na pacjencie, a nie na analizie i administracji
Inteligentne powiadomienia o kluczowych zmianach w parametrach zdrowia pozwalają skupić się na pacjencie, a nie na analizie i administracji

Merytoryczne wsparcie algorytmów medycznych i sztucznej inteligencji

Analizy medyczne wspierają lekarza w podejmowaniu decyzji klinicznych. Jak działają? Na podstawie danych pacjenta (m.in.: wyniki badań, wiek, waga, historia zdrowia i choroby, informacje z innych placówek medycznych) mogą z wyprzedzeniem sugerować np. podwyższone ryzyko występowania określonej choroby. Co ważne, profesjonalista medyczny ma dostęp do wszystkich informacji w jednym miejscu, co eliminuje czasochłonne przeszukiwanie różnych systemów czy dokumentów. Raporty generowane są automatycznie przed wizytą a inteligentne powiadomienia o kluczowych zmianach pozwalają skupić się na pacjencie, a nie na analizie i administracji.

Wsparcie zarządzania operacyjnego

Centralizacja zadań administracyjnych pozwala na sprawniejsze podejmowanie decyzji i nadzór nad działalnością operacyjną. Moduły do tworzenia i prowadzenia grafików pracy personelu medycznego dostępne w OSOZ-OmniMedis, zapewniają przejrzystość i kontrolę nad dostępnością usług. Platforma OSOZ-OmniMedis jest dostępna w dwóch wariantach – ONE oraz PRO. Podział ten został zaprojektowany tak, aby umożliwić elastyczne dopasowanie rozwiązania do skali działalności i strategicznych celów organizacji, od pojedynczych, samodzielnych placówek, po rozbudowane sieci medyczne i złożone struktury organizacyjne. Wersja PRO stanowi rozszerzenie funkcjonalne wersji ONE, oferując zaawansowane narzędzia do zarządzania i integracji.

Kluczowym elementem wyróżniającym wersję PRO, szczególnie z perspektywy działów IT, jest platforma integracyjna, która otwiera system na współpracę z zewnętrznymi rozwiązaniami.

Platforma Integracyjna API.MED

W nowoczesnej opiece zdrowotnej interoperacyjność systemów informatycznych jest warunkiem koniecznym do zapewnienia ciągłości i bezpieczeństwa opieki. Platforma integracyjna API.MED, dostępna jako opcja w wersji OSOZ-OmniMedis PRO, stanowi bezpośrednią odpowiedź na tę potrzebę, oferując bezpieczne i udokumentowane API. Dla menedżerów IT i architektów systemów, API.MED jest strategicznym komponentem umożliwiającym budowę spójnego, zintegrowanego ekosystemu technologicznego. Pozwala na dwukierunkową wymianę danych z kluczowymi systemami dziedzinowymi, takimi jak systemy szpitalne (HIS), laboratoryjne (LIS) czy radiologiczne (RIS), co eliminuje potrzebę ręcznego przepisywania danych, minimalizuje ryzyko błędów i tworzy jednolity, cyfrowy rekord pacjenta dostępny w czasie rzeczywistym. Dzięki temu OSOZ-OmniMedis może stać się centralnym hubem koordynacji opieki, jednocześnie czerpiąc dane i zasilając inne, wyspecjalizowane narzędzia.

Podsumowując, rozwiązania IT, takie jak OSOZ-OmniMedis, stają się kluczowym narzędziem w rękach nowoczesnego menedżera ochrony zdrowia. W dobie rosnącej złożoności systemów opieki zdrowotnej, presji kosztowej, braków kadrowych i coraz wyższych oczekiwań pacjentów, tradycyjne metody zarządzania oparte na papierowej dokumentacji, rozproszonych arkuszach Excela stają się po prostu niewydolne.

 AI przysłuchuje się rozmowie lekarza z pacjentem, transkrybuje ją, a następnie automatycznie wprowadza informacje do pól w dokumentacji medycznej
AI przysłuchuje się rozmowie lekarza z pacjentem, transkrybuje ją, a następnie automatycznie wprowadza informacje do pól w dokumentacji medycznej

AI scribes, czyli systemy generatywnej sztucznej inteligencji automatyzujące tworzenie EDM, oszczędzają czas, zmniejszają wypalenie zawodowe i poprawiają relacje z pacjentem – potwierdzają kolejne dwa badania naukowe. Lekarze spędzają mniej czasu z komputerem i są mniej obciążeni pracami administracyjnymi.

W końcu komputer pomaga a nie przeszkadza

AI w EDM działa w prosty sposób: sztuczna inteligencja rejestruje w czasie rzeczywistym rozmowę z pacjentem i transkrybuje ją, a następnie automatycznie wprowadza informacje do pól w dokumentacji medycznej, jak np. rozpoznanie, objawy, recepta itd. Lekarz weryfikuje zebrane informacje, potwierdza lub edytuje i gotowe. Bez pisania i klikania. Jak dowodzą dwa nowe badania naukowców z University of Chicago Medicine opublikowane w JAMA Network Open, takie systemy – nazywane inteligencją otoczenia – dają wymierne korzyści.

Newsletter OSOZ

W pierwszym badaniu „Wykorzystanie ambient AI Scribes w celu zmniejszenia obciążenia administracyjnego i wypalenia zawodowego” („Use of Ambient AI Scribes to Reduce Administrative Burden and Professional Burnout) o opinię zapytano 250 lekarzy z 6 systemów opieki zdrowotnej USA, które wdrożyły pilotażowo AI do EDM. Rezultaty zaskoczyły: wypalenie zawodowe lekarzy spadło z 52% do 39% (o 20%), a uczestnicy deklarowali m.in. że czas uzupełniania dokumentacji po godzinach pracy zmniejszył się o prawie 60 minut, z kolei obciążenie poznawcze związane z pracami administracyjnymi spadło o 2,64 punktów w 10-stopniowej skali.

Dr Neda Laiteerapong, zastępca dyrektora Centrum Badań i Polityki Chorób Przewlekłych i jedna z autorek badania, stwierdziła, że wyniki odzwierciedlają jej obserwacje jako jednego z ponad 800 lekarzy UChicago Medicine stosujących AI. Zauważono także, że pacjenci bardziej przestrzegali zaleceń lekarskich.

Kilka godzin zaoszczędzonych w tygodniu

W drugim badaniu „Wykorzystanie AI Scribe i efektywność elektronicznej dokumentacji medycznej” („Use of an AI Scribe and Electronic Health Record Efficiency”) szczegółowo przeanalizowano dane z pilotażowego programu dokumentacji klinicznej, koncentrując się na czasie poświęcanym przez lekarzy na tworzenie EDM.

Okazało się, że narzędzia AI do EDM doprowadziły do 8,5-proc. redukcji czasu poświęcanego na sporządzanie dokumentacji medycznej. Jak zauważyli autorzy badania, to może wydawać się mało, ale jeśli lekarz przyjmuje np. 20 pacjentów dziennie, oszczędza 2–3 minuty na wizycie, co sumuje się w kilka godzin tygodniowo.

Choć korzyści płynące z dokumentacji klinicznej wspomaganej AI wydają się oczywiste, eksperci podkreślają, że takie badania są ważne, bo dają konkretne liczby pokazujące skalę zwrotu z inwestycji w AI – zwłaszcza w aspekcie efektywności pracy i zadowolenia personelu oraz pacjentów. – Wprowadzenie takich innowacji technologicznych do opieki zdrowotnej wiąże się z kosztami, dlatego chcemy mieć pewność, że naprawdę stanowią one wartość dodaną dla pacjentów i pracowników – mówi Laiteerapong. To nie pierwsze badania pokazujące jak AI zmieni na lepsze sposób prowadzenia EDM. W poprzednich deklarowane oszczędności czasu sięgały nawet 20–30% przy bardzo pozytywnych opiniach pacjentów.

Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki
Alfonso Alfonso jest hiszpańskim biologiem, dyrektorem wydziału nauk przyrodniczych w Barcelona Supercomputing Center, należącym do Hiszpańskiego Narodowego Instytutu Bioinformatyki

Czy obietnice związane z AI w medycynie są realne? Czy nowe modele AI będą wolne od halucynacji? Kiedy pierwsze komputery kwantowe zaczną szukać nowych leków? Wywiad z Profesorem Alfonso Valencia, dyrektorem działu nauk przyrodniczych w Barcelona Supercomputing Center (BSC) – jednego z największych europejskich hubów AI.

Newsletter OSOZ

W ciągu ostatnich 3 latach byliśmy świadkami szybkiego rozwoju sztucznej inteligencji, zwłaszcza modeli generatywnych. Czy możemy spodziewać się nowych, lepszych modeli niż te dostępne?

Nie sądzę, że modele, które mamy obecnie – czyli te mające zastosowanie w narzędziach takich jak ChatGPT – to końcowy etap rozwoju sztucznej inteligencji. W rzeczywistości to bardzo prosta technologia, bo opiera się na bazowych regułach statystyki. I nawet jeśli ChatGPT czasami sprawia takie wrażenie, to nie rozumie ani kontekstu, ani sytuacji, o których z nim rozmawiamy. Po prostu wypluwa zdania, które są najbardziej prawdopodobne w odniesieniu do zadanego pytania.

Powiem inaczej: jeśli modele generatywnej AI to wszystko, co w dziedzinie AI osiągnęliśmy na kolejne lata, to wówczas mamy poważny problem.

Dlaczego?

LLM są z definicji bardzo niewiarygodne. Nie wiemy, czy odpowiedzi generowane przez modele generatywne są poprawne i w jakim stopniu możemy im ufać. To stawia nas w bardzo trudnej sytuacji, bo trudno stwierdzić, na ile możemy wykorzystywać dalej uzyskane wyniki. I to niezależnie od tego, czy generujemy tekst czy obrazek.

To dlatego naukowcy i firmy nowych technologii na całym świecie robią wszystko, aby zwiększyć stopień użyteczności modeli generatywnej AI i skompensować istniejące niedoskonałości. Pamiętajmy, że w biologii i medycynie czynnik zaufania ma ogromne znaczenie. Dlatego wprowadzane są ulepszenia w transformerach (redakcja: architektura uczenia głębokiego opracowana przez Google) i innych architekturach AI. Pojawiają się coraz to lepsze modele i coraz to lepsza inżynieria modeli. Nie rozwiązuje to jednak podstawowego problemu, czyli ograniczeń generatywnej AI wynikających z ich natury działania.

Jedną z głównych obaw związanych z generatywną sztuczną inteligencją są tzw. halucynacje. Nowy model GPT-5, który miał premierę w sierpniu br., zmniejsza ich występowanie kilkukrotnie, jak deklaruje OpenAI. Czy można je całkowicie wyeliminować?

Z perspektywy maszyny halucynacje nie są tak naprawdę „błędami”. System po prostu maksymalizuje prawdopodobieństwa analizując różne możliwe scenariusze. Z ludzkiego punktu widzenia, gdy wynik nie odpowiada prawdzie, uważamy to za błąd. Jest to nieodłączna cecha działania systemów opartych na prawdopodobieństwie, a ich wyeliminowanie jest niemożliwe.

Dlatego obecne wysiłki koncentrują się na budowaniu kolejnych warstw kontroli. Przykładowo, może to być mechanizm weryfikacji wyniku w dostępnych bazach wiedzy albo tzw. walidacja międzymodelowa, czyli porównanie wyników kilku modeli. W ten sposób, AI jest wprawdzie coraz bardziej niezawodna, ale mimo to, żadne z tych interwencji nie eliminuje nieodłącznej niepewności towarzyszącej generatywnej AI. Co gorsza, nawet nie mamy dobrego sposobu na zmierzenie tej niepewności w działaniu modeli.

W dziedzinie, którą głownie się zajmuję, czyli w modelowaniu struktur białek, system taki jak AlphaFold daje poziom pewności na poziomie 80 – 90 proc. I w wielu przypadkach taki poziom jest zupełnie wystarczający i może prowadzić do rewolucyjnych odkryć.

W przypadku modeli językowych lub modeli generujących grafikę, nie mamy takiej pewności. Nie ma sposobu, aby stwierdzić, że dana odpowiedź jest wiarygodna w np. 80%. Dla mnie jest to kluczowa różnica. Inżynieria może ograniczyć liczbę błędów, ale nie może dać nam tego wskaźnika pewności. To sprawia, że technologia generatywnej AI jest niestabilna.

Mimo tych ograniczeń zachwyt nad generatywną AI nie słabnie. Niektórzy liderzy firm nowych technologii zaczynają mówić, że to bańka, która wkrótce pęknie.

Patrząc na liczby, trudno uwierzyć, że taki poziom inwestycji będzie utrzymywany w nieskończoność. Ogromne sumy pieniędzy płyną do firm takich jak OpenAI czy startupów AI. Ale czy zarabiają one wystarczająco dużo na AI, aby uzasadnić te inwestycje? Czy dzięki modelom AI można uzyskać rzeczywisty wzrost wydajności, który odpowiada szumowi medialnemu? Nie jest to aż tak oczywiste.

Z historii znamy wiele przereklamowanych technologii, które napędzały krótkoterminowe oczekiwania. Inwestowano bez zbytniego martwienia się o to, co będzie później. Podobnie obecny szum nie sprzyja zrównoważonemu rozwojowi AI.

W biomedycynie jest jednak inaczej, bo sztuczna inteligencja już przynosi konkretne efekty. Przykładem jest szukanie nowych struktur białek w pracach nad lekami, AI analizująca duże ilości danych genetycznych w medycynie personalizowanej albo modele stosowane do podsumowywania dokumentacji medycznej. To rzeczywistość, a nie obietnica. Nawet jeśli niektóre firmy AI upadną pod ciężarem niezrównoważonych inwestycji, społeczność naukowa będzie nadal korzystać z nowych modeli i wcześniejszych postępów.

Oprócz projektowania struktur białek, wsparcia w EDM albo genomice, jakie jeszcze zastosowania sztucznej inteligencji w medycynie zasługują na uwagę?

Jest ich wiele – od biologii przedklinicznej, czyli badań przed wprowadzeniem leku do stosowania u ludzi, po zastosowania kliniczne jak algorytmy wspomagające podejmowanie decyzji. Kilka lat temu w artykule opublikowanym w czasopiśmie Science napisano, że kolejnym frontem rozwoju modeli językowych jest biologia i medycyna. I to prawda. Coraz więcej badaczy zajmujących się AI przechodzi do nauk o zdrowiu, ponieważ jest to dziedzina, gdzie zastosowania AI mogą być bardzo szerokie.

Do tego dochodzi jeszcze jeden argument: wpływ AI w medycynie można badać, a sama AI ma realny wpływ na życie i zdrowie człowieka. W innych dziedzinach prace nad AI są bardzo teoretyczne i nie dają tej samej satysfakcji i wymiernych korzyści.

Powracając do pytania, oprócz odkrywania nowych leków, zwróciłbym jeszcze uwagę na zastosowanie generatywnej AI w tworzeniu dokumentacji medycznej. Szpitale już od dawna są wyposażone w technologie obrazowania medycznego wspomagane AI. Jednak wąskim gardłem zawsze był dostęp do dużych ilości danych medycznych, ich przetwarzanie i wyciąganie na ich podstawie wniosków do decyzji klinicznych.

Obecnie, po raz pierwszy mamy możliwość łączenia tekstów, obrazów, wyników badań laboratoryjnych, informacji genetycznych, rezultatów badań naukowych. W ten sposób powstaje nowa wiedza, którą możemy wykorzystać np. do precyzyjnego leczenia nowotworów. Bardzo duży potencjał AI widzę także w kardiologii, neurologii i zdrowiu psychicznym.

Trwa „wyścig AI”: Chiny są już dziś liderem jeśli chodzi o liczbę patentów AI, Stany Zjednoczone przodują w komercjalizacji. Czy Europa, wprawdzie silna w ośrodki naukowe, ale ograniczona regulacjami prawnymi, liczy się w tym maratonie?

I tak i nie. Pozytywnym trendem są duże inwestycje w moc obliczeniową. W ramach inicjatywy AI Gigafactory na ten cel przeznaczono 200 mld euro ze środków prywatnych i dofinansowania Komisji Europejskiej. To ogromna kwota, a inwestycje przełożą się na ogromną moc obliczeniową pozwalającą wykorzystywać i opracowywać nowe algorytmy AI (redakcja: Polska stara się obecnie o utworzenie Baltic AI GigaFactory).

Drugim optymistycznym sygnałem są zmiany w polityce AI. UE postanowiła ściślej współpracować z przedsiębiorstwami, inwestując bezpośrednio w projekty, które przynoszą korzyści europejskiemu przemysłowi. To nowość.

Pod względem naukowym Europa jest silna, ale bądźmy szczerzy – wszystkie nagrody Nobla nadal trafiają do Amerykanów. Trudno konkurować z takim poziomem pieniędzy jak w USA. Potrzebujemy większych inwestycji w naukę. Jednak aby tak się stało, rządy poszczególnych krajów członkowskich muszą zrozumieć, że AI wymaga specjalnych programów finansowania.

Do tego dochodzi regulacja. Europa ma tendencję do regulowania na długo przed pełnym rozwojem technologii, co blokuje wszelkie inwestycje. Nie jestem przeciwny regulacjom, bo są one konieczne. Jednak same regulacje nie budują potencjału. Nie ma sensu regulować czegoś, co inni już rozwijają i wprowadzają do rozwiązań konsumenckich.

Kolejną technologią budzącą emocje są obliczenia kwantowe. Barcelona Supercomputing Center posiada już komputer kwantowy. Jak daleko jesteśmy od rzeczywistych zastosowań quantum computing w medycynie?

Tak, mamy już komputer kwantowy zakupiony przez rząd hiszpański i czekamy na drugi sfinansowany ze środków europejskich. Będzie one częścią kontynentalnej sieci komputerów kwantowych.

Maszyny te są nadal w fazie eksperymentalnej. Istnieją projekty badawcze w dziedzinie biologii wykorzystujące algorytmy kwantowe do wielokrotnego dopasowywania sekwencji, rekonstrukcji drzewa filogenetycznego czy w analizie obrazów. Gdy komputery kwantowe uzyskają stabilność pracy, pomogą w rozwiązywaniu bardzo palących problemów wymagających ogromnych mocy obliczeniowych, nieosiągalnych z wykorzystaniem klasycznych komputerów.

A kiedy będziemy mieli pierwsze w pełni funkcjonalne komputery kwantowe? Niektórzy twierdzą, że za pięć lat, a inni – że to kwestia dekad. Szczera odpowiedź brzmi: nie wiemy.

Komputer kwantowy w Barcelona 
Supercomputing Center.
Komputer kwantowy w Barcelona Supercomputing Center

Geoffrey Hinton, laureat Nagrody Nobla za pracę nad sieciami neuronowymi, ostrzega przed rozwojem super-inteligentnej AI. A czy Pan jest bardziej optymistą, czy pesymistą w tym obszarze?

Tutaj znowu mi trudno odpowiedzieć jednoznacznie. Na poziomie społecznym dostrzegam wiele zagrożeń. Już teraz obserwujemy manipulacje wyborcze, dezinformację i dominację kilku dużych amerykańskich firm kontrolujących przepływ informacji. Ludzie zaczynają ufać wszystkiemu, co wygląda na wiarygodne, niezależnie od tego, czy jest prawdziwe, czy fałszywe. To groźne, zwłaszcza z punktu widzenia Europy i życia społecznego.

Jednak z perspektywy naukowej, sztuczna inteligencja jest niezwykle obiecująca. Często porównuję ją do energii jądrowej, która jest niebezpieczna i może spowodować katastrofę, jeśli zostanie niewłaściwie wykorzystana. Jednak wykorzystujemy ją również w dobrych celach, zwłaszcza w medycynie.

Tak też postrzegam sztuczną inteligencję – jako technologię o podwójnym obliczu. Może przynieść ogromne korzyści, ale może też wyrządzić wielką szkodę.

Co zrobić, żeby zminimalizować zagrożenia AI i zmaksymalizować korzyści?

Musimy więcej inwestować. Regulacje bez inwestycji są bezsensowne. Musimy również budować potencjał i chronić europejską suwerenność w zakresie technologii. Trzeba inwestować w edukację AI, aby społeczeństwo wiedziało, jak z niej korzystać. Musimy też realistycznie podchodzić do ograniczeń AI i przestać ją traktować jak coś magicznego.

W grudniowym wydaniu czasopisma OSOZ Polska poznasz 16 najciekawszych innowacji technologicznych dla pacjentów i lekarzy, które mają szansę zrewolucjonizować medycynę.

Ponadto w numerze:

OSOZ Polska 12/2025
OSOZ Polska 12/2025

Spis treści:

Wszystkie wydania archiwalne dostępne są na zakładce POBIERZ.

Archiwalne wydania OSOZ

1 2 3 131