W kwietniowym numerze OSOZ Polska (4/2025) m.in. o crash testach bezpieczeństwa danych w szpitalach oraz innowacjach cyfrowych w onkologii. Tematy numeru:

OSOZ Polska 4/2025
OSOZ Polska 4/2025

Spis treści:

Wszystkie wydania archiwalne dostępne są na zakładce POBIERZ.

Archiwum czasopisma OSOZ
Umiejętność pisania promptów i stosowania generatywnej AI może pomóc w pracy i życiu prywatnym
Umiejętność pisania promptów i stosowania generatywnej AI może pomóc w pracy i życiu prywatnym

ChatGPT, Gemini i Microsoft Co-Pilot – generatywna AI ułatwia dostęp do wiedzy, pomagając w pracy i życiu prywatnym. Jak ją wykorzystywać do własnych celów? Oto bezpłatne kursy pozwalające być na bieżąco z AI.

AI od podstaw. Zwiększ efektywność w pracy – Strefa Wiedzy Polskiego Funduszu Rozwoju (PFR)

Bardzo dobry ogólny kurs o generatywnej AI po polsku przygotowany w ramach programu podnoszenia umiejętności cyfrowych. Można się z niego dowiedzieć, jak formułować zapytania do AI, aby uzyskać najlepsze rezultaty, jak generować grafiki, zdjęcia i wideo albo automatyzować niektóre procesy np. marketingowe i obsługi pacjenta. Do tego dużo wiedzy o trendach rynkowych AI, regulacjach prawnych oraz zasadach etycznych przy korzystaniu z ChatGPT i podobnych narzędzi. W przypadku pracowników ochrony zdrowia kurs może pomóc np. w automatyzacji tworzenia korespondencji z pacjentami albo przygotowywaniu materiałów promocyjnych i PR-owych. „AI od podstaw. Zwiększ efektywność w pracy” składa się z kilku modułów zawierających wykłady i ćwiczenia oraz jest skierowany do szerokiego grona odbiorców – od początkujących, nietechnicznych osób, po przedsiębiorców, pracowników marketingu, analityków i twórców, którzy chcą zaoszczędzić czas i usprawnić swoją pracę. W ofercie Strefy Wiedzy Polskiego Funduszu Rozwoju jest wiele innych ciekawych szkoleń dotyczących cyfryzacji jak np. podstawy AI dla administracji publicznej, firma bezpieczna cyfrowo czy kultura innowacyjna firmy.

Polski Fundusz Rozwoju przygotował świetne kursy o AI i cyfryzacji
Polski Fundusz Rozwoju przygotował świetne kursy o AI i cyfryzacji

AI Skills Navigator

Interaktywna platforma e-learningowa przygotowana przez Microsoft z bogatą ofertą kursów na temat sztucznej inteligencji i generatywnej AI. W ofercie podstawowe szkolenia dla każdego pomagające rozpocząć przygodę z AI i zaawansowane webinary dla informatyków obsługujących rozwiązania chmurowe. Oczywiście wszystkie opierają się na rozwiązaniach Microsoftu: kurs dotyczący generatywnej AI omawia działanie Co-Pilota, a analityki danych w chmurze – platformę Azure. Dla początkujących przygotowano m.in. kursy z pisania polecań do AI (promptów) oraz korzystania z Co-Pilota w poczcie elektronicznej, Wordzie czy PowerPoincie. Duża część z szkoleń jest po polsku. Najczęściej trwają od kilku do kilkunastu godzin i składają się z wykładów w formie filmów wideo i materiałów do przeczytania. Wadą jest to, że niektóre kursy są przetłumaczone przez AI na łamany polski.

Platforma e-learningowa Microsoftu
Platforma e-learningowa Microsoftu

Wprowadzenie do generatywnej AI od Google

Na podobnej zasadzie jak Microsoft, także Google przygotował szkolenie wyjaśniające jak korzystać z generatywnej sztucznej inteligencji, a dokładnie z modelu Gemini od Google. Podstawowy kurs trwający 8 godzin wymaga przeczytania sporo materiałów. Nagrania wideo są po angielsku z polskimi napisami.

Kurs od Google oferuje podstawy obsługi modelu Gemini
Kurs od Google oferuje podstawy obsługi modelu Gemini

Elements of AI

„Elements of AI” to kursy opracowane przez Uniwersytet Helsiński ze środków Unii Europejskiej. Wyróżnia go szerokie spojrzenie na zagadnienia AI, jak np. wpływ AI na pracę i codzienne życie w najbliższych latach, kulisy powstawania systemów AI i działania sieci neuronowych. Nie ma tutaj praktycznych zasad obsługi ChatGPT i podobnych narzędzi. W łącznie 6 kursach uczestnik dowie się sporo o historii AI i jej możliwościach.

Kurs Elements of AI pomoże zrozumieć sposób działania sztucznej inteligencji i jej wpływ na życie
Kurs Elements of AI pomoże zrozumieć sposób działania sztucznej inteligencji i jej wpływ na życie

AI w ochronie zdrowia (Coursera)

Jeden z najlepszych kursów o AI w ochronie zdrowia od prestiżowego Uniwersytetu Stanforda, dostępny na bezpłatnej platformie e-learningowej. Trwa ok. 5 tygodni i jest bezpłatny, jeśli zdecydujemy się na opcję bez certyfikatu i egzaminu końcowego. W programie m.in. wprowadzenie do zagadnienia danych klinicznych i uczenia maszynowego oraz integracja AI w pracy podmiotu medycznego. Szkolenie kierowane jest do osób zainteresowanych cyfryzacją w ochronie zdrowia lub zawodowo zajmujących się analityką danych i AI w medycynie. Z powodzeniem może go także ukończyć każdy lekarz albo pielęgniarka, aby lepiej zrozumieć, jak można wykorzystać dane i AI do poprawy procesów organizacyjnych i klinicznych. Można też otrzymać certyfikat, ale za tę opcję trzeba zapłacić. To szkolenie nie zawiera informacji o generatywnej AI. Na platformie e-learningowej Coursera można znaleźć setki kursów o AI przygotowanych przez uniwersytety oraz firmy IT z całego świata.

Na platformie Coursera znajdziesz ogromny wybór kursów o AI, ale tylko w języku angielskim
Na platformie Coursera znajdziesz ogromny wybór kursów o AI, ale tylko w języku angielskim
Lekarze coraz chętniej korzystają z ChatGPT w swojej pracy. Ale czy jest to bezpieczne?
Lekarze coraz chętniej korzystają z ChatGPT w swojej pracy. Ale czy jest to bezpieczne?

Nigdy nie wprowadzaj danych pacjenta do ChatGPT i podobnych chatbotów – radzą eksperci od ochrony danych osobowych. Jak w takim razie bez obaw korzystać ze sztucznej inteligencji? Które narzędzia generatywnej AI są najbezpieczniejsze, a których unikać?

Generatywna AI w ochronie zdrowia

Szacuje się, że ok. 25% Polaków już korzysta z generatywnej AI w życiu prywatnym i do celów zawodowych. Narzędzia takie jak ChatGPT, Perplexity, Co-Pilot albo Gemini mają swoich zwolenników, którymi są zwłaszcza osoby młode i wykształcone, ale i równie dużą grupę sceptyków obawiających się o swoją prywatność i ryzyko bycia wprowadzonym w błąd (halucynacje AI). Duża część osób nadal nie wie, jak w ogóle rozpocząć pracę z AI.

Według badania przeprowadzonego przez czasopismo naukowe BMJ Health and Care Informatics, co piąty lekarz rodzinny stosuje AI do tworzenia listów klinicznych. Z kolei z ankiety Fierce Healthcare na 107 lekarzach POZ wynika, że aż 76% z nich korzysta z dużych modeli językowych (LLM) podczas podejmowania decyzji klinicznych. 60% używa ich do  sprawdzania interakcji między lekami, 40% – do planowania leczenia, a 70% – do edukacji pacjentów. Faktyczne stosowanie ChatGPT w codziennej pracy może być jeszcze wyższe, bo nie wszyscy chcą się do tego przyznać.

Tymczasem mało osób wie, że każde zapytanie wpisane do czatbota jest zapamiętywane i przechowywane na serwerach, najczęściej poza Unią Europejską. A to może prowadzić nie tylko do łamania przepisów RODO, ale także grozi wyciekiem wrażliwych danych. ChatGPT, Co-Pilot, a może DeepSeek – które narzędzia oferują największą prywatność?

Ponad 60% Polaków w wieku 16-30 lat korzystała już z generatywnej AI
Ponad 60% Polaków w wieku 16-30 lat korzystało już z generatywnej AI

DeepSeek na czarnej liście

Zacznijmy od sensacji ostatnich tygodni, czyli chińskiego modelu DeepSeek R1. Po jego premierze, był on najchętniej pobieraną aplikacją na świecie – w okresie dwóch pierwszych tygodni oprogramowanie ściągnęło 3,6 mln osób. DeepSeek obiecuje wysoką wydajność modelu i precyzję odpowiedzi, a do tego jest całkowicie bezpłatny. Ale czy bezpieczny?

Nie do końca. Przed stosowaniem DeepSeek ostrzega Urząd Ochrony Danych Osobowych (UODO). Z polityki prywatności aplikacji wynika, że dane użytkowników mogą być przechowywane na serwerach zlokalizowanych w Chinach.

– Zgodnie z obowiązującymi przepisami rząd chiński posiada szerokie uprawnienia związane z dostępem do danych osobowych bez gwarancji ochrony przewidzianej w europejskim porządku prawnym – czytamy w oświadczeniu UODO. Do tego duży model językowy z Chin może wykorzystywać przekazywane przez użytkowników dane do dalszego trenowania modelu albo celów marketingowych.

Co-Pilot, ChatGPT, Gemini, Perplexity też pod znakiem zapytania

Nie tylko chiński model zapisuje dane z zapytań do dalszego trenowania AI. Robi to tak samo amerykański ChatGPT i Perplexity albo francuski LeChat od Mistral AI. Z jedną różnicą – w ich przypadku można to zastrzec dzięki opcji dostępnej w ustawieniach systemu.

Z kolei Microsoft 365 Copilot przechowuje dane dotyczące interakcji, w tym polecenia i odpowiedzi, jako część historii aktywności Copilot użytkownika. Jak deklaruje firma w warunkach użytkowania, dane te pozostają w usłudze chmurowej Microsoft 365 i są szyfrowane podczas przechowywania. Nie są one wykorzystywane do dalszego trenowania modelu AI, a użytkownicy mogą usunąć historię aktywności Copilot. Firma twierdzi także, że Copilot spełnia wymagania ogólnego rozporządzenia o ochronie danych (RODO).

Nawet jeśli czatbot nie przetwarza promptów wprowadzanych przez użytkownika – a te mogą czasami zawierać wrażliwe dane – pozostaje kolejny problem: większość popularnych dużych modeli językowych AI działa w chmurze danych, a serwery zlokalizowane są w USA. Przykładowo, jeśli korzystamy z ChatGPT, dane trafiają do centrum danych Microsoft Azure w Teksasie. A to oznacza naruszenie europejskich przepisów RODO. Taka była też argumentacja włoskiego urzędu ochrony danych osobowych, który w marcu 2023 zabronił korzystania z ChatGPT. Po kilku tygodniach, m.in. dzięki wprowadzeniu wspomnianej opcji zastrzeżenia danych do dalszego trenowania modeli, zakaz został uchylony.

Centrum danych Microsoft Azure. To tutaj przetwarzane są dane, które wpisujemy do ChatGPT (zdjęcie: Microsoft)
Centrum danych Microsoft Azure. To tutaj przetwarzane są dane, które wpisujemy do ChatGPT (zdjęcie: Microsoft)

Trzeba także pamiętać, że firmy tworzące duże modele językowe też są narażone na ataki hackerów albo wycieki danych spowodowane błędami oprogramowania. Takie miały miejsce np. w przypadku ChatGPT, choć żadne dane z rozmów nie zostały dotąd naruszone.

Czy są modele LLM, z których można korzystać bez obaw?

Odpowiedź jest prosta: tak, ale są to modele open-source. Działają one lokalnie i nie przesyłają danych na serwery zewnętrzne. Tylko takie modele mogą być stosowane bez obaw przez europejskie placówki medyczne. Niestety, ich stosowanie nie jest tak łatwe jak ChatGPT – wymagają instalacji na lokalnych serwerach przez osoby, które mają przynajmniej bazową wiedzę informatyczną. Ich obsługą i trenowaniem są w stanie zająć się tylko wykwalifikowani informatycy albo inżynierowie danych. Zaletą jest to, że można je dalej trenować na własnych bazach danych, tworząc czatboty przystosowane do różnych zadań, np. wyszukiwania danych w elektronicznej dokumentacji medycznej.

Wśród najpopularniejszych modeli o otwartym kodzie jest Llama 3 od Facebooka, a także Bloom, Mistral Small 3 albo MPT-7B.

Alternatywą są funkcje AI wprowadzane przez dostawców oprogramowania IT do programów gabinetowych. Opierają się one na bezpiecznych lokalnych modelach, a do tego są zintegrowane z systemem IT dzięki czemu nie trzeba się przełączać pomiędzy różnymi aplikacjami. Z czasem będzie ich przybywać, bo oferują duże ułatwienia w m.in. wyszukiwaniu danych.

Jeśli generatywna AI to tylko lokalna

Żaden z modeli generatywnej sztucznej inteligencji działających w chmurze danych nie powinien być wykorzystywany do analizy wrażliwych danych pacjentów. Dlatego zasadą nr 1 jest unikanie w promptach danych osobowych albo informacji mogących posłużyć do identyfikacji konkretnej osoby (np. na podstawie kilku znaczników jak wiek, miejsce zamieszkania, cechy charakterystyczne). Lekarz może ogólnie zapytać o diagnozę na podstawie objawów, ostatnie badania naukowe albo rekomendacje medyczne. Zaleca się przy tym wyłączenie pozwolenia stosowania zapytań do dalszego trenowania modelu. Największe korzyści i gwarancję bezpieczeństwa danych dają modele open source, choć ich wdrożenie wiąże się ze stworzeniem mocnego zaplecza bazowo-serwerowego. Najprostszym rozwiązaniem jest testowanie funkcji AI wprowadzanych do systemów IT.

Molekuły, które zawiera polska LLK, odpowiadają aktualnie za prawie 50% wartości sprzedaży aptecznej
Molekuły, które zawiera polska LLK, odpowiadają aktualnie za prawie 50% wartości sprzedaży aptecznej

Pandemia COVID-19 unaoczniła światu jak bardzo produkcja leków generycznych jest zależna od API (substancji czynnych potrzebnych do produkcji leków) oraz intermediatów (innych składników potrzebnych do wytwarzania medykamentów) pochodzących z Chin i innych krajów azjatyckich. Czasowe zamknięcie kilku olbrzymich fabryk i przerwane łańcuchy dostaw spowodowały problemy z dostępem do leków w wielu krajach. Poziom zależności od produkcji azjatyckiej oceniany jest różnie, ale jest olbrzymi i wynosi od 60 do 80%. Wszyscy zaczęli poszukiwać sposobu jego ograniczenia.

dr Jarosław Frąckowiak, Prezes PEX

Odbudowanie produkcji API jest procesem żmudnym, kosztownym (wedle badań PEX, budowa jednej fabryki API to koszt ok. 1 mld złotych), niepewnym komercyjnie (czy będą rynki zbytu i długi okres popytu?; jak konkurować ceną z wielkoskalową produkcją w Azji?) oraz „brudnym” z punktu widzenia norm środowiskowych, jakie musi spełniać fabryka.

Unia Europejska oraz kraje członkowskie, w tym Polska, podjęły prace nad Listami Leków Krytycznych (LLK). Teoretycznie – oby wkrótce praktycznie – umieszczenie wybranych molekuł na LLK może dać impuls do poczynienia inwestycji w celu ich wyprodukowania w krajach członkowskich EU. Tak się stanie, jeśli wejdą w życie programy wsparcia dla producentów, którym bez gwarancji rynkowych trudno ponieść wszystkie koszty stawiania centrów rozwoju i fabryk API czy leków gotowych. Jest niemal pewne, że tego typu programy będą wspierać produkcję molekuł zawartych na LLK.

Wybór molekuł do LLK trwał długo. W Polsce substancje czynne podzielono pod względem ich krytyczności dla zdrowia pacjentów.

Trzy poziomy listy leków krytycznych
Trzy poziomy listy leków krytycznych

Finalnie, na polskiej LLK znalazło się 301 molekuł. Ciekawie wypada porównanie z europejską LLK. Mogłoby się wydawać, że LLK w każdym kraju czy na poziomie europejskim powinny być podobne, a tak nie jest. Porównując polską i europejską LLK odnajdziemy 159 molekuł, które znajdują się na obu listach, 142 molekuły występują tylko na polskiej, a 115 na wyłącznie na europejskiej.

Porównanie polskiej i europejskiej listy leków krytycznych
Porównanie polskiej i europejskiej listy leków krytycznych

Na polskiej LLK nie znalazły się – obecne na europejskiej – immunoglobuliny czy antybiotyki stosowane w lecznictwie zamkniętym. LLK nie jest „zabetonowanym tworem” i może ulegać zmianom. Teoretycznie poszerzanie list (o ile będzie powiązane z mechanizmami wsparcia produkcji) może powodować wzrost zainteresowania biznesu produkcją lokalną API, intermediatów, budowaniem centrów R&D czy fabryk form gotowych leków.

Molekuły, które zawiera polska LLK, odpowiadają aktualnie za niemal 60% wolumenu i prawie 50% wartości sprzedaży aptecznej. To dużo. Oby znalazły się mechanizmy wsparcia dla biznesu, które spowodują, że coraz większa część z tej sprzedaży będzie pochodziła z lokalnej produkcji.

Sprzedaż leków, które znalazły się na Liście Leków Krytycznych
Sprzedaż leków, które znalazły się na Liście Leków Krytycznych
Zmiany w siatkówce oka są wczesnym sygnałem rozwoju niektórych chorób
Zmiany w siatkówce oka są wczesnym sygnałem rozwoju niektórych chorób

Na podstawie 50 000 zdjęć par oczu, australijscy naukowcy stworzyli najdokładniejszą na świecie mapę siatkówki ludzkiego oka. Pozwoli lepiej diagnozować i monitorować choroby z pomocą systemów sztucznej inteligencji.

W badaniu wykorzystano zbiór danych obrazów optycznej koherentnej tomografii (OCT, technika obrazowania wykorzystująca światło do rejestrowania przekrojowych obrazów struktury oka) od około 54 000 osób, udostępnionych przez biobank Wielkiej Brytanii. Za pomocą konwolucyjnej sieci neuronowej wygenerowano przestrzenny zbiór danych o najwyższej rozdzielczości grubości siatkówki, jaką kiedykolwiek udało się osiągnąć. Obejmuje on łącznie 50 000 map z pomiarami w ponad 29 000 miejsc na siatkówce.

Analiza zmian struktury siatkówki może pomóc we wczesnym wykrywaniu niektórych chorób. Przykładowo, badanie opublikowane w Nature Communications dowiodło, że zmniejszona grubość siatkówki jest silnie skorelowana ze stwardnieniem rozsianym (SM). Przerzedzenie siatkówki jest też silnie związane z wieloma innymi chorobami neurodegeneracyjnymi oraz zaburzeniami sercowo-metabolicznymi. Możliwość diagnozy chorób na podstawie struktury oka wynika z tego, że siatkówka ma wyjątkową wrażliwość metaboliczną, reagując na zmiany w organizmie. W badaniu ustalono ponadto, że na wzrost i rozwój siatkówki wpływają aż 294 geny człowieka.

Naukowcy są zdania, że dzięki badaniu będzie można opracować rutynowe, przesiewowe badania obrazowe oczu służące do diagnozy i monitoringu postępu chorób. Choroby neurodegeneracyjne, takie jak demencja, zaburzenia metaboliczne i cukrzyca, prowadzą do zaburzeń centralnego układu nerwowego, którego częścią jest siatkówka. Według badaczy, obrazowanie siatkówki może pełnić rolę „okna mózgu”, wykrywając skutecznie choroby neurologiczne. Nieinwazyjne diagnozowanie i przewidywanie chorób na podstawie biomarkerów obrazów zmian w oku jest szybko rozwijającą się dziedziną, która nazywana jest okulomiką.

Jeszcze inne badania sugerują, że zwyrodnieniowa choroba spojówki (pterygium) może być wczesnym predyktorem raka skóry. Dzięki zastosowaniu sztucznej inteligencji, Singapore Eye Research Institute opracował testy do badań przesiewowych w kierunku przewlekłej choroby nerek oraz przewidywania wieku biologicznego także na podstawie zdjęć siatkówki. Z kolei chiński model AI VisionFM – wytrenowany przy użyciu 3,4 miliona zdjęć oczu od ponad 500 000 osób na całym świecie – jest w stanie m.in. diagnozować choroby oczu oraz przewidywać zmiany biomarkerów ogólnoustrojowych i rozwój guzów wewnątrzczaszkowych.

Prof. dr Ariel Dora Stern, Profesor Uniwersytetu Humboldta ds. zdrowia cyfrowego, ekonomii i polityki w Instytucie Hasso Plattnera w Poczdamie
Prof. dr Ariel Dora Stern, Profesor Uniwersytetu Humboldta ds. zdrowia cyfrowego, ekonomii i polityki w Instytucie Hasso Plattnera w Poczdamie

– Jestem podekscytowana zastosowaniami sztucznej inteligencji w medycynie. Ale zaczynamy od niewłaściwej strony – mówi Prof. Ariel Dora Stern, profesor Harwardzkiej Szkoły Biznesu oraz ekspertka ds. zdrowia cyfrowego w Instytucie Hasso-Plattnera.

Jak ocenia Pani cyfryzację opieki zdrowotnej w Europie?

Jest nadal wiele do zrobienia i dużo możemy nauczyć się od innych, zwłaszcza od USA, gdzie proces cyfryzacji rozpoczął się dużo wcześniej, bo w 2009 roku wraz z wejściem w życie HITECH – ustawy, która miała zachęcić świadczeniodawców opieki zdrowotnej do wdrożenia elektronicznej dokumentacji medycznej.

Moim zdaniem, cyfryzacja ochrony zdrowia jest obowiązkiem systemów zdrowia w Europie. Obowiązkiem wobec pacjentów – aby w sposób odpowiedzialny zbudować zorientowane na obywateli i etyczne cyfrowe rozwiązania w medycynie. Ale też obowiązkiem wobec lekarzy – aby mogli oni pracować bez obciążeń administracyjnych prowadzących do wypalenia zawodowego.

Czego Europa może nauczyć się od USA na temat wdrażania innowacji?

Podczas mojej pracy w USA współpracowałam z Centrum Innowacji szpitala klinicznego na Uniwersytecie w Harvardzie. Od tego czasu badam rolę szpitalnych centrów innowacji, szczególnie tych zlokalizowanych w akademickich centrach medycznych. Jestem przekonana, że jednym z najważniejszych narzędzi stymulującym wdrażanie wartościowych, przyjaznych dla lekarzy innowacji jest stworzenie odpowiednich struktur w ramach placówek medycznych. W USA są to właśnie centra innowacji.

Amerykańskie szpitale wiedzą, jak tworzyć pozytywną kulturę wokół innowacji i odpowiednie warunki dla innowatorów klinicznych do komercjalizacji ich technologii. Takiego podejścia brakuje w Europie.

Co będzie miało największy wpływ na cyfrową transformację medycyny?

Pierwszym przykładem jest Europejska Przestrzeń Danych Zdrowotnych – European Health Data Space. Jestem ostrożną optymistką, jeśli chodzi o projekty takie jak EHDS. Jego udane wdrożenie będzie efektem dobrze przeprowadzonej transformacji cyfrowej, a nie – jak wielu uważa – jej katalizatorem. EHDS będzie papierkiem lakmusowym digitalizacji sektora zdrowia.

Osobiście jestem podekscytowana zastosowaniami sztucznej inteligencji w medycynie. Ale i w tym przypadku zaczynamy od niewłaściwej strony – aby wykorzystać potencjał AI, potrzebujemy dużych, reprezentatywnych zbiorów danych. Są one niezbędne, aby tworzyć wysokiej jakości algorytmy AI. W Europie takich zbiorów Big Data po prostu nie mamy.

Dodam jeszcze jeden element – AI odegra dużą rolę w digitalizacji danych zdrowotnych, także tych retrospektywnych. To zadanie, z którym wcześniej nie mogliśmy sobie poradzić. Jestem też optymistycznie nastawiona do narzędzi AI pozwalających zmniejszać obciążenia administracyjne lekarzy. Będą one stopniowo wdrażane na szeroką skalę, tak samo jako algorytmy AI tworzone w celu poprawy diagnozy i generowania zaleceń dotyczących leczenia – czyli systemy podejmowania decyzji klinicznych.

A co z unijną ustawą o AI? Czy nie zahamuje rozwoju AI w medycynie?

Jest zbyt wcześnie, aby ocenić wpływ EU AI Act na sektor zdrowia. Nadal istnieją duże nieścisłości dotyczące interpretacji nowego prawa, brakuje konkretnych wytycznych. Rozstrzygające będą pierwsze wyroki sądowe, na które trzeba będzie jeszcze poczekać.

Musimy jednak liczyć się z efektem, który nazywam „niepewnością regulacyjną”. Optymizm inwestorów i zapał innowatorów tworzących systemy oparte na AI mogą zostać ostudzone, nawet jeśli samo prawo nie stoi teoretycznie na przeszkodzie.

Jakie zmiany regulacyjne są potrzebne, aby rozwiązania cyfrowe w ochronie zdrowia zaczęły szybciej trafiać do pacjentów?

Po obu stronach Atlantyku – w Europie i USA – zmagamy się z faktem, że wiele narzędzi cyfrowych, w tym między innymi tzw. terapie cyfrowe, podlega prawnej definicji wyrobu medycznego. Terapie cyfrowe (red.: np. aplikacje mobilne stosowane w terapii chorób przewlekłych jak cukrzyca albo bezsenność) są oczywiście produktami terapeutycznymi. Dlatego ich uregulowanie w celu zapewnienia bezpieczeństwa i efektywności działania jest w pełni uzasadnione. Nie sądzę jednak, że europejskie przepisy w zakresie wyrobów medycznych, tworzone wyłącznie z myślą o klasycznych urządzeniach, nadają się w stosunku do nowej klasy rozwiązań terapeutycznych.

Potrzebujemy odrębnych ram regulacyjnych dla zdrowia cyfrowego, którymi można by objąć cyfrowe terapeutyki, rozwiązania SaMD (oprogramowanie jako wyrób medyczny) a także cyfrowe wyroby medyczne łączące w sobie sprzęt i oprogramowanie. Takie przepisy muszą uwzględniać cel rozwiązania i jego zmienność, czyli dynamiczny rozwój przykładowo w związku z dochodzeniem nowych opcji albo trenowaniem modeli AI. To pozwoliłoby na stworzenie nowych strategii refundacji. Te muszą także ewoluować wraz z rozwojem produktu cyfrowego. Tylko w ten sposób możemy zagwarantować szybką adopcję innowacji e-zdrowia na rynku.

Czyli coś na kształt francuskiego modelu refundacji rozwiązań cyfrowych Pecan albo niemiekiego DiGA?

Jestem zwolenniczką tzw. „dynamicznej oceny technologii medycznych” dla cyfrowych aplikacji zdrowotnych. W Europie wdrożono już kilka nowych przepisów będących próbą szybszej integracji tego typu rozwiązań na rynku zdrowia. Przykładem jest wspomniany francuski Pecan czy niemiecka DiGA, czyli ścieżka refundacji dla aplikacji zdrowotnych. To dobry początek, ale zarówno Pecan jak i DiGA są statyczne i także nie uwzględniają elastyczności rozwoju produktów e-zdrowia.

Brak jasnych zasad oceny powoduje, że placówki medyczne są zdane na siebie jeśli chodzi o wybór rozwiązań cyfrowych. Inaczej mówiąc – wybierają je na chybił-trafił.

To spore wyzwanie. Problemem jest dodatkowo to, że nawet do oceny kosztów i korzyści innowacji cyfrowych – która musi być podstawą podejmowania decyzji o zakupie nowych systemów – brakuje danych. Nie można ocenić wpływu nowych technologii na produktywność bez faktycznego pomiaru produktywności. Oczywiście wartość i korzyści płynące z innowacji mogą ewoluować w czasie i to też trzeba uwzględnić. Ale pierwszym krokiem jest określenie jasnego punktu odniesienia: co chcemy osiągnąć i czy wybrane rozwiązanie to gwarantuje. W przeciwnym przypadku będziemy wydawali pieniądze w ciemno. Tym samym wracamy do punktu wyjścia: dane są potrzebne nie tylko do trenowania modeli AI i podejmowania decyzji, ale także do tego, aby podejmować racjonalne, oparte na faktach i badaniach decyzje.

Komputer kwantowy IBM w IBM Quantum Lab, Thomas J. Research Center (zdjęcie: IBM)
Komputer kwantowy IBM w IBM Quantum Lab, Thomas J. Research Center (zdjęcie: IBM)

Badania nad nowymi lekami i terapiami pochłaniają ogromne budżety i trwają latami. Ma to zmienić sztuczna inteligencja, która jest w stanie odkrywać nowe cząsteczki chemiczne leków znacznie szybciej i taniej. Aby tak się stało, potrzebne są jednak ogromne moce obliczeniowe, które mogą zaoferować tylko komputery kwantowe. Kiedy się ich doczekamy?

Obliczenia kwantowe pozwolą do końca poznać, jak działa ludzki organizm

„Sztuczna inteligencja na sterydach” – tak naukowcy nazywają potocznie połączenie AI i komputerów kwantowych. Sztuczna inteligencja jest już gotowa, do sukcesu brakuje jeszcze komputerów kwantowych, które pomogłyby wykorzystać pełne możliwości nowych modeli AI w naukach medycznych.

Postępy AI w ostatnich dwóch latach spowodowały, że każda licząca się firma farmaceutyczna już eksperymentuje z AI do prac nad nowymi lekami. Systemy takie jak AlphaFold 3 są zdolne modelować trójwymiarowe struktury białek, DNA, RNA, umożliwiając analizę modyfikacji chemicznych regulujących funkcje komórkowe i mających kluczowe znaczenie dla zdrowia organizmu człowieka. Tego typu symulacje wymagają jednak ogromnych mocy obliczeniowych. To dlatego USA – a ostatnio także Europa – budują ogromne centra obliczeniowe, w których m.in. firmy działające w obszarze nauk o zdrowiu trenują modele AI albo przeprowadzają obliczenia.

Jednak nawet najpotężniejsze centra danych mogą wkrótce okazać się niewystarczające, bo klasyczne komputery oparte na wysokowydajnych procesorach mają trudności z symulowaniem złożonych cząsteczek ze względu na wykładniczy wzrost wymagań obliczeniowych. Znacznie lepiej poradzą sobie z nimi komputery kwantowe. Niektóre zadania, które dostępnym komputerom mogłyby zająć setki a nawet miliardy lat, komputery kwantowe są w stanie przeprowadzić w kilka minut albo godzin. Przynajmniej w teorii.

Przemysł farmaceutyczny inwestuje w quantum computing

Naukowcy są zgodni, że komputery kwantowe są konieczne, aby jeszcze szybciej opracowywać nowe, personalizowane terapie np. w przypadku nowotworów. Mogą one znacznie dokładniej modelować interakcje mechaniki kwantowej. Symulując zachowanie elektronów w cząsteczkach, pomogą m.in. zrozumieć, w jaki sposób cząsteczki chemiczne leków oddziałują na układy biologiczne pacjentów o określonych cechach.

Nic dziwnego, że quantum computing zainteresowana jest poważnie big pharma. Przykładowo, w 2024 roku Merck nawiązał trzyletnią współpracę z HQS Quantum Simulations w celu stworzenia oprogramowania do odkrywania leków. W 2023 roku Bayer i Google Cloud ogłosiły współpracę w celu przyspieszenia prac nad lekami poprzez wykorzystanie jednostek przetwarzania tensorowego (TPU) Google Cloud do obliczeń chemii kwantowej na dużą skalę. Partnerstwo ma na celu udoskonalenie modelowania in silico systemów biologicznych i chemicznych.

Kooperację nawiązały też Moderna i IBM. Razem chcą zbadać możliwości obliczeń kwantowych i AI do przyspieszenia badań nad mRNA. Jeszcze innym przykładem jest Qubit Pharmaceuticals oferujące wsparcie w badaniach nad nowymi lekami „z kwantową dokładnością” z użyciem superkomputera Gaia z 200 procesorami graficznymi Nvidia. Z kolei dzięki umowie z IBM, pierwszy eksperymentalny komputer kwantowy stanął w Klinice Cleveland. Naukowcy korzystają z niego do odkrywania nowych metod leczenia i badań w dziedzinie biomedycyny.

Szybkie kalkulacje i symulacje, ale duże błędy

Choć prace nad komputerami kwantowymi trwają od lat, nadal nie udało się opracować wydajnych i stabilnych w działaniu maszyn. Przeszkód jest kilka. Urządzenia tego typu opierają się na nie do końca zbadanych zasadach teoretycznych fizyki kwantowej. Budowa komputerów kwantowych jest kosztowna i energochłonna – stabilność stanów kwantowych wymaga temperatury bliskiej zera absolutnego, czyli -273 stopni Celsjusza. Choć swoje komputery rozwijają wszystkie największe firmy technologiczne jak Google, IBM, Intel, Microsoft czy NVIDIA, osiągnięte wydajności jeszcze nie przekraczają tych możliwych do osiągnięcia przez klasyczne procesory. Największym problemem są jednak błędy w obliczeniach, które na razie wykluczają ich zastosowanie w medycynie, gdzie pomyłki mogą kosztować życie.

Komputer kwantowy IBM w Klinice Cleveland, USA (zdjęcie: Ryan Lavine, IBM)
Komputer kwantowy IBM w Klinice Cleveland, USA (zdjęcie: Ryan Lavine, IBM)

Mimo to wyścig kwantowy trwa. Do 2028 roku pierwszy komputer kwantowy chce opracować IBM. W grudniu 2024 r. Google zaprezentował swój nowy procesor kwantowy Willow. W testach wykonał on w mniej niż 5 minut obliczenia, które zajęłyby jednemu z najszybszych dostępnych superkomputerów 10 septylionów lat (10 000 000 000 000 000 000 000 000 000 lat).

W marcu 2025 r. NVIDIA zorganizowała pierwszy w historii Quantum Day. Założyciel i dyrektor generalny, Jensen Huang, zaprosił liderów branży, aby omówić rozwój obliczeń kwantowych. Optymizm inwestorów nie gaśnie. W lutym 2025 r. QuEra, startup zajmujący się obliczeniami kwantowymi, uzyskał finansowanie o wartości 230 mln USD, przy wsparciu takich gigantów jak Google Quantum AI i SoftBank Vision Fund.

Niektórzy eksperci chłodzą emocje: opracowanie komputerów kwantowych do praktycznego zastosowania może zająć lata albo i nawet dekady. W badaniu opublikowanym w 2020 r. oszacowano, że wiarygodne obliczenia kwantowe (czyli takie, które są odporne na nadal powszechne błędy) są mało prawdopodobne przed 2026 r. Niektórzy szacują, że pierwsze komputery kwantowe nie pojawią się przed 2039 r. Obliczenia kwantowe mają potencjał do rozwiązywania wielowymiarowych problemów, czyli takich, z którymi mierzy się medycyna. Większość prac nad komputerami kwantowymi skupia się nad ich zastosowaniem właśnie w ochronie zdrowia. Stawką jest skuteczne leczenie chorób, z którymi nadal medycynie nie udało sobie poradzić.

Systemy IT mają sporo funkcji automatyzujących tworzenie dokumentacji medycznej albo wystawianie recept
Systemy IT mają sporo funkcji automatyzujących tworzenie dokumentacji medycznej albo wystawianie recept

Nawet 50% czasu pracy lekarza pochłaniają obowiązki administracyjne: raportowanie, notatki w EDM, wystawianie recept i skierowań. Dobrze wdrożone systemy IT mogą zmniejszyć ten odsetek o kilka punktów procentowych, co przekłada się na oszczędność kilkudziesięciu minut dziennie oraz wyższy komfort pracy.

1. Automatyzacja dokumentacji medycznej

W tempie pracy lekarze często nie mają czasu na dobrą konfigurację systemu IT. A taka może zaoszczędzić nawet do kilku minut na wizycie. Dobre systemy IT mają rozbudowane opcje pozwalające personalizować system w zależności od procedur pracy, projektować formularze wywiadów medycznych, korzystać z baz danych ułatwiających wystawianie recept i szukanie informacji o lekach, drukować wskazówki dla pacjentów, automatycznie uzupełniać informacje itd. Dla bardziej zaawansowanych są też dostępne opcje dyktowania notatek. Najważniejsze jest takie ustawienie pulpitu pacjenta, aby wszystkie informacje były widoczne na pierwszy rzut oka. Każde ograniczenie liczby kliknięć czy przełączeń pomiędzy oknami przelicza się na mniej czasu przed komputerem.

2. Udrożnienie komunikacji z pacjentami

Odpowiedzi na najczęściej zadawane pytania na stronie internetowej, predefiniowane automatyczne odpowiedzi e-mail, rejestracja on-line na wizytę, telekonsultacje, automatyczne płatności w przypadku świadczeń prywatnych – nie trzeba czekać na AI, aby już automatyzować pracę. Do tego część pacjentów można przyjąć on-line, np. w przypadku mniej skomplikowanych problemów albo konieczności wystawienia e-recepty na kontynuację leczenia. Zaleca się zarezerwować dedykowane godziny w kalendarzu, oddzielając wizyty osobiste i wirtualne oraz zachowując odpowiedni balans między nimi.

3. Usprawnienie planowania i umawiania wizyt

Internetowa rejestracja to najprostszy sposób na zaoszczędzenie czasu, ponieważ cały proces wyboru terminu wizyty według osobistych preferencji przeprowadza samodzielnie pacjent. Korzyści są obustronne: mniejsza liczba telefonów w placówce i większa elastyczność w zarządzaniu kalendarzem po stronie pacjenta. Dostępne dane sugerują, że 20% pacjentów jest gotowych od razu skorzystać z e-rejestracji. To oznacza 20% mniej czasu spędzonego na odbieranie telefonów. Jeśli gabinet otwarty jest 6 godzin, przelicza się to na kilkanaście minut mniej na telefony. Idealnym rozwiązaniem jest zaoferowanie rejestracji on-line przez aplikację mobilną, która przyda się też do innych celów, jak np. przekazywanie e-recept albo komunikacja z pacjentem.

4. Predykcja kolejek i zarządzanie ruchem pacjentów

No-shows, pilne przypadki i pacjenci wymagający większej uwagi – w tym badań przeprowadzonych na miejscu – często powodują, że cała organizacja dnia pracy nagle się sypie. Efekt: pacjenci czekają dłużej w kolejce niż planowali, robi się napięta i nerwowa atmosfera. Pewne wzorce zaburzeń rytmu wizyt można wychwycić z meta-analiz danych kalendarza. Takie narzędzia klasy business intelligence posiadają już niektóre systemy IT, wychwytując niewidoczne gołym okiem wzorce. Wnioski mogą okazać się przydatne w jeszcze lepszym zaplanowaniu dnia pracy. Na ich podstawie można wprowadzić kilka udoskonaleń. Przykładowo, określić np. ograniczenia dotyczące odwołania on-line wizyty (np. nie później niż 48 godzin przed wizytą) albo zaplanować dodatkowe interwały czasu na przypadki pilne dopasowane do sezonów grypy i przeziębienia.

5. Integracja danych w ramach całej ścieżki opieki nad pacjentem

Oczywistość, którą trudno czasami zrealizować: im większa integracja pomiędzy różnymi systemami IT, tym łatwiejsza praca. Jeśli dane z laboratorium od razu spływają do systemu gabinetowego, a do tego są od razu oznaczane w przypadku wartości poza normą, duża część zadań administracyjnych z tym związanych odpada. Integracja danych ma jeszcze większe znaczenie w przypadku opieki koordynowanej, bo pozwala śledzić etap opieki i dane/zalecenia wprowadzane przez innych specjalistów.

6. Włączanie pacjenta w proces leczenia

Pacjentów można podzielić na dwie grupy: biernych odbiorców usług medycznych i aktywnych uczestników procesu leczenia. Dodatkowe zaangażowanie tej drugiej grupy można wykorzystać, włączając proaktywnych pacjentów w proces opieki, np. zachęcając do wprowadzania wyników pomiarów ciśnienia krwi i robienia notatek, które mogą mieć znaczenie w diagnozie. I znowu w tym przypadku idealnym narzędziem jest aplikacja mobilna łącząca pacjenta z placówką medyczną, w której przy okazji można też zamawiać recepty i realizować telekonsultacje.

7. Ułatwienia w wystawianiu recept

Większość wizyt kończy się wystawieniem recepty. Najnowszej klasy systemy IT mają już rozwiązania AI do podsumowywania informacji o lekach czy nawet podpowiadające, jakie badania laboratoryjne należy zlecić pacjentowi przed przepisaniem leku na receptę. Opcje takie jak kopiowanie recept w przypadku chorych przewlekle to już standard. Kolejne kilkanaście sekund można zaoszczędzić sięgając do narzędzi pomagających uzupełniać dawkowanie leków.

8. Przemyślenie procedur pracy

Systemy kolejkowe z biletami (numerami) ze zintegrowanymi wyświetlaczami w gabinecie porządkują przyjęcia w dużych placówkach medycznych, wprowadzając większą transparentność kolejek i zmniejszając frustrację pacjentów. Choć w małych gabinetach osobiste zaproszenie do gabinetu jest z reguły lepszą opcją, w przychodniach numery sprawdzają się lepiej – kiedy wyświetla się kolejny numer, lekarz może w międzyczasie otworzyć kartotekę pacjenta. Jeśli pacjent przychodzi z papierową dokumentacją medyczną (zmiana lekarza, nowe wyniki badań albo zaświadczenia), jej digitalizację ułatwi specjalny skaner.

9. Aktualizacja systemów IT

Oprogramowanie gabinetowe i rozbudowane systemy informatyczne mają coraz więcej funkcji ułatwiających obsługę pacjenta. Najwięksi dostawcy IT wypuszczają co roku aktualizacje zawierające zmiany dopasowujące system do nowych wymagań administracyjnych, ale także uwzględniające zgłoszenia klientów. Warto poświęcić 1–2 godziny miesięcznie na zapoznanie się z listą zmian w nowej wersji systemu albo umówić spotkanie z opiekunem IT, który poradzi, jakie nowe funkcje pozwolą jeszcze lepiej zorganizować pracę.

Mierzenie i regularne sprawdzanie wyników aktywności fizycznej czasami bardziej szkodzi niż pomaga
Mierzenie i regularne sprawdzanie wyników aktywności fizycznej czasami bardziej szkodzi niż pomaga

Opaski fitness i inteligentne zegarki pozwalają mierzyć parametry aktywności fizycznej, od ilości kroków, szybkości i pokonanego dystansu, aż do bardziej zaawansowanych wskaźników jak VO2 max. Ale czy to daje jakiekolwiek korzyści?

Fakt 1: Pomiary wyników motywują

Każdy smartwatch mierzy przynajmniej kilka wskaźników zdrowia, jak tętno, liczba kroków, jakość snu. Można mierzyć szybkość podczas biegania i jazdy na rowerze, wydolność oddechowo-krążeniową (VO2 max), dystans spacerów i liczbę spalonych kalorii. Producenci tego typu urządzeń, jak Garmin, Fitbit, Apple czy Samsung obiecują lepsze zrozumienie własnego organizmu i poprawę wyników aktywności fizycznej zgodnie z zasadą, że „doskonalić można tylko to, co się mierzy”.

Dane ze stycznia 2022 roku sugerują, że już prawie 54% osób na świecie korzysta z urządzeń ubieralnych do monitorowania zdrowia. Moda na nie rozpoczęła się w 2008 roku, kiedy na rynku pojawiły się pierwsze smartfony, a zaraz po nich tanie opaski fitness. W efekcie pomiar aktywności fizycznej stał się dostępny dla każdego.

Wraz z popularyzacją urządzeń ubieralnych, naukowcy zyskali dostęp do danych pozwalających ocenić wpływ wykonywania pomiarów na zdrowie. Dobra wiadomość jest taka, że śledzenie kondycji fizycznej faktycznie zwiększa poziom aktywności – taki wniosek wynika z przeglądu 71 artykułów naukowych badających to zjawisko. Sugerują one, że śledzenie aktywności ma „pozytywny wpływ na motywację użytkowników”. Wniosek: mierząc parametry zdrowia, nie tylko ruszamy się więcej, ale dzięki temu jesteśmy też zdrowsi.

Fakt 2: Tracking wyników może mieć negatywny wpływ

Ale jest jeden haczyk: najbardziej korzystają osoby, które i tak lubią ćwiczyć. Dlatego pozytywny wpływ smartwatchy i opasek fitness zaobserwowano przede wszystkim u aktywnych osób poniżej 50 roku życia. Z kolei osoby starsze lub mniej aktywne są bardziej skłonne do rezygnacji z pomiarów. I tutaj pojawia się problem, bo w przypadku tych osób śledzenie aktywności fizycznej może być nawet szkodliwe. Dlaczego? Nieosiągnięcie celu pomiarów lub osiąganie gorszych wyników w porównaniu z rówieśnikami wywołuje poczucie winy i frustrację. Niezamierzoną konsekwencją technologii ubieralnych jest to, że osoby zdrowe są jeszcze zdrowsze, a te w gorszej formie – tylko pogarszają swoje zdrowie psychiczne i fizyczne.

Problem nie tkwi jednak w samej technologii, ale w sposobie, w jaki została stworzona. Większość aplikacji, jak np. popularna Strava, zawiera element rywalizacji i wzmocnienia społecznego („ja kontra inni”), aby zmotywować do ruchu. Użytkownicy mogą porównywać swoje wyniki między sobą. Osoby osiągające najlepsze efekty potwierdzają, że są dobre i jeszcze bardziej rośnie ich pewność siebie. Ci, którzy pozostają w tyle, jedynie utwierdzają się w przekonaniu, że odstają od innych i szybko tracą motywację.

Fakt 3: Skupianie się na liczbach nie ma sensu

Według naukowców, urządzenia ubieralne mogą przynieść korzyści wszystkim, ale wymaga to bardziej indywidualnego podejścia do motywacji. Każdy z nas ma inne ciało, inne możliwości i uwarunkowania i te powinny uwzględniać aplikacje typu fitness. Odpowiednio spersonalizowane mogą wykorzystywać elementy grywalizacji bez czasami szkodliwego elementu rywalizacji, skupiając się na stopniowej poprawie własnych osiągnięć.

Badacze doszli także do wniosku, że część rozwiązań może odbierać radość z aktywności fizycznej, bo użytkownicy skupiają się tylko na osiąganiu celów i poprawie wyników. Przykłady można mnożyć: trenujemy zbyt intensywnie, aby spalić jeszcze więcej kalorii albo sprawdzamy co chwila szybkość biegania, zamiast cieszyć się aktywnością na świeżym powietrzu. To też można zmienić. Przykładowo, aplikacja do wędrówek może zachęcać do robienia zdjęć na zasadzie pamiętnika albo planowania przerw na piknik i odpoczynek.

Artur Białoszewski jest Członkiem Rady Sieci Lekarzy Innowatorów Naczelnej Izby Lekarskiej NIL IN
Artur Białoszewski jest Członkiem Rady Sieci Lekarzy Innowatorów Naczelnej Izby Lekarskiej NIL IN

Eksperci McKinsey & Company podkreślają, że przyszłość ochrony zdrowia będzie oparta na ekosystemach zorientowanych na pacjenta, integrujących tradycyjną opiekę medyczną, technologie cyfrowe oraz rozwiązania wspierające zdrowie i codzienne funkcjonowanie chorego. Ten model wymaga jednak większego zaangażowania pacjentów jako aktywnych uczestników procesów decyzyjnych.

Autor: Artur Białoszewski, MPH, epidemiolog, profilaktyk, Kierownik SGH-WUM EMBA, Ekspert NRL ds. badań i analiz, Dyrektor Ośrodka Strategii i Analiz OIL w Warszawie, Członek Rady NIL IN

Większa autonomia pacjenta, ale i odpowiedzialność

Cyfryzacja sektora zdrowia powoduje, że aktywna rola pacjentów coraz częściej polega nie tylko na dostępie do informacji zdrowotnych, ale także na dzieleniu się nimi. W tej nowej definicji, pacjent zaangażowany to taki, który przykładowo korzysta z Indywidualnego Konta Pacjenta, aby kontrolować wprowadzane dane. Lada dzień będzie to też pacjent, który świadomie udostępnia swoje dane, wiedząc, jaką wartość mają w procesie leczenia, badaniach naukowych nad nowymi lekami i terapiami, a być może i samodzielnie korzystający z narzędzi AI wspomagających podejmowanie prozdrowotnych decyzji związanych z jego stylem życia.

Ma to szczególne znaczenie w kontekście Europejskiej Przestrzeni Danych Zdrowotnych (EHDS). Zgodnie z regulacjami UE, pacjenci będą mieli możliwość sprzeciwu wobec wtórnego wykorzystania swoich danych zdrowotnych na zasadzie opt-out (sposób wdrożenia tego mechanizmu będzie zależny od regulacji przyjętych w poszczególnych krajach UE). To, jakie podejście zbudujemy wśród pacjentów do udostępniania ich danych, będzie miało ogromne znaczenie w medycynie przyszłości. Stawką jest dostępność danych będących paliwem w badaniach naukowych i opracowywaniu innowacji oraz zakres ich pierwotnego wykorzystywania w diagnostyce i leczeniu. Dając pacjentom większy wpływ na to, co dzieje się z ich danymi – co jest w założeniu słuszne – wymaga edukacji i transparentności, aby zyskać ich zaufanie do cyfrowej ochrony zdrowia opartej na danych.

Rosnąca zatem świadomość pacjentów i postępy naukowe sprawiają, że zamiast biernego odbiorcy usług, pacjent staje się dziś współtwórcą innowacji – o tym rozmawiali eksperci podczas debaty „Pacjent w sercu innowacji” zorganizowanej podczas European Health Data and Innovation Summit.

Nowe technologie muszą być odpowiedzią na absurdy systemu zdrowia

Stwierdzenie „każdy z nas jest pacjentem” powoduje, że system ochrony zdrowia powinien w pierwszej kolejności uwzględniać potrzeby i perspektywę człowieka w gabinecie lekarskim albo na szpitalnej sali. Jednak w praktyce często bywa inaczej. Zarówno projektowanie przepisów, jak i wprowadzanie nowych technologii lub procedur medycznych zbyt rzadko odbywa się przy udziale osób, które z tych rozwiązań będą korzystać.

Z drugiej strony istnieją już sukcesy pokazujące, jak duża jest siła wpływu samych pacjentów. Urszula Jaworska, prezeska Fundacja Urszuli Jaworskiej, od 28 lat działa na rzecz praw i poprawy sytuacji chorych w Polsce. To między innymi dzięki jej wysiłkom udało się wprowadzić rozwiązania prawne zapewniające kompleksowe testy i terapię w zakresie zakażeń wirusem HCV u osób osadzonych w zakładach karnych. W jaki sposób to osiągnięto?

– Trzeba się do zmian przygotować. Przedstawić konkretne dane, napisać projekt rozporządzenia i dopiero wtedy przekonywać decydentów. Samo „zróbcie coś” nie wystarczy – tłumaczy Jaworska.

Kiedyś wydawało się niewyobrażalne, by organizacje pacjenckie wpływały na kształt rozporządzeń i wytycznych. Dziś to nie tylko możliwe, ale i wręcz konieczne – przecież nikt lepiej niż osoba doświadczająca choroby nie zidentyfikuje największych słabości systemu. Teraz, gdy cyfryzacja kształtuje jakość usług zdrowotnych, organizacje pacjentów coraz częściej uwzględniają ją w swoich postulatach.

Pacjent jako współtwórca przepisów i technologii

Jednym z miejsc, do których pacjenci i organizacje ich reprezentujące mogą zgłaszać propozycje usprawnień, jest Biuro Rzecznika Praw Pacjenta. Jakub Adamski, dyrektor departamentu współpracy BRPP, podkreśla, że Rzecznik nie tylko zajmuje się skargami na brak dostępu do świadczeń, ale też przyjmuje wszelkie postulaty mogące poprawić funkcjonowanie systemu.

– Zbieramy informacje, które mogą wskazywać na potrzebę wdrożenia innowacyjnych rozwiązań – wyjaśnia Adamski. Dane te są następnie przekazywane do resortu zdrowia czy innych instytucji, a Biuro – jeśli uznaje to za konieczne – może także nagłaśniać problem w przestrzeni publicznej. Dzięki temu wiele tematów zyskuje rozgłos i staje się impulsem do zmiany.

Kolejnym kluczowym elementem, aby innowacje służyły chorym, jest włączanie ich w proces tworzenia i testowania. Takim podejściem zajmuje się m.in. Human Factors – interdyscyplinarna dziedzina, która analizuje, jak ludzie wchodzą w interakcję z systemami, urządzeniami czy procedurami.

– Bez udziału końcowego użytkownika – w tym wypadku pacjenta – trudno mówić o bezpiecznym wdrożeniu nowej technologii – przekonuje Arnold Maciejewski ekspert HF związany ze Szkołą Główną Handlową w Warszawie. Podaje przy tym przykład Stanów Zjednoczonych, gdzie Agencja Żywności i Leków FDA wymaga badań z obszaru Human Factors przed dopuszczeniem jakiegokolwiek wyrobu medycznego na rynek. W Polsce przepisy w tej kwestii nie są egzekwowane z taką samą starannością, co sprawia, że rola pacjenta w testowaniu nowych rozwiązań bywa marginalizowana. Tymczasem to pacjent potrafi wskazać funkcjonalne braki, zaproponować lepszy interfejs w aplikacji czy ostrzec przed ryzykiem błędu w obsłudze wyrobu medycznego. Wreszcie – to on codziennie mierzy się z konsekwencjami wadliwych rozwiązań lub niedoskonałej komunikacji w służbie zdrowia.

Debata „Pacjent w sercu innowacji” podczas European Health Data and Innovation Summit w Warszawie
Debata „Pacjent w sercu innowacji” podczas European Health Data and Innovation Summit w Warszawie

Jak postawić pacjenta w roli innowatora?

Po pierwsze każda innowacja powinna mieć źródło w potrzebach pacjenta. Jeśli nowa aplikacja albo innowacyjna procedura ma służyć choremu, powinien on znaleźć się przy „stole projektowym” możliwie najwcześniej, a nie dopiero na etapie konsultacji. Tylko w ten sposób powstanie coś faktycznie użytecznego i przyjaznego.

Potrzebujemy też przyjaznego ekosystemu zgłaszania zmian. Takie instytucje jak Biuro Rzecznika Praw Pacjenta już działają, ale brakuje pełnej koordynacji na poziomie całego kraju i przejrzystych reguł przekazywania wniosków do ministerstwa, Agencji Badań Medycznych czy AOTMiT. Potrzebny jest jasny mechanizm, który pomoże szybko przekształcać postulaty pacjenckie w działania legislacyjne. W tworzeniu innowacji cyfrowych znacznie większą rolę powinny pełnić organizacje pacjentów. Mówi się o tzw. „inkubatorach opinii”, gdzie np. startupy mogą testować nowe pomysły na wczesnym etapie rozwoju.

Proces rozwoju innowacji zawsze odbywa się w pętli sprzężenia zwrotnego. Potrzebny jest transparentny system centralnego raportowania zdarzeń niepożądanych, aby każdy szpital i każda przychodnia mogły czerpać z doświadczeń innych jednostek oraz przekazywać opinie na temat np. urządzeń medycznych. Włączanie perspektywy chorego decyduje o tym, czy innowacja okaże się faktycznie przełomowa, czy pozostanie jedynie ciekawą, ale martwą ideą. Ale do tego, aby pacjenci czuli, że mają wpływ na zmiany w sektorze zdrowia, potrzebny jest odpowiedni ekosystem.

Pacjenci już teraz zyskują dostęp do swoich danych i mogą decydować, jak będą one dalej wykorzystywane. To pokazuje, jak ważna jest edukacja w zakresie nowej roli obywateli w tworzeniu innowacji. Jeśli pacjenci uświadomią sobie, że ich dane są niezbędnym elementem prac nad nowymi lekami albo politykami, stworzymy partycypacyjny system zdrowia. Jeśli tego nie zrobimy, EHDS poniesie porażkę i nigdy nie wykorzystamy potencjału danych.

1 2 3 4 113