Mathias Goyen, GE HealthCare
Mathias Goyen, GE HealthCare

Żadna inna dziedzina medycyny nie wdrażała tak intensywnie AI w ostatnich 5 latach jak obrazowanie medyczne. Tymczasem za rogiem czai się kolejna innowacja: generatywna AI, która jest w stanie łączyć wyniki RTG, MRI, TK i USG z zapisami w EDM. O postępach AI w radiologii rozmawiamy z prof. dr hab. n. med. Mathiasem Goyenem, Dyrektorem Medycznym ds. obrazowania i zaawansowanych rozwiązań wizualizacyjnych w GE HealthCare.

Jaka innowacja najbardziej zmieniła sposób pracy radiologów w ostatnich latach?

Jedną z najbardziej przełomowych innowacji w obrazowaniu medycznym była i nadal jest integracja sztucznej inteligencji (AI) w procesach klinicznych. Chociaż AI wdrażana jest już od dawna, dopiero teraz widzimy efekty i to, jak jej zastosowanie wpływa wymiernie na poprawę wydajności pracy, jakość interpretacji zdjęć medycznych i wspomaganie decyzji klinicznych.

Przykład z radiologii: techniki rekonstrukcji obrazu oparte na głębokim uczeniu, takie jak AIR™ Recon DL, zapewniają wyższą jakość obrazów przy znacznie krótszym czasie skanowania. Nie tylko poprawia to komfort pacjenta, ale także zwiększa przepustowość skanera, co ma kluczowe znaczenie, bo zapotrzebowanie na usługi obrazowania medycznego jest duże, a liczba sprzętu – często niewystarczająca.

Kolejnym osiągnięciem jest rozwój ilościowych biomarkerów obrazowania. Pomagają one przejść od jakościowej interpretacji obrazowania do opartych na danych, wymiernych ocen. Ma to szczególne znaczenie w onkologii, kardiologii i neurologii, gdzie kontrola postępu choroby lub odpowiedzi na leczenie wymaga precyzyjnych, powtarzalnych pomiarów.

Raport "AI w ochronie zdrowia"

Jakie konkretnie aplikacje AI są obecne w rozwiązaniach GE HealthCare?

Koncentrujemy się na opracowywaniu rozwiązań AI, które wychodzą naprzeciw rzeczywistym problemom klinicznym, takim jak potrzeba poprawy precyzji diagnostycznej, przepływów pracy i wyników diagnozy. Przykładem jest pakiet Critical Care Suite, który wykorzystuje AI do wykrywania odmy opłucnowej na zdjęciach rentgenowskich klatki piersiowej w punkcie opieki, co pozwala na priorytetowe traktowanie tych przypadków do przeglądu przez radiologa. Dzięki rozwiązaniu można skrócić czas leczenia w krytycznych przypadkach.

Rozwijamy również AI wspierającą sam proces pobierania obrazów. Tutaj to dyspozycji są narzędzia do automatycznego pozycjonowania i wyboru protokołu. Zmniejszają one zmienność i optymalizują jakość badania przy mniejszym zaangażowaniu technologa, co jest szczególnie korzystne tam, gdzie brakuje wykwalifikowanych kadr. Do tego, nasze narzędzia do przetwarzania końcowego z obsługą AI pomagają klinicystom w kwantyfikacji i interpretacji subtelnych wyników, na przykład umożliwiając automatyczną segmentację struktur serca w echokardiografii lub oceny wolumetryczne w tomografii komputerowej.

Ostatnio jedna z firm technologicznych pokazywała model generatywnej AI, dzięki któremu radiolog może rozmawiać z PACS/RIS? Czy takie narzędzie wejdą wkrótce do radiologii?

Jak najbardziej. Generatywna AI już teraz znajduje zastosowanie w zadaniach związanych z przetwarzaniem języka naturalnego, a zastosowanie wspomnianych narzędzi w radiologii będzie kolejnym dużym krokiem naprzód. Aktywnie badamy modele generatywne, które mogą łączyć kontekst kliniczny z obrazów, raportów i dokumentacji pacjentów, umożliwiając radiologom jeszcze lepiej zrozumieć podłoże choroby i w ten sposób interpretować zdjęcia medyczne nie tylko na podstawie obrazu, ale pełnego stanu zdrowia.

Wyobraźmy sobie scenariusz, w którym radiolog może zapytać system: „Pokaż mi podobne przypadki z potwierdzeniem histopatologicznym” lub „Jakie było wcześniejsze tempo wzrostu tej zmiany?”. Ten poziom interakcji może znacznie zwiększyć wydajność pracy i poprawić poziom dostępnej wiedzy klinicznej. Choć takie narzędzia są dopiero na wczesnym etapie rozwoju, prawdopodobnie w niedalekiej przyszłości pojawią się cyfrowi asystenci wbudowani w systemy PACS/RIS – świadomi kontekstu choroby, którzy nieustannie się uczą i są ulepszani.

Newsletter OSOZ Polska
Zapisz się do newslettera OSOZ (kliknij na obrazek)

Wspomniał Pan, że największa siła AI leży w optymalizacji pracy i identyfikacji krytycznych wyników, takich jak odma opłucnowa i krwotok wewnątrzczaszkowy. Jednak sukces AI zależy od nie tylko od samej technologii, ale i wdrożenia.

Pomyślne wdrożenie rozpoczyna się od jasnych celów klinicznych i solidnego zarządzania zmianą. Po pierwsze, oddziały powinny zidentyfikować wąskie gardła lub obszary prowadzące do opóźnień. Mogą to być ścieżki ratunkowe lub udarowe. Z doświadczenia wynika, że narzędzia AI ukierunkowane na te obszary często mają największy wpływ na poprawę opieki.

Po drugie, kluczowa jest integracja z istniejącymi przepływami pracy. Sztuczna inteligencja jest najbardziej pomocna, gdy jest osadzona w środowisku pracy IT radiologa – PACS, RIS lub EDM – dzięki czemu go wspiera, a nie przeszkadza. Na przykład oznaczanie krytycznych wyników nie powinno wymagać osobnych loginów lub oprogramowania; powinno to odbywać się automatycznie i przy minimalnej interakcji użytkownika.

I wreszcie kluczowe są ciągłe monitorowanie i informacje zwrotne. Placówki zdrowia powinny śledzić wskaźniki wydajności, takie jak czułość, specyficzność i oszczędność czasu, i w razie potrzeby dokonywać ponownej kalibracji. Budowanie zaufania wśród użytkowników poprzez przejrzystość i udowodnioną wartość jest niezbędne do akceptacji innowacji.

Czyli AI powinna działać w tle.

Tak, nasza filozofia projektowania koncentruje się na tym, aby uczynić AI „niewidoczną”, pracującą cicho w tle, ale wyraźnie usprawniając pracę kliniczną. Doskonałym przykładem jest integracja pakietu Critical Care Suite z przepływami pracy RTG. AI działa na urządzeniu i wysyła priorytetowe alerty bezpośrednio do PACS bez konieczności wprowadzania dodatkowych danych przez użytkownika. Radiolog nie musi klikać na osobną kartę AI lub logować się na zewnętrzny portal; wyniki są prezentowane kontekstowo w ramach dotychczasowych przepływów pracy.

Zasadę tę stosujemy również w modelu Smart Subscription, który umożliwia świadczeniodawcom otrzymywanie ciągłych aktualizacji oprogramowania bez przerywania operacji klinicznych. Z kolei nasza warstwa harmonizacji AI pozwala zapewnić, że odpowiednie algorytmy działają na właściwych badaniach we właściwym czasie, w oparciu o kontekst kliniczny, modalność i anatomię.

Jak tego typu rozwiązania AI zmieniają pracę radiologów?

AI nie zastąpi radiologów, ale znacznie podniesie rangę zawodu, zmniejszając liczbę powtarzalnych zadań i umożliwiając skupienie się na syntezie danych i opiece nad pacjentami. Radiolodzy będą w coraz większym stopniu pełnić rolę integratorów informacji, łącząc dane z obrazowania, historię leczenia, dane patologiczne i genetyczne i na tej podstawie wyciągając wnioski diagnostyczne.

Co więcej, radiolodzy będą odgrywać kluczową rolę w rozwoju AI, oznaczając zbiory danych do trenowania modeli, walidując je i gwarantując ich etyczne wdrożenie. Jako członkowie multidyscyplinarnych zespołów będą odgrywać strategiczną rolę w medycynie precyzyjnej.

Jak radiolodzy wchodzący do zawodu powinni przygotować się na tę zmianę?

Przede wszystkim muszą poszerzyć swoje umiejętności poza obrazowanie. Mam na myśli zrozumienie biologii molekularnej, patologii i bioinformatyki. Działy radiologii mogą również wspierać tę ewolucję napędzaną AI, tworząc komisje diagnostyczne i włączając do swoich zespołów naukowców zajmujących się danymi.

Zrozumienie podstaw bioinformatyki czy AI pozwoli lekarzom poznać sposób działania algorytmów i oceniać ich przydatność oraz poprawność działania.

Jeszcze raz podkreślę, że AI będzie wspomagać proces oceny klinicznej, a nie wyręczać ludzi. To radiolodzy muszą być zawsze ostatecznymi arbitrami diagnozy, wspieranymi przez AI, ale nie wypieranymi przez nią.

Jakie są największe wyzwania stojące przed świadczeniodawcami opieki zdrowotnej wdrażającymi zaawansowane technologie obrazowania?

To przede wszystkim ograniczenia infrastruktury, przygotowanie użytkowników do ich obsługi i zarządzanie zmianami. Zaawansowane narzędzia do obrazowania często wymagają posiadania dobrych systemów informatycznych, umożliwiających integrację i niezawodną łączność z oprogramowaniem PACS/RIS.

Równie ważny jest czynnik ludzki. Lekarze potrzebują szkolenia, zaufania i czasu na dostosowanie się do nowych technologii. Innymi przeszkodami pozostają od lat zwrot inwestycji i jasność przepisów. Z jednej strony menedżerowie muszą wdrażać coraz to nowsze innowacje, aby nadążyć za rynkiem zdrowia, wiedzą kliniczną i oczekiwaniami pacjentów, z drugiej – tak wykorzystywać technologie, aby się one opłacały w rachunku ekonomicznym placówki. Każda placówka działa w określonych ramach budżetowych.

Co najbardziej ekscytuje Cię w przyszłości obrazowania medycznego?

Najbardziej ekscytuje mnie konwergencja danych, diagnostyki i personalizacji. Przechodzimy od analizy obrazów do generowania interpretacji obejmujących cały kontekst pacjenta; od statycznych do dynamicznych obrazów.

Niezależnie od tego, czy jest to AI pomagająca klinicystom wcześniej wykrywać choroby, biomarkery obrazowania przewidujące odpowiedź na terapię czy platformy łączące informacje i dane z zakresu radiologii, patologii i genomiki, cel pozostaje jasny: wzmocnić pozycję klinicystów w opiece nad pacjentem, ułatwić dostęp do diagnozy i poprawić wyniki leczenia każdego pacjenta, niezależnie od miejsca zamieszkania.

Interpretacja wyniku USG powinna być automatyczna, podobnie jak to ma miejsce w aparatach EKG
Interpretacja wyniku USG powinna być automatyczna, podobnie jak to ma miejsce w aparatach EKG

Do Ministerstwa Zdrowia wpłynęła petycja o opracowanie centralnego oprogramowania intepretującego wyniki badań medycznych, aby skrócić czas oczekiwania pacjentów na diagnozę. Ministerstwo Zdrowia takich planów nie ma i wysuwa racjonalne argumenty. W poczekalni czekają dziesiątki innych pomysłów, w tym m.in. umieszczenie numeru telefonu pacjenta na e-recepcie.

Co roku do Ministerstwa Zdrowia trafiają setki petycji w różnych kwestiach. Czasami to ciekawe propozycje usprawnień w systemie zdrowia, a czasami prośby o interwencje w konkretnej sprawie. W samym roku 2024 roku było ich aż 191, rok wcześniej – 178. W tym roku będzie podobnie, bo do 17 lipca ich liczba osiągnęła 110.

MZ nie może narzucać oprogramowania

Od samych petycji, o wiele ciekawsze są często odpowiedzi udzielane przed Ministerstwo Zdrowia, bo stanowią stanowisko w sprawach, o które jeszcze nikt wcześniej nie zapytał. A każdą z nich MZ musi rozpatrzyć i udzielić odpowiedzi. Tak też jest w przypadku petycji z 26 stycznia 2025 r. w sprawie „zwiększenia jakości usług medycznych” (identyczna pojawiła się też 12 czerwca). Znalazła się w niej propozycja wprowadzenia oprogramowania interpretującego wynik takich badań jak ENG, EMG, KTG, USG, UKG, tomografii komputerowej i rezonansu magnetycznego.

Takie podejście mogłoby skrócić czas oczekiwania pacjentów na wynik badania. W uzasadnieniu podano, że przecież już teraz wyniki takich badań realizowanych przez aparaty EKG, kardiomonitory oraz analizatory laboratoryjne są podawane automatycznie. Do tego istnieje szereg innych systemów jak np. oprogramowanie do automatycznej detekcji guzków (CAD) w tomografii komputerowej wysokiej rozdzielczości HRCT. 

Dlaczego więc USG czy TK lekarz musi interpretować samodzielnie?

Z odpowiedzi Ministerstwa Zdrowia jasno wynika, że resort nie planuje takiego systemu. Po pierwsze, na rynku jest już szereg komercyjnych rozwiązań informatycznych oferujących taką możliwość, wykorzystujących algorytmy porównawcze, analizę wzorców oraz AI do generowania wyników na podstawie obrazów medycznych. Placówki medyczne mogą je wdrażać w zależności od potrzeb i możliwości budżetowych. Po drugie, jak czytamy w uzasadnieniu, „MZ nie ingeruje w dobór konkretnych narzędzi informatycznych stosowanych przez szpitale i inne jednostki ochrony zdrowia.” Po trzecie, wprowadzenie ustawowego obowiązku stosowania określonego typu oprogramowania naruszałoby zasadę swobody organizacyjnej i mogłoby prowadzić do nieproporcjonalnych obciążeń finansowych oraz ograniczenia innowacyjności.

Kolejny pomysł: numer telefonu pacjenta na e-recepcie

Na liście petycji, która publikowana jest na stronie Ministerstwa Zdrowia, znalazły się m.in. postulaty wprowadzenia kar finansowych za nieodwoływanie wizyt, zmian w triażu na SOR, kontroli podmiotów medycznych czy mierzenia jakości usług.

Jedną z ciekawszych jest ta z 6 czerwca dotycząca umieszczenia numeru telefonu pacjenta na e-recepcie. To postulat zgłaszany przez środowisko farmaceutów od lat, który miałaby zwiększyć bezpieczeństwo pacjentów. Chodzi o sytuacje, kiedy farmaceuta popełni błąd wydając lek choremu i nie może się z nim skontaktować, co może prowadzić do zagrożenia utraty życia lub zdrowia. Zdarzają się też błędy dawkowania, które – choć mniej groźne – też mogłyby być skorygowane jednym telefonem do pacjenta. Do tego niektóre leki są wycofywane z obrotu przez GIF, a o tym pacjent już się nie dowiaduje.

Numer telefonu do placówki zdrowia, w której wystawiono receptę nie wystarczy, bo apteki są czynne praktycznie cały czas, a placówki nie i niekiedy kontakt jest niemożliwy. Do tego dochodzą przepisy RODO utrudniające komunikację i uzyskanie numeru pacjenta. To prowadzi do kuriozalnych sytuacji, kiedy farmaceuci muszą czasami szukać pacjentów w mediach społecznościowych, a na wsiach korzystać z uprzejmości sołtysów albo straży pożarnej.

Poprzednia, analogiczna petycja została przez MZ odrzucona. W uzasadnieniu napisano, że nr telefonu jest informacją możliwą do uzyskania z pozycji Internetowego Konta Pacjenta IKP. MZ jest świadome możliwych do wystąpienia negatywnych scenariuszy i błędów realizacji recepty, jednak „uzasadnionym działaniem w celu ich przeciwdziałania jest w pierwszej kolejności rozpowszechnienie dostępu do Internetowego Konta Pacjenta”. Taka zmiana wymagałaby nowelizacji ustawy i na pewno wzbudziłaby duże pytania pod kątem ochrony danych osobowych. W nowej petycji autorka argumentuje, że IKP nie jest rozwiązaniem, bo farmaceuci nie mają przecież do niego dostępu. Odpowiedzi na to pismo MZ jeszcze nie udzieliło.

Jakie jeszcze petycje trafiają do Ministerstwa Zdrowia? Kliknij tutaj, aby przejrzeć pełną listę.

Placówki medyczne ostrożnie wdrażają AI, bo obawiają się o prywatność danych i odpowiedzialność za błędne decyzje AI
Placówki medyczne ostrożnie wdrażają AI, bo obawiają się o prywatność danych i odpowiedzialność za błędne decyzje AI

Zamiast od razu pytać, jaką AI najlepiej wdrożyć, trzeba najpierw się zastanowić „po co”, a następnie przeanalizować gotowość pod względem technicznym, finansowym, operacyjnym i etycznym. W porównaniu do klasycznych rozwiązań cyfrowych, AI wymaga dobrego przygotowania.

Jak placówki medyczne stosują AI?

Zainteresowanie wdrażaniem dużych modeli językowych (LLM) nie wynika z mody, ale z korzyści jakie raportują szpitale, które już je wdrożyły – wynika z raportu AI Adoption in Healthcare Report 2024 opracowanego przez HIMSS i Medscape.

Od momentu premiery generatywnej sztucznej inteligencji, w kontekście ochrony zdrowia dużo mówi się o wspomaganiu tworzenia elektronicznej dokumentacji medycznej (EDM). Po raz pierwszy od czasu pojawienia się pierwszych EDM-ów pojawiła się szansa, że lekarz nie będzie musiał przeglądać manualnie wszystkich zapisów w e-kartotekach, bo AI podsumuje najważniejsze informacje i trendy.

W USA, AI jest najczęściej wykorzystywana do automatycznego tworzenia EDM (źródło: AI Adoption in Healthcare Report 2024)
AI jest najczęściej wykorzystywana do automatycznego tworzenia EDM (źródło: AI Adoption in Healthcare Report 2024)

I faktycznie, generatywna AI stosowana jest najczęściej do zadań administracyjnych jak transkrypcja rozmowy lekarza z pacjentem i tworzenie na tej podstawie wpisów w EDM oraz zarządzanie dokumentacją medyczną. Równie często placówki medyczne sięgają do modeli AI w celu wyszukiwania i podsumowywania literatury medycznej. W tym zakresie najlepiej sprawdzają się rozwiązania w modelu „open-source”, które zapewniają bezpieczeństwo danych (dane medyczne nie opuszczają bazy placówki i są analizowane lokalnie). Przykładem jest Llama (Meta, dawniej Facebook).

AI jest zaskakująco często stosowana do wspomagania procesu diagnozy i w doborze terapii – częściej prywatnie przez lekarzy niż oficjalnie przez placówki medyczne. 57% badanych (raport AI Adoption in Healthcare Report 2024) wskazuje, że dzięki AI zwiększyła się efektywność pracy, 25% deklaruje oszczędności czasowe, a 21% chwali się redukcją kosztów. Najwyższe korzyści odnotowane zostały w radiologii oraz w transkrypcji rozmów lekarza z pacjentem do tworzenia wpisów w EDM.

Z drugiej strony placówki medyczne ostrożnie wdrażają AI, bo obawiają się o prywatność danych (72%) oraz stronniczość algorytmów i odpowiedzialność za błędne decyzje AI (70%). Nadal tylko niewielka część podmiotów zdrowia oferuje szkolenia z zakresu AI, co rodzi jeszcze większy opór przez technologią.

AI dobrze się sprawdza w rozwiązywaniu krytycznych problemów

W 2024 roku Chiny otworzyły pierwszy na świecie szpital w pełni zasilany AI „Agent Hospital”. Na razie pracują w nim ludzie, ale jego twórcy mają wizję, że wkrótce osiągnie pełną autonomię działania. To pokazuje, co już jest możliwe technologicznie. Ale europejskie placówki zdrowia ograniczone są przepisami prawnymi i nie mogą sobie pozwolić na eksperymentowanie bez jakichkolwiek hamulców. Zresztą wiele rozwiązań AI jest niedojrzałych i niegotowanych do pracy w medycynie.

Mimo to pierwsze podmioty z powodzeniem stosują generatywną AI. Przykładowo, w szwajcarskim Szpitalu Uniwersyteckim w Bazylei, AI podsumowuje informacje z różnych, niekompatybilnych systemów IT oraz pisze wypisy ze szpitala. Lekarze cenią sobie przede wszystkim skrócenie czasu potrzebnego na tę czasochłonną czynność.

Lekarze często prywatnie korzystają z AI np. do podsumowania wiedzy z literatury naukowej
Lekarze często prywatnie korzystają z AI np. do podsumowania wiedzy z literatury naukowej

Zanim szpital zaczął stosować AI, przeprowadził analizę gotowości, unikając podejścia „musimy mieć AI, bo inni też mają”. Obejmuje ona ryzyka operacyjne (jak wdrożenie algorytmu wpłynie na pracę personelu), finansowe (koszty utrzymania AI w przyszłości i serwisowania systemu), kliniczne (wpływ na ścieżkę opieki i wyniki pacjenta, ryzyka zdrowotne), a nawet reputacyjne (ryzyko w przypadku nieudanego wdrożenia lub błędów).

Zaleca się zadanie sobie trzech pytań:

  1. Jaki problem próbujesz rozwiązać wdrażając algorytm?
  2. Czy istnieją inne sprawdzone rozwiązania – technologiczne lub nie-technologiczne – które mogą rozwiązać problem?
  3. Czy masz wystarczająco dobre dane do zasilenia algorytmu?

Taka analiza może doprowadzić do znalezienia innych rozwiązań tego samego problemu, ale obciążonych mniejszym ryzykiem wdrożenia, a do tego mniej kosztochłonnych. Jeśli jednak zapadnie decyzja o adaptacji AI, w kolejnym kroku trzeba się zapytać o umiejętności personelu, konieczność przebudowy ścieżek opieki nad pacjentem w przypadku algorytmów wspomagających procesy kliniczne, koszty utrzymania. Do tego zaleca się wyznaczenie nienegocjowanych, minimalnych korzyści.

Jeśli placówka chce spróbować wdrożyć generatywną AI do tworzenia EDM, szybko zda sobie sprawę z potencjalnych kosztów – taki model, aby był bezpieczny, musi działać lokalnie, a to często wymaga rozbudowy infrastruktury bazy danych. Jeśli szpital albo klinika ma swój dział IT, trzeba będzie doszkolić jego pracowników.

Uwaga na dług technologiczny

Jednym z najczęstszych błędów we wdrażaniu AI jest tzw. dług technologiczny. Dyrektorzy placówek zamiast najpierw zreformować procesy organizacyjne stojące za stratami i problemami, spieszą się z zakupami i wszczepiają do organizacji rozwiązanie, na które organizacja nie jest przygotowana. Innym problemem jest ślepa wiara w obietnice dostawców – łatwo ulec urokowi ładnie przygotowanych prezentacji i nowych rozwiązań, za działaniem których nie stoją żadne badania naukowe czy dowody. Nawet jeśli jedno badanie potwierdza skuteczność algorytmu, trzeba zastanowić się razem z personelem, czy te same korzyści są do skopiowania w unikalnych warunkach placówki.

Większość lekarzy ma obawy dotyczące etycznych aspektów wykorzystania AI
Większość lekarzy ma obawy dotyczące etycznych aspektów wykorzystania AI

Jeszcze innym złudzeniem jest przekonanie, że nowe technologie automatycznie rozwiązują stare problemy. Nawet jeśli w ochronie zdrowia nie ma klasycznej konkurencji, to jest na pewno kultura ukrywania porażek i chwalenia się sukcesami. Jeśli nieprzygotowana klinika wdroży AI, wdrożenie się nie uda, a pieniądze zostaną wyrzucone w błoto, fakt ten rzadko kiedy ujrzy światło dziennie. O wiele gorsze jest utrwalenie w zespole poczucia porażki i zrażenie się do technologii. Tego można uniknąć przeprowadzając szczerą ewaluację i szukając przyczyn niepowodzenia. Jak w przypadku każdego rozwiązania cyfrowego, bez dobrej strategii, dojrzałych procesów organizacyjnych i kultury innowacyjności, wdrażanie AI jest narażone na porażkę.

Robotyczna surogatka ma przejąć cały proces, od poczęcia do narodzin dziecka
Robotyczna surogatka ma przejąć cały proces, od poczęcia do narodzin dziecka (wizualizacja AI)

Podczas Światowej Konferencji Robotów 2025 w Pekinie zaprezentowano plany stworzenia humanoidalnego „robota ciążowego”. Pierwsze egzemplarze mają być gotowe w 2026 roku i kosztować ok. 50 000 zł.

Chiński, kontrowersyjny plan walki z kryzysem demograficznym

Jedna z najbardziej utopijnych wizji przyszłości może już za rok stać się rzeczywistością. Dr Zhang Qifeng z Uniwersytetu Technologicznego w Nanyang ujawnił, że jego firma Kaiwa Robot Technology pracuje nad robotem ciążowym.

Choć liczba mieszkańców Chin dotąd szybko szybko rosła i dziś wynosi 1,4 mld, w ostatnich latach tempo wzrostu demograficznego zaczyna mocno hamować. To efekt industrializacji kraju i coraz lepszej sytuacji ekonomicznej. Na to nakłada się rosnący odsetek bezpłodności: w 2007 r. wynosił on ok. 12%, a w 2020 r. już 18%. Nowa technologia robota-surogatki ma być odpowiedzią na kryzys demograficzny.

System zostanie wyposażony w sztuczne łono w robotycznym module brzusznym symulującym cały proces ciąży, od poczęcia do porodu. Przebieg ciąży i rozwój dziecka w łonie będzie podobny do naturalnego procesu i wyniesie 9 miesięcy. Połączenie inkubatora z robotem już zyskało miano „robo-matki”.

Kadr z filmu "Generacja Przyszłości (The Pod Generation). Dzieci mogą być poczęte i rozwijać się w mobilnych kapsułach
Kadr z filmu „Generacja Przyszłości” (The Pod Generation). Dzieci mogą być poczęte i rozwijać się w mobilnych kapsułach

System utrzymuje sztuczny płyn owodniowy, potocznie nazywany wodami płodowymi, dostarczając składniki odżywcze przez sztucznie stworzony system rur i przewodów. Jak podkreśla dr Zhang, „technologia sztucznego łona znajduje się w dojrzałej fazie rozwoju”. Innowacja jest efektem wcześniej prowadzonych eksperymentów i badań. Jednym z nich jest opracowane w 2017 roku w Szpitalu Dziecięcym w Filadelfii sztuczne łono, w którym udało się wyhodować przedwcześnie urodzone jagnięta.

„Upadek ludzkości” czy „uwolnienie kobiet od cierpienia”?

Pierwszy prototyp ma być gotowy w 2026 roku i kierowany jest do osób, które „chcą mieć dzieci, ale wolą uniknąć tradycyjnej ciąży”. Cena urządzenia: ok 100 000 juanów, czyli 50 tys. zł.

Chiny, które mają ambicję stać się mocarstwem technologicznym, nie przejmują się kwestiami etycznymi i moralnymi. W jednym z wywiadów, dr Zhang powiedział, że zespół naukowców z jego firmy przeprowadził już dyskusje z władzami prowincji Guangdong i przedłożył odpowiednie propozycje prawne, które mają uregulować robo-matki.

Mimo to, technologia wzbudziła kontrowersje nawet na chińskich platformach społecznościowych i podzieliła internautów. Kiedy jedni są zdania, że rozwój płodu mechanicznym środowisku bez kontaktu z matką jest po prostu okrutne, inni nie kryją entuzjazmu podkreślając, że „kobiety nie będą już musiały cierpieć”.

Na razie nie ma żadnych potwierdzonych i wiarygodnych informacji na temat projektu. Kaiwa Robot Technology nie przedstawił ani prototypu, ani odpowiedział na pytania dotyczące procesu zapłodnienia, ani nie wyjaśnił, jak dokładnie będą dostarczane składniki odżywcze do łona matki.

Microsoft AI Diagnostic Orchestrator naśladuje proces diagnozowania lekarza
Microsoft AI Diagnostic Orchestrator naśladuje proces diagnozowania lekarza

Żaden inny model AI nie zrobił takiego wrażenia na środowisku medycznym jak MAI-DxO od Microsoft. Daje on przedsmak tego, jak sztuczna inteligencja może sekwencyjnie diagnozować najbardziej złożone przypadki kliniczne, z którymi problem mają nawet doświadczeni lekarze.

Chodzi o „dyrygenta diagnostycznego” Microsoft AI Diagnostic Orchestrator (MAI-DxO), który diagnozuje do 85% przypadków klinicznych opisanych w New England Journal of Medicine (NEJM), czyli z ponad czterokrotnie wyższą skutecznością w porównaniu z grupą doświadczonych lekarzy. Do tego diagnoza przeprowadzana przez MAI-DxO jest tańsza, bo wymaga przeprowadzania mniejszej ilości badań laboratoryjnych i diagnostyki obrazowej.

AI symuluje grupę lekarzy z różnych dziedzin

Ochrona zdrowia ma trzy bazowe problemy: rosnące koszty nie przekładające się na poziom opieki i wyniki leczenia, ograniczona dostępność do opieki ze względu na kolejki do specjalistów oraz wynikająca z tego opóźniona diagnoza i leczenie. Nie wspominając o błędach diagnozowania pozostających nadal mało zbadanym problemem. Dlatego pacjenci coraz częściej zwracają się o pomoc do Google, a ostatnio także do rozwiązań generatywnej AI. Bing i Copilot od Microsoftu odnotowuje codziennie ponad 50 milionów zapytań związanych ze zdrowiem.

Ogólnodostępna AI jak ChatGPT czy Copilot zdaje już egzaminy medyczne zdobywając więcej punktów niż doświadczeni lekarze. W zaledwie trzy lata, genAI przeszła drogę od systematycznie oblewanych testów do prawie 100% poprawności odpowiedzi na pytania z amerykańskiego egzaminu państwowego na medycynę (USMLE). Ale krytycy podkreślają, że odpowiadanie na pytania wielokrotnego wyboru, faworyzujące zapamiętywanie zamiast głębokiego zrozumienia problemu, to nie to samo co diagnozowanie pacjenta w gabinecie lekarskim.

Dlatego naukowcy skupiają się na modelach AI zbudowanych z różnych warstw, aby możliwie wiernie naśladować to, jak lekarz prowadzi wywiad, kieruje na badania i na tej podstawie stawia diagnozę. Jednym słowem chodzi o zdekodowanie sposobu rozumowania klinicznego.

I wszystko wskazuje na to, że to się udało. MAI-DxO opiera się na diagnostyce sekwencyjnej, która jest podstawą podejmowania decyzji medycznych. W tym procesie lekarz rozpoczyna od wstępnego wywiadu z pacjentem, a następnie iteracyjnie dobiera kolejne pytania i badania diagnostyczne, aby na tej podstawie dojść do ostatecznej diagnozy. Na przykład, gdy na wizytę zgłasza się pacjent z kaszlem i gorączką, lekarz osłucha pacjenta, zapyta o czas trwania dolegliwości, a w razie wątpliwości zleceni badania krwi oraz prześwietlenie klatki piersiowej.

Bądź na bieżąco z najnowszymi technologiami w medycynie. Kliknij na obrazek i zapisz się do newslettera OSOZ
Bądź na bieżąco z najnowszymi technologiami w medycynie. Kliknij na obrazek i zapisz się do newslettera OSOZ

Aby sprawdzić skuteczność MAI-DxO, eksperci Microsoft po raz pierwszy zdecydowali się przetestować model na ekstremalnie złożonych przypadkach chorób, które co tydzień są publikowane w New England Journal of Medicine (NEJM) – jednym z najbardziej prestiżowych czasopism naukowych w dziedzinie medycyny na świecie. Ich poprawna diagnoza wymaga doświadczenia, ogromnej wiedzy, współpracy wielu specjalistów oraz przeprowadzenia badań diagnostycznych.

Naukowcy stworzyli interaktywne zadania oparte na serii 304 przypadków klinicznych z NEJM. Przedstawili je następnie modelowi AI oraz lekarzom. W dochodzeniu do diagnozy mogli oni zadawać dowolne pytania i zlecać badania. W ocenie skuteczności wzięto pod uwagę dokładność diagnostyczną oraz koszty zleconych badań.

AI zdiagnozowała poprawnie 85% przypadków, lekarze – 20%

Aby sprawdzić wydajność modelu, testom poddano także klasyczne modele genAI jak GPT, Llama, Claude, Gemini, Grok i DeepSeek. Microsoft AI Diagnostic Orchestrator (MAI-DxO) – który jest nakładką na istniejące modele – został zaprojektowany do symulowania wirtualnego panelu lekarzy o różnorodnych podejściach diagnostycznych, współpracujących w celu rozwiązania przypadków diagnostycznych.

Takie podejście ma kilka zalet. Koordynatory AI mogą integrować różne źródła danych, zwiększając bezpieczeństwo i elastycznie modyfikując proces diagnozy. Do tego są bardziej transparentni w działaniu i audytowalni, co ma ogromne znaczenie w medycynie – lekarze korzystający z AI chcą zrozumieć, jak model doszedł do takiego, a nie innego wniosku.

MAI-Dx Orchestrator może zadawać pytania uzupełniające, zlecać badania lub stawiać diagnozy, a następnie sprawdzać koszty i weryfikować własne rozumowanie przed podjęciem decyzji o dalszym postępowaniu (grafika: Microsoft)
MAI-Dx Orchestrator może zadawać pytania uzupełniające, zlecać badania lub stawiać diagnozy, a następnie sprawdzać koszty i weryfikować własne rozumowanie przed podjęciem decyzji o dalszym postępowaniu (grafika: Microsoft)

Wyniki testów zaskoczyły wszystkich. MAI-DxO poprawił wydajność diagnostyczną testowanych modeli. Najlepszą konfiguracją okazało się połączenie MAI-DxO z o3 firmy OpenAI. W takim zestawieniu system poprawnie rozszyfrował 85,5% przypadków testowych z NEJM. Dla porównania: 21 praktykujących lekarzy z USA i Wielkiej Brytanii z 5–20-letnim doświadczeniem klinicznym osiągnęło średnią dokładność diagnozy na poziomie 20%.

Do tego MAI-DxO może być dowolnie konfigurowalny. Przykładowo, można z góry określić ograniczenia kosztowe dotyczące realizowanych badań, a model dobiera optymalnie kompromisowe rozwiązanie uwzględniając cenę testów diagnostycznych. To zresztą odpowiada warunkom rzeczywistym, ponieważ lekarze też muszą kierować się rachunkiem ekonomicznym podczas podejmowania decyzji diagnostycznych. Bez takich ograniczeń system AI mógłby domyślnie zlecać wszystkie możliwe badania – niezależnie od kosztów, dyskomfortu pacjenta lub opóźnień w opiece. Oprócz tego okazało się, że MAI-DxO zapewnia nie tylko wyższą dokładność diagnostyczną, ale i niższe całkowite koszty badań w porównaniu z lekarzami.

Diagnoza bez AI będzie ryzykowna

Żaden lekarz nie jest jednak w stanie sam diagnozować złożone przypadki opisane w NEJM. Lekarze rodzinni mają szeroką, ale ogólną wiedzę o najczęściej występujących schorzeniach w różnych grupach wiekowych i narządach. Z kolei specjaliści, jak reumatolodzy, koncentrują się na jednym układzie, obszarze chorób, a nawet schorzeniu. Sztuczna inteligencja nie ma natomiast takich ograniczeń, wykazując się zdolnościami rozumowania klinicznego, które w wielu aspektach przewyższają zdolności poszczególnych lekarzy.

Pobierz 242-stronicowy raport "AI w ochronie zdrowia"
Pobierz 242-stronicowy raport „AI w ochronie zdrowia”

Co to oznacza? Nowy model pokazuje, że AI może być stosowana przez pacjentów do rutynowej diagnozy, a w przypadku złożonych przypadków klinicznych stanowi dla lekarzy cenne wsparcie. Jeśli takie podejście się przyjmie, znacznie zwiększy się przepustowość systemu zdrowia, bo pacjenci będą mogli po części diagnozować się sami, a lekarze zyskają czas dla tych, którzy naprawdę potrzebują pomocy lekarskiej. Obliczenia Microsoft sugerują, że AI zredukuje niepotrzebne koszty opieki zdrowotnej.

Chociaż MAI-DxO doskonale radzi sobie z najbardziej złożonymi wyzwaniami diagnostycznymi, konieczne są dalsze testy w celu oceny jego działania w przypadku prostych przypadków klinicznych. Do tego w przeprowadzonych badaniach lekarze nie mieli dostępu do literatury medycznej ani do AI, aby nie zakłócać wyników.

Ten przykład pokazuje jednak, że AI może diagnozować pacjentów. To szansa na to, aby chorzy błyskawicznie mogli rozpocząć leczenie bez opóźnień spowodowanych kolejkami albo niedostępnością lekarzy.

Jessica Morley pracuje na amerykańskim Uniwersytecie Yale i zajmuje się etyką sztucznej inteligencji
Jessica Morley pracuje na amerykańskim Uniwersytecie Yale i zajmuje się etyką sztucznej inteligencji

Jessica Morley z Centrum Etyki Cyfrowej na Uniwersytecie Yale głośno krytykuje szum wokół sztucznej inteligencji w opiece zdrowotnej: AI nie jest ani nowa, ani magiczna, ani inteligentna. Ale i tak pomoże medycynie, odciążając lekarzy od biurokracji oraz pomagając opracować nowe leki i terapie.

Często słyszymy, że AI jest jedynym ratunkiem dla systemu opieki zdrowotnej uginającym się pod rosnącymi kosztami i obciążeniami administracyjnymi. Ile w tym złudnej nadziei, a ile prawdy?

Prawda leży pośrodku. Sztuczna inteligencja nie rozwiąże każdego problemu systemów opieki zdrowotnej, zwłaszcza biorąc pod uwagę, jak jest obecnie wykorzystywana. W społecznej świadomości istnieje tendencja myślenia o AI jako uniwersalnym narzędziu, które pozwoli nam robić wszystko szybciej i taniej, przykładowo szybciej diagnozować, a nawet przewidywać choroby z dużym wyprzedzeniem. W teorii brzmi to obiecująco, ale w praktyce się tak się nie stanie, bo życie człowieka i jego otoczenie są skrajnie nieuporządkowane, a algorytmy działają poprawnie tylko w uporządkowanych warunkach.

AI może pomóc zmniejszyć obciążenia administracyjne albo wspomóc realizację badań w medycynie. Pozwoli nam lepiej zrozumieć zdrowie człowieka i lepiej wykorzystać dotychczas niedostatecznie wykorzystywane dane zdrowotne. AI nie jest jednak lekarstwem na wszystko, ponieważ nie da się naprawić fizycznych i społecznych problemów wyłącznie za pomocą narzędzi cyfrowych.

Na przykład, jeśli AI zasugeruje, że pacjent jest zagrożony cukrzycą typu 2 i zaleci profilaktycznie spożywanie większej ilości owoców i warzyw oraz większą aktywność fizyczną, ale dana osoba żyje w środowisku, w którym wprowadzenie tych zaleceń w życie jest niemożliwe, to taka sugestia jest bezużyteczna.

Raport o sztucznej inteligencji w ochronie zdrowia
Kliknij na baner, aby pobrać bezpłatny raport o AI w ochronie zdrowia 2025

Skoro AI nie ma magicznej mocy, dlaczego tak wiele osób wciąż wierzy, że jest to przełomowa technologia? Czy opieka zdrowotna jest w aż tak opłakanym stanie, że desperacko szukamy prostego rozwiązania?

AI to podręcznikowy przykład cyklu szumu wokół nowej technologii i dobrego marketingu. W 2015 i 2016 roku, AI była zagadnieniem niszowym. Jednak wraz z pojawieniem się na rynku nowych firm big tech albo spin-offów takich jak DeepMind, media, politycy i fundusze inwestycyjne zaczęli nakręcać podekscytowanie. Tak powstała pętla sprzężenia zwrotnego: każdy chciał robić coś z AI, więc nagle wszystko, co wykorzystuje dane, było nazywane AI.

Zgadzam się, że w ochronie zdrowia istnieje mocne pragnienie znalezienia Złotego Grala na wszystkie problemy. Przyglądając się historii medycyny, takie przełomy już miały miejsce. Przykładowo, podobny poziom ekscytacji wywołało odkrycie antybiotyków. Różnica polega teraz na tym, że tempo globalnej wymiany informacji sprawia, że szum szybko się napędza.

Twierdzi Pani, że na podstawie danych na temat zdrowia człowieka jesteśmy w stanie przewidzieć stan zdrowia tylko w 40%. Powodem są środowiskowe determinanty zdrowia, na temat których nie zbieramy danych. Czy to oznacza, że predykcja zdrowia z pomocą AI nie ma sensu?

Poziom 40% jest szacunkowy – chodzi o to, że na zdrowie wpływają czynniki pozostające poza kontrolą danej osoby, w tym środowisko, żywność, woda i sieci społecznościowe, a nawet dezinformacja w Internecie. Od lat 70-tych wiemy, że indywidualne zachowania mają ograniczony wpływ. Nawet genetyka, niegdyś postrzegana jako odpowiedź na wszystko, nie okazała się kluczem do rozszyfrowania zdrowia, jak wielu miało nadzieję.

Dlatego zdecydowanie sensowniejszą rolą dla AI jest zdrowie populacyjne. AI może pomóc zrozumieć dynamikę występowania chorób, przewidywać społeczności zagrożone niektórymi schorzeniami, poznać warunki społeczne lub środowiskowe przyczyniające się do powstawania ryzyk zdrowotnych. Zamiast wydawać pieniądze na reklamy Ozempicu, moglibyśmy wykorzystać AI do planowania miast czy ułatwienia dostępu do zdrowej żywności albo organizacji lekcji zdrowego gotowania w szkołach.

To właśnie w obszarze populacyjnym AI mogłaby dokonać transformacji.

Prognozuje Pani, że popularyzacja AI w medycynie prowadzi do „leczenia danych pacjenta” zamiast do „leczenia pacjenta”. Ale czy to już nie jest faktem w erze cyfryzacji, gdy lekarze podejmują decyzje na podstawie danych w elektronicznej dokumentacji medycznej?

Do pewnego stopnia prawdą jest, że lekarze już teraz w dużej mierze polegają na danych. Decydującą różnicą jest jednak to, że lekarze nadal mają bezpośredni kontakt z pacjentami. Widzą ich w gabinecie lekarskim, mogą obserwować subtelne oznaki, takie jak odcień skóry pacjenta, mimikę twarzy, wigor albo sposób, w jaki zachowuje się dziecko. Rodzice mogą powiedzieć, że „dziecko dzisiaj nie jest sobą”, a lekarz wie, jak to zinterpretować.

Algorytmy nie zrozumieją, kiedy pacjent stwierdzi, że czuje się zagubiony, bo nie mają dostępu do szerszego kontekstu życia człowieka, niezależnie od tego, czy dana osoba jest przygnębiona, ponieważ straciła pracę, czy zestresowana. Takie dane nie są rejestrowane w elektronicznej dokumentacji medycznej, ale mogą mieć duży wpływ na diagnozę.

Aby zapobiec takiemu oderwaniu się cyfrowej medycyny od realnego życia pacjenta, musimy po pierwsze dokładnie przemyśleć zakres zbieranych danych i modele, które z nich będą korzystały. W rozwiązywaniu prostych zagadek klinicznych czasami pomoże staromodna AI oparta na regułach, a czasami będzie niezbędny człowiek.

Po drugie, unikajmy delegowania wszystkich zadań algorytmom. Zwłaszcza w przypadku osób najbardziej zagrożonych wykluczeniem z różnych przyczyn – to właśnie na ich temat najbardziej brakuje danych. Przykładowo, czytałam ostatnio o praktyce lekarza rodzinnego korzystającej z triażu opartego na AI. Pacjenci masowo odchodzili, ponieważ nie czuli się wysłuchani. To nie jest kierunek, w którym medycyna powinna iść. Musimy projektować systemy, w których ludzie i AI pracują równolegle, a nie konkurują ze sobą.

Zapisz się do newslettera OSOZ i bądź na bieżąco z AI w medycynie
Zapisz się do newslettera OSOZ i bądź na bieżąco z AI w medycynie

No ale mamy coraz więcej danych z np. smartwatchy, które mogą zbierać informacje o otoczeniu człowieka?

Moim zdaniem w medycynie priorytetem jest budowa modeli, które nie wymagają nadmiernej ilości danych ze źródeł komercyjnych, takich jak urządzenia do noszenia lub karty kredytowe. Powód jest prosty: posiadają je często tylko osoby o lepszej sytuacji finansowej, a więc lepsza opieka oparta na AI staje się dostępna dla tych, którzy już i tak są dobrze zaopiekowani. To prowadzi do powiększania się przepaści zdrowotnej.

Skoro opieka zdrowotna jest coraz częściej oparta na algorytmach, rozmywa się odpowiedzialność za wyniki pacjenta i ewentualne błędy.

Tak, w medycynie opartej na algorytmach brakuje elementu ludzkiego osądu oraz osadzenia decyzji w dowodach naukowych. Aby to rozwiązać, potrzebne są trzy rzeczy:

  1. Możliwość audytu. Niezbędna jest pełna przejrzystość w zakresie tego, gdzie wykorzystywana jest AI, na jakich danych jest szkolona i w jaki sposób podejmowane są decyzje.
  2. Odpowiedzialność. Ramy prawne wymagają aktualizacji. To lekarze nadal ponoszą odpowiedzialność za decyzje, ale jeśli nie w pełni rozumieją sposobu działania algorytmu albo padają ofiarą stronniczości AI, nie jest jasne, po której stronie leży wina. Trzeba zapewnić lekarzom możliwość kwestionowania algorytmów.
  3. Regulacje. Regulacje dotyczące oprogramowania jako urządzenia medycznego nie są gotowe na AI, zwłaszcza na generatywną AI. Musimy ustanowić „złoty standard dowodów” dla sztucznej inteligencji i nowe podejście do mierzenia bezpieczeństwa i skuteczności, w sytuacji, gdy AI jest narzędziem dynamicznym i niedeterministycznym, bo uczy się ciągle na danych.

Czyli AI powinna być mocniej regulowana? A może lepiej poczekać z regulacjami, pozwalając rozwinąć się technologii, zamiast od razu ją hamować prawnie?

To dylemat Collingridge’a: regulować technologię na wczesnym etapie posiadając niewielką ilość informacji lub regulować na późnym etapie, gdy jest już rozwinięta i tak zakorzeniona, że trudno skorygować jej negatywne efekty.

To fałszywa dychotomia – regulacje i innowacje nie są wrogami. Regulacje muszą ewoluować wraz z technologią. Możemy na przykład rozszerzyć definicję oprogramowania jako wyrobu medycznego, a następnie opracować elastyczne standardy dowodowe, takie jak monitorowanie w warunkach rzeczywistych, zamiast polegać tylko i wyłącznie na sztywnych testach.

Kolejnym świetnym pomysłem są tzw. piaskownice regulacyjne, takie jak te zawarte w unijnej ustawie o sztucznej inteligencji. Pozwalają one bezpiecznie eksperymentować bez narażania społeczeństwa na ryzyko. Do tego medycyna potrzebuje audytu AI, aby na bieżąco testować poprawność działania algorytmów.

Założenie, że regulacje zawsze hamują innowacje, jest mitem, często forsowanym przez osoby mające konkretny interes w niepohamowanym rozwoju technologii.

Gdyby miała Pani wybór pomiędzy algorytmem diagnostycznym o 95% dokładności a lekarzem z 90% poprawnych diagnoz, wybrałaby Pani maszynę czy człowieka?

Zabrzmię jak klasyczny naukowiec społeczny: to zależy. W warunkach, w których nie ma dostępu do lekarza, użycie algorytmu o dokładności 95% jest lepsze niż nic. Mamy etyczny obowiązek wykorzystywać wszystkie narzędzia, które potencjalnie mogą uratować życie lub poprawić stan zdrowia.

Zamiast przeciwstawiać algorytmy lekarzom, lepiej porozmawiajmy o tym, jak AI i człowiek mogą ze sobą współpracować. Czasami algorytmy osiągają lepsze wyniki niż lekarze, ale często te porównania są bardzo selektywne. Młodszy lekarz ze świeżym podejściem i otwartym umysłem może być lepszy od algorytmu, a doświadczony, funkcjonujący w bańce poznawczej wynikającej z wiary w doświadczenie – już nie. Ale jeśli AI i lekarz stworzą zespół, zyskujemy podwójny system weryfikacji decyzji.

Pacjent dalej będzie mógł się umówić na wizytę w rejestracji, ale też telefonicznie i przez internet. Jest szansa, że Centralna e-Rejestracja skróci kolejki do specjalistów
Pacjent dalej będzie mógł się umówić na wizytę w rejestracji, ale też telefonicznie i przez internet. Jest szansa, że Centralna e-Rejestracja skróci kolejki do specjalistów

Rada Ministrów przyjęła projekt ustawy o Centralnej e-Rejestracji. Na integrację z systemem placówki medyczne mają czas do 1 lipca 2026 r., inaczej mogą utracić finansowanie świadczeń z NFZ. Podsumowujemy najważniejsze informacje dla świadczeniodawców.

Centralna elektroniczna rejestracja (e-Rejestracja) zacznie obowiązywać już od 1 stycznia 2026 r. na pierwsze trzy świadczenia. Formalnie wprowadza ją w życie projekt ustawy o zmianie ustawy o świadczeniach opieki zdrowotnej finansowanych ze środków publicznych oraz niektórych innych ustaw. Pierwotnie CeR miała ruszyć w kwietniu 2024 roku. Zamiast tego uruchomiono pilotaż i przesunięto termin na kwiecień 2025 roku, a następnie na 1 stycznia 2026 roku.

Jest to jeden z największych projektów e-zdrowia w Polsce, zaraz obok elektronicznej dokumentacji medycznej. Dzięki niej ma się udać to, czego nie udało się zrobić innymi środkami – czyli skrócić kolejki do lekarzy. Idea jest prosta – zamiast obecnego podejścia, gdzie każda placówka ma swój kalendarz wizyt i pacjent musi obdzwaniać kilka przychodni, aby w ogóle dostać się do specjalisty, będzie jeden centralny kalendarz z wszystkimi wolnymi terminami we wszystkich przychodniach. W ten sposób pacjent dowie się m.in. że jest wolny termin u innego lekarza w okolicy, łatwo odwoła lub przesunie termin i dostanie przypomnienie o wizycie.

Aby system zadziałał, placówki medyczne muszą zintegrować się z systemem centralnym. Centralna e-Rejestracja obejmuje tylko świadczenia w ramach NFZ i nie dotyczy wizyt prywatnych.

Co to jest Centralna e-Rejestracja?

Centralna e-rejestracja (CeR) to jeden system rejestracji pacjentów na wybrane świadczenia zdrowotne, działający dzięki centralnej platformie teleinformatycznej, do której podłączone są placówki medyczne. Przez CeR, pacjenci mogą zapisać się na wizyty zarówno osobiście, telefonicznie, elektronicznie u danego świadczeniodawcy, jak i przez Internetowe Konto Pacjenta (IKP).

Pacjentów czeka duża zmiana. Choć na razie przez CeR można umówić się na zaledwie trzy świadczenia, od 2029 roku rejestracja na każdą wizytę będzie odbywać się przez CeR.

Oprócz tego, że pacjent będzie mógł samodzielnie umawiać się na wizytę przez Indywidualne Konto Zdrowotne IKP, nowością jest też asystent głosowy (voicebot), który przypomni pacjentom o wizycie i pomoże w jej odwołaniu lub zmianie terminu. Voicebot będzie oddzwaniał do tych pacjentów, którzy nie mają możliwości odbioru wiadomości SMS, w trzech przypadkach:

Ważnym elementem w walce z kolejkami będzie dyscyplina pacjentów i odwoływanie terminów jeśli pacjent nie może pojawić się u lekarza. Dlatego jeśli tego nie zrobi, zostanie przesunięty na koniec kolejki i będzie musiał czekać od początku.

Od 1 stycznia 2026 r. system CeR obejmie rejestrację na:

Pacjenci już teraz mogą się na nie zapisywać przez IKP w placówkach biorących udział w pilotażu CeR. Katalog tych świadczeń będzie stopniowo rozszerzany o kolejne zakresy, w miarę rozwoju systemu.

Obowiązki świadczeniodawców

Podmioty realizujące świadczenia objęte e-rejestracją będą musiały:

Centralna e-Rejestracja nie jest osobnym systemem IT, ale platformą, gdzie trafiają i zarządzanie są wszystkie wizyty. Umawianie pacjentów realizowane jest w systemie IT placówki medycznej zintegrowanym z CeR – nie trzeba instalować dodatkowego systemu informatycznego. Czołowi dostawcy IT w Polsce, jak np. KAMSOFT, już dopasowali swoje systemy, dzięki czemu ich klienci mogą korzystać z atrakcyjnych bonusów w ramach pilotażu.

Terminy dostosowania systemów IT

Z punktu widzenia świadczeniodawców, ważne są dwa terminy. W okresie 5 miesięcy od wskazania danego świadczenia w przepisach, są oni zobowiązani do udostępnienia harmonogramów w swoim systemie teleinformatycznym. Z kolei 6 miesięcy mają na zapewnienie możliwości dokonywania przez pacjentów zgłoszeń centralnych. Dlatego dla pierwszej puli świadczeń termin końcowy wdrożenia to 31 czerwca 2026 roku (6 miesięcy od wejścia w obowiązku).

Od 1 lipca 2026 roku brak integracji z CeR będzie oznaczał, że placówka nie otrzyma refundacji świadczenia z NFZ. W uzasadnieniu do projektu ustawy czytamy wprost, że „świadczeniodawcy są elementem centralnej elektronicznej rejestracji, bez których projektowana regulacja nie będzie właściwie działać”. Dlatego Narodowy Fundusz Zdrowia będzie finansował świadczeniodawcy wyłącznie świadczenia opieki zdrowotnej realizowane z wykorzystaniem centralnej elektronicznej rejestracji.

Zapisz się do newslettera OSOZ. Dowiedz się pierwszy o tym co ważne i aktaulne w e-zdrowiu
Zapisz się do newslettera OSOZ. Dowiedz się pierwszy o tym co ważne i aktaulne w e-zdrowiu

Nowe zasady kolejek do lekarzy

Pacjent będzie mógł tak jak dotychczas wybrać, gdzie chce się zapisać na wizytę i w jaki sposób chce z niej skorzystać (na miejscu, w formie teleporady). Z jedną różnicą – będzie miał dostęp do terminów wszystkich lekarzy, bez konieczności obdzwaniania lekarzy. A to ogromne ułatwienie.

Termin wizyty przydziela system kierując się określonymi kryteriami. Priorytetowo traktowane będą przypadki pilne, tak aby pacjenci nie musieli czekać tak samo długo, jak osoby w lepszym stanie zdrowia. Pacjenci kontynuujący leczenie uzyskują terminy poza kolejnością – termin ustala sam świadczeniodawca. Jednocześnie znikną obecnie prowadzone listy oczekujących i zastąpi je centralny wykaz oczekujących prowadzony w ramach platformy CeR.

Pacjent i świadczeniodawca uzyskają jednolitą, codziennie aktualizowaną przez NFZ informację o prognozowanym czasie oczekiwania na dane świadczenie, osobno dla różnych grup pacjentów.

Ustawa przewiduje też rozszerzenie zakresu danych w e-skierowaniach i e-receptach (np. dodatkowe informacje od lekarza, informacje o asystencie wystawiającym receptę, dane o odpłatności i kodach uprawnień dodatkowych). Ma to ułatwić realizację recept i skierowań.

Jak placówki medyczne muszą się przygotować na CeR?

Podmioty realizujące świadczenia, które jako pierwsze wchodzą do CeR – czyli na cytologię, mammografię lub pierwszą wizytę do kardiologa – muszą:

Wdrożenie CeR może okazać się trudniejsze niż się wydaje. Świadczeniodawcy mają od lat ustalone metody kolejkowania, które CeR wywraca do góry nogami. Do tego trzeba nauczyć się nowej obsługi e-kalendarza zintegrowanego z platformą centralną i przećwiczyć różne scenariusze (pacjent pierwszorazowy, pacjent kontynuujący leczenie).

Najlepszym rozwiązaniem jest przystąpienie do trwającego do końca grudnia 2025 r. pilotażu. Udział w nim opłaca się, bo placówka może liczyć na jednorazowe dofinansowanie kosztów m.in. integracji systemów IT z centralną e-rejestracją oraz comiesięczny ryczałt w wysokości proporcjonalnej do liczby udzielonych świadczeń, które zostały zrealizowane i potwierdzone w e-rejestracji.

Pilotaż Centralnej e-Rejestracji potrwa do 31 grudnia 2025
Pilotaż Centralnej e-Rejestracji potrwa do 31 grudnia 2025
Newsletter OSOZ - pierwsze źródło informacji o e-zdrowiu w Polsce
Newsletter OSOZ – pierwsze źródło informacji o e-zdrowiu w Polsce

Zapisz się do newslettera OSOZ i otrzymuj najważniejsze informacje o e-zdrowiu mailem. 2-3 razy w miesiącu, bez spamu, tylko skrupulatnie wybrana i praktyczna wiedza.

Wystarczy podać adres e-mail – bez konieczności podawania innych danych – i jako pierwszy/pierwsza dowiesz się o nowych raportach o e-zdrowiu, comiesięcznych e-wydaniach czasopisma OSOZ i zmianach prawnych. W każdej chwili możesz zrezygnować jednym kliknięciem.

Co znajdziesz w Newsletterze OSOZ Polska?

Dla kogo Newsletter OSOZ Polska?

Jak się zapisać do Newslettera OSOZ Polska?

Kliknij tutaj, aby przejść do formularza. Wpisz adres e-mail, zatwierdź zapis dotyczący ochrony Twoich danych. I to wszystko.

Newsletter czasopisma OSOZ Polska
Prof. Stéphanie Allassonnière, Uniwersytet Paris Cité, Francja (zdjęcie: Studio Cabrelli)
Prof. Stéphanie Allassonnière, Uniwersytet Paris Cité, Francja

Nadchodzi kolejny etap w rozwoju AI – agentowa sztuczna inteligencja (ang: agentic AI). Agenci AI będą pełnić rolę inteligentnego koordynatora opieki oraz procesów organizacyjnych i klinicznych, dyrygując przebiegiem operacji chirurgicznych i personalizując opiekę nad pacjentem – twierdzi Prof. Stéphanie Allassonnière z Uniwersytetu Paris Cité, Francja. Technologia jest gotowa.

Czym jest agentowa sztuczna inteligencja i kiedy możemy spodziewać się jej zastosowania w placówkach zdrowia?

Agentic AI odnosi się do systemów sztucznej inteligencji, które mogą autonomicznie planować, podejmować decyzje i realizować określone czynności, aby osiągnąć określone cele przy minimalnym zaangażowaniu człowieka. Można ją porównać do dyrygenta, który przewodzi orkiestrze tak, aby każdy jej członek używał instrumentu we właściwym czasie, aby powstał spójny i harmonijny utwór. Jednak agentic AI nie ma z góry zaprojektowanej partytury – musi wybrać taką, która pozwoli osiągnąć założony cel.

W opiece zdrowotnej możemy spodziewać się pierwszych zastosowań agentowej AI w takich obszarach jak wspomaganie decyzji klinicznych lub koordynacja opieki. W placówkach z bardzo dobrą infrastrukturą cyfrową, takie systemy pojawią się w ciągu najbliższych 3–5 lat. Ale oczywiście będzie to również zależeć od regulacji.

Jeśli agent AI będzie miał działać na przykład na sali operacyjnej, organy regulacyjne muszą zdecydować, czy są bezpieczne w stosowaniu. Wyzwaniem będzie określenie warunków dopuszczenia tego typu systemów do medycyny, bo mowa o częściowo samodzielnej AI. Dużo szybciej można spodziewać się agentów AI do zadań administracyjnych i organizacyjnych. Technologia jest już gotowa, jej wprowadzenie do placówek zdrowia zajmie ok. 1–2 lat.

Specjalny raport o AI w ochronie zdrowia czasopisma OSOZ
Specjalny raport o AI w ochronie zdrowia czasopisma OSOZ. Kliknij tutaj, aby go pobrać

To bardzo krótki okres zakładając, że opieka zdrowotna nigdy nie była w czołówce wdrażania technologii. Dlaczego miałoby być inaczej w przypadku agentowej sztucznej inteligencji? Na razie nie widać jakichkolwiek prób regulacji.

To prawda, że opieka zdrowotna pozostaje w tyle, jeśli chodzi o wdrażanie technologii cyfrowych. Ale w przypadku agentowej AI sytuacja może być inna. Proszę zwrócić uwagę, że jest to technologia, która po raz pierwszy daje nadzieję na rozwiązanie palących problemów w systemie zdrowia. Mam na myśli wypalenie zawodowe lekarzy, braki kadrowe i rosnące koszty opieki. Agenci AI mogą przejąć i zautomatyzować złożone, czasochłonne zadania.

Presja poradzenia sobie z tymi wyzwaniami jest tak silna, że prawdopodobnie zobaczymy wdrożenie tej odmiany AI jeszcze przed ich pełną regulacją, szczególnie w obszarach pomocniczych lub niediagnostycznych. Taką mam przynajmniej nadzieję.

A jak będzie wyglądała walidacja? Agenci AI są oparci na generatywnej AI, a ta może halucynować.

Podobnie jak nowy lek przechodzi rygorystyczną, etapową walidację, najpierw w badaniach symulowanych, a następnie pod nadzorem w rzeczywistych warunkach, taka sama procedura będzie dotyczyła agentów AI.

Jeśli chodzi o halucynacje, to istnieje kilka sposobów, aby im zapobiegać: systemy AI muszą być szkolone z wykorzystaniem wysokiej jakości danych klinicznych, na bieżąco aktualizowane i korygowane, jeśli popełniły błąd. Do tego konieczne jest uwzględnienie mechanizmów odraczania decyzji, aby minimalizować szkody w przypadku błędów.

Systemy agentowe są w stanie samodzielnie realizować procesy kliniczne. Przykładem jest wspomniana koordynacja opieki nad pacjentem. Co zrobić, aby oddając część ról w ochronie zdrowia maszynom, zachować kontrolę człowieka?

Utrzymywanie ludzi w pętli decyzyjnej będzie wymagać projektowania systemów agentowych, których sposób działania jest w pełni udokumentowany, możliwy do skontrolowania i przerwania w razie konieczności. Tylko w ten sposób lekarze będą mogli nadzorować podejmowane przez AI decyzje i rozumieć działanie całego systemu, a w razie konieczności – przejmować kontrolę nad takim „autopilotem”.

To z kolei oznacza, że zanim agenci AI przejmą niektóre czynności, trzeba dobrze przeszkolić lekarzy i pielęgniarki z ich obsługi. Nawet jeśli agent AI będzie posiadał certyfikat, trudno spodziewać się, że będzie bezbłędny. W razie problemów, personel medyczny – kierując się własnym doświadczeniem – będzie korygował działanie maszyny. Krytycznie ważne będzie angażowanie lekarzy w projektowanie agentów AI, aby zapewnić dobre przygotowanie agenta do zadania i przyjazność rozwiązania. Dużą rolę odegrają wytyczne etyczne w stosunku do agentic AI, określające granice odpowiedzialności i gwarantujące, że to do człowieka należy ostateczna decyzja. To są kwestie, nad którymi trzeba się będzie pochylić.

Bądź na bieżąco z nowościami e-zdrowia. Subskrybuj nasz bezpłatny newsletter
Bądź na bieżąco z nowościami e-zdrowia. Subskrybuj nasz bezpłatny newsletter (formularz na dole strony)

Warunkiem dopuszczenia agentów AI do medycyny jest zapewnienie ich „interpretowalności”, czyli zrozumienia podejmowanych decyzji. Jeśli lekarze nie będą wiedzieli, jak działa agent AI, raczej mu nie zaufają.

Tak jak w przypadku każdego innego urządzenia medycznego, konieczne będą badania kliniczne. Dostawcy agentycznej sztucznej inteligencji muszą przedstawić dowody na bezpieczeństwo i korzyści stosowania, dodatkowo gwarantując zgodność z wytycznymi klinicznymi i ochrony danych. Tutaj obowiązują takie same standardy jak dla każdego produktu medycznego.

Podkreślam wielokrotnie znaczenie angażowania lekarzy od samego początku procesu rozwoju i testowania, co jest fundamentem jakości AI i jej użyteczności w warunkach klinicznych, w ten sposób budują zaufanie wśród użytkowników. Takie podejście – które jest nawet zawarte w prawie europejskim – nazywa się „gwarancją człowieka”.

Nie ma się jednak co łudzić – agenci AI nie będą w 100% wyjaśnialni, bo nie działają w oparciu o proste reguły matematyczne. Z tego samego powodu, dla którego nie wymaga się od lekarza znajomości składu chemicznego i mechanizmów działania związków chemicznych, nie należy wymagać, aby sposób działania rozwiązań opartych na AI był całkowicie jasny dla każdego użytkownika. Problem tzw. czarnej skrzynki dotyczy tak samo AI jak i ludzi. Człowiek też nie zawsze jest w stanie wyjaśnić, jak doszedł do danej decyzji.

Kto będzie odpowiedzialny, gdy coś pójdzie nie tak? Agent AI czy lekarz?

W Europie ostateczna decyzja medyczna zawsze należy do człowieka. Oznacza to, że agenci AI powinni być nadzorowani przez cały czas przez ludzkiego eksperta. Jeśli pomyślimy o obsłudze administracyjnej szpitala, to również w tym przypadku powinien istnieć nadzór człowieka, chociaż wpływ błędnej decyzji nie będzie miał takich samych konsekwencji jak w gabinecie lekarskim albo na sali operacyjnej. Uważam, że w medycynie narzędzia te będą wymagały stałego nadzoru.

Agentowa AI obiecuje zmniejszyć obciążenia administracyjne poprzez m.in. automatyzację koordynacji opieki. Jak możemy zapobiec sytuacji, w której nadmierne poleganie na technologii stworzy nowe formy przeciążenia poznawczego lub deskillingu, czyli zaniku doświadczenia i wiedzy, pracowników służby zdrowia?

Automatyzacja powinna wspierać, ale nie zastępować rozumowanie kliniczne. Tutaj wracamy do już wspomnianych warunków brzegowych stosowania agentów AI – to lekarz będzie musiał podjąć ostateczną decyzję i nadzorować cały proces.

Oczywiście, istnieje ryzyko, że kontrola agentów zajmie więcej czasu niż realizacja tego samego zadania przez człowieka. Wówczas taki system mija się z celem, dlatego agentowa AI musi być projektowana tak, aby klinicyści byli angażowani tylko w kluczowe decyzje. To nie jest tak, że lekarze będą biernymi obserwatorami.

W przyszłości znajomość wiedzy klinicznej i doświadczenie będą tak samo ważne, aby móc krytycznie weryfikować działania agenta AI i przejmować inicjatywę w razie potrzeby. Dlatego nie obawiałabym się obniżania poziomu wiedzy i umiejętności lekarzy. Na pewno zmieni się praktyka zawodu i kształcenie, ale cały czas lekarz będzie musiał mieć kompetencje gwarantujące bezpieczeństwo leczenia pacjenta.

Aby agenci płynnie wykonywali swoje zadania, muszą mieć dostęp do danych pacjentów. Czy nie stanowi to zagrożenia dla ich prywatności i bezpieczeństwa danych medycznych?

Tutaj także zasady pozostają bez zmian i agenci AI muszą spełniać obowiązujące wymagania prawne jak RODO czy kodeksy krajowe. Pacjenci będą musieli być informowani o stosowaniu AI, tak samo, jak ma to miejsce obecnie. Nie widzę tu żadnego nowego zagrożenia, bo przepisy chroniące prywatność pacjentów są dobrze przygotowane.

Dotychczas mówiliśmy o agentach AI pomagających w placówkach zdrowia. A czy takie systemy będą też dostępne dla pacjentów, podpowiadając im jak lepiej zadbać o zdrowie?

Oczywiście! Agentyczna sztuczna inteligencja ma tę zaletę, że jest w stanie dostosować swoje decyzje do każdej osoby i sytuacji. Moim zdaniem agenci AI wprowadzą rewolucję w profilaktyce.

Technologia wkroczy do placówek zdrowia najwcześniej za 1–2 lata. Jak już dziś dostawcy usług zdrowotnych powinni zacząć się przygotowywać do wdrożenia agentów AI? Przede wszystkim trzeba zadbać o takie gromadzenie i wstępne przetwarzanie danych, aby z czasem tworzyły one wierną, cyfrową reprezentacją każdej organizacji. Dane muszą być interoperacyjne, szczegółowe i dokładne. Drugą ważną rzeczą jest rozpoczęcie szkolenia pracowników w zakresie AI. Im wcześniej zaczniemy to robić, tym lepiej.

Nowy raport blogu OSOZ o AI w medycynie
Nowy raport blogu OSOZ o AI w medycynie

Od momentu premiery ChatGPT, sztuczna inteligencja jest tematem nr 1. Jedni twierdzą, że AI zastąpi ludzi w wielu zawodach, w tym lekarzy, podczas gdy inni mówią o rozdmuchanych nadziejach. Gdzie leży prawda? Na to pytanie odpowiadamy w nowym, 242-stronicowym raporcie „AI w ochronie zdrowia”.

Na AI najbardziej skorzysta medycyna

Żadna inna technologia nie ma takiej siły, pozytywnej i negatywnej, jak sztuczna inteligencja. Jeszcze kilka lat temu AI była dla przeciętnego Kowalskiego czymś wirtualnym, skomplikowaną koncepcją, nad którą pracowali naukowcy i informatycy. Jednak odkąd w listopadzie 2022 roku swoją premierę miał ChatGPT, z AI może korzystać każdy. Dzisiaj, codziennie do narzędzia trafia ok. 2,5 mld promptów, czyli pytań i poleceń o streszczenie tekstu, wykonanie grafiki albo napisanie maila. Jego twórca – OpenAI – jest na prostej drodze do detronizacji Google z ok. 8,5 mld zapytań dziennie.

Z ChatGPT, Gemini (Google), Copilot’a (Microsoft), Groka (X) albo Llama (Meta) korzystają też pacjenci szukający diagnoz i lekarze podejmując decyzje medyczne. Generatywna AI tworzy bezbłędne treści i odpowiada na wszystkie pytania na zasadzie czystej statystyki, przekonuje swoją wiedzą i brzmi wiarygodnie, nawet jeśli halucynuje i zmyśla fakty.

Ochrona zdrowia szybko zdała sobie sprawę, że nowej generacji AI jest pierwszą od lat szansą na poradzenie sobie z problemami, których nie udało się dotąd rozwiązać. AI może słuchać rozmowy w gabinecie lekarskim, aby lekarz albo pielęgniarka nie musieli ręcznie wpisywać danych do komputera, mogąc skupić się na rozmowie z pacjentem. AI może analizować megabajty informacji o zdrowiu pacjenta z różnych źródeł – jak zdjęcia medyczne, notatki lekarzy – nawet jeśli są zapisane w PDF-ach i różnych formatach, oszczędzając cenny czas lekarza. Może też zestawiać wyniki badań z najnowszymi publikacjami naukowymi, podając najbardziej aktualne rekomendacje dotyczące leczenia albo stylu życia. Może szukać kandydatów na nowe leki i przewidywać struktury białek, za co dostała Nobla w 2024 roku.

Agenci AI są gotowi, aby automatyzować procesy organizacyjne w szpitalach jak harmonogramy pracy oraz triażować pacjentów. Pierwsze szpitale wdrażają systemy AI, dzięki którym lekarz może rozmawiać z elektroniczną dokumentacją medyczną, zamiast ręcznie klikać, skrolować, przechodzić po dziesiątkach zakładkach w systemach IT.

Technologia zmieni ochronę zdrowia, jaką znamy od dekad

Pacjenci coraz chętniej pytają AI o objawy oraz sposób leczenia. Według ostatniego raportu Harvard Business Review, najczęstszym powodem korzystania z ChatGPT i podobnych rozwiązań jest „terapia i dotrzymanie towarzystwa”. AI jest zawsze pod ręką, empatyczna, cierpliwa, tłumaczy skomplikowane zagadnienia zrozumiałym językiem, bez uprzedzeń.

AI nie jest tylko kolejną technologią, ale już dziś przewraca do góry nogami sposób, w jaki pacjenci wchodzą w interakcje z systemem zdrowia oraz metody pracy lekarzy. Jest duża nadzieja, że będzie to zmiana na lepsze i AI pozwoli odbiurokratyzować system zdrowia, uwalniając lekarzy i pielęgniarki od pochłaniających coraz więcej czasu obowiązków administracyjnych.

Ale z drugiej strony już teraz widzimy zagrożenia. Fake newsy medyczne podparte realnie wyglądającymi zdjęciami i filmami wprowadzają pacjentów w błąd i podkopują wiarę w naukę jaką jest medycyna, prowadząc do korozji zaufania do lekarzy. AI słuchająca rozmowy w gabinecie lekarskim skrupulatnie notuje wszystkie dane, ale wchodzi pomiędzy lekarza a pacjenta, z czym chorzy niekoniecznie muszą czuć się komfortowo. Duże firmy technologiczne zbierają coraz więcej danych na nasz temat, aby szkolić coraz to doskonalsze algorytmy.

AI w medycynie będzie wymagała od nas kompromisów pomiędzy wyższą jakością leczenia a utratą prywatności. O dużo ważniejsze będzie wrażliwe wprowadzanie AI do medycyny, aby fundamentalne wartości opieki – jak ludzki dotyk – zostały nie tylko zachowane, ale nawet wzmocnione.

Okładka raportu "AI w ochronie zdrowia"
Okładka raportu „AI w ochronie zdrowia”

Pierwszy przekrojowy obraz rozwoju AI w medycynie

W niniejszym raporcie znajdą Państwo różne opinie o AI, które zebraliśmy podczas wywiadów z ekspertami z Polski i zza granicy. To łącznie 11 rozmów o etyce AI, już działających rozwiązaniach, najnowszych innowacjach, jak agenci AI, oraz regulacjach, jak europejski Akt w sprawie AI. Wszystko po to, abyście mogli Państwo wyrobić sobie własne zdanie w chaosie sensacyjnych nagłówków prasowych i kontrowersyjnych wypowiedzi.

Prezentujemy najnowsze zastosowania kliniczne AI, w tym przykładowo ChatEDM, czyli system pozwalający lekarzowi rozmawiać z dokumentacją pacjenta, modele rozpoznające choroby skóry i przewidujące ryzyko wystąpienia chorób. Wśród nich są też polskie innowacje, jak wytrenowany na krajowych danych model PPLuM albo rozwiązania AI w systemach gabinetowych dla lekarzy. Przedstawiamy przełomowe modele diagnostyczne jak zaprezentowany przez Microsoft MAI-DxO i eksperymenty psychologiczne obnażające, dlaczego traktujemy AI jak coś inteligentnego.

Oprócz trendów pozwalających zrozumieć aktualne kierunki rozwoju AI, podajemy konkretne wskazówki, jak wdrażać AI w szpitalach, przychodniach i gabinetach lekarskich, jak lekarze mogą bezpiecznie z niej korzystać, jak będą działały innowacje AI planowane w polskiej ochronie zdrowia jak np. Platforma Usług Inteligentnych. Przeglądamy też regulacje dotyczące stosowania AI jak RODO, EU AI Act czy wytyczne w nowym Kodeksie Etyki Lekarskiej, który od 2025 roku nakłada na lekarzy obowiązek informowania o stosowaniu AI.

I na końcu prezentujemy podsumowanie 5 ważnych raportów na temat AI w ochronie zdrowia opartych na wiarygodnych badaniach i danych. Dowiecie się z nich Państwo, o co najczęściej pytamy ChatGPT, że Polska to lider w korzystaniu z generatywnej AI oraz co oznacza pojęcie „żywej inteligencji”.

Nasz 242-stronicowy raport opiera się na już publikowanych w czasopiśmie OSOZ artykułach oraz nowych treściach.

Zdajemy sobie sprawę, że pisanie o AI w czasach, gdy codziennie pojawiają się nowe modele albo przełomowe rozwiązania nie jest łatwe. W tym tempie rozwoju, dzisiejsze newsy mogą okazać się jutro już nieaktualne. Dlatego skupiliśmy się na uniwersalnych podstawach, które nie przeterminują się nawet za kilka miesięcy. Równie ważne było dla nas połączenie trendów światowych z kontekstem działania polskich placówek medycznych – niektóre z rozwiązań AI wdrażane w USA, jak przykładowo transkrypcja rozmowy z pacjentem na wpisy do EDM, jeszcze nie są obecne w Polsce. Można się jednak spodziewać, że zaczną wchodzić na nasz rynek za kilka lat, jak tylko AI nauczy się porządnie języka polskiego. Raport twardo stąpa po ziemi, unikając gloryfikacji AI. Tutaj zgadzamy się w pełni z Jessicą Morley z Uniwersytetu Yale (USA), która w wywiadzie dla OSOZ mówi wprost: „AI nie jest ani nowa, ani magiczna, ani inteligentna. Jedynie sprawia wrażenie takiej.”

Zapisz się do newslettera OSOZ i dowiedz się, co nowego w e-zdrowiu
Zapisz się do newslettera OSOZ i dowiedz się, co nowego w e-zdrowiu

1 4 5 6 7 8 128