Nowy model GPT-4o od OpenAI,
Nowy model GPT-4o od OpenAI,

Najnowszy model generatywnej sztucznej inteligencji, czyli GPT-4o, uzyskał rekordową liczbę punktów w amerykańskim egzaminie z medycyny ogólnej odpowiadając poprawnie na 94–100% pytań.

2020: AI uczy się medycyny

W 2020 roku, gdy pojawiły się pierwsze – jeszcze niedostępne do szerokiego zastosowania – modele generatywnej sztucznej inteligencji (LLM), naukowcy byli ciekawi, jak AI radzi sobie z diagnozowaniem chorób. Najprostszą metodą, aby to sprawdzić, jest przetestowanie wydajności na amerykańskim egzaminie medycznym.

Chodzi dokładnie o United States Medical Licensing Examination (USMLE), czyli trzystopniowy program egzaminacyjny niezbędny do uzyskania licencji lekarza w USA, co roku opracowywany przez Federację Stanowych Izb Lekarskich (FSMB). USMLE jest testem wielokrotnego wyboru, który składa się z siedmiu sekcji; każda z nich zawiera do 40 pytań, co daje łącznie do 280 pytań. Aby zdać egzamin, trzeba odpowiedzieć poprawnie na ok. 194 pytań (69%, ten poziom zmienia się co sezon egzaminacyjny).

Kiedy w 2020 do egzaminu przystąpił GPT-Neo – wówczas mało znany LLM – twórcy AI musieli pogodzić się porażką. Model odpowiedział poprawnie tylko na 30% pytań. Rozczarowanie było o tyle większe, że już wtedy AI była trenowana na ogromnych zasobach wiedzy.

2022: AI zdaje pierwszy egzamin z interny

Ale generatywna AI ma jedną cechę, której nie można ignorować – uczy się w zawrotnym tempie. W 2022 roku premierę miał GPT 3.5, z którego korzystał ChatGPT stworzony przez OpenAI. GPT 3.5 zachwycił swoimi możliwościami, także w medycynie uzyskując 60% maksymalnej liczby punktów w egzaminie USMLE. Niestety, nadal za mało, aby zdać egzamin. Ale premiera GPT-3.5 była początkiem szybkiego rozwoju kolejnych, coraz to lepszych modeli.

W 2023 roku Google zaprezentował Med-PaLM – model wytrenowany na danych stricte medycznych: z zasobów literatury medycznej, kartotek pacjentów, badań naukowych. To pozwoliło podnieść precyzję odpowiedzi. Pierwsza wersja modelu odpowiedziała na 67,2% pytań egzaminacyjnych. Kilka miesięcy później pojawił się udoskonalony Med-PaLM2, który zaskoczył wynikiem 86,5%. Wystarczyło niespełna pół roku, aby poprawić wynik o 20 punktów procentowych.

2024: AI lepsza niż studenci medycyny

Wszyscy byli zgodni, że AI będzie wkrótce zdolna odpowiedzieć na 100% pytań. Jednak nikt nie spodziewał się, że nastąpi to tak szybko. A dokładnie w maju 2024 roku, kiedy OpenAI zaprezentował udoskonalony model GPT-4, czyli GPT-4o („o” znaczy „omni”, podkreślając multimodalne zdolności modelu).

Pierwsze testy sugerowały, że to przełom – model odpowiedział poprawnie na 100% pytań w egzaminie jesiennym z 2021 roku. Testowany dalej na 30 unikalnych pytaniach niedostępnych online, GPT-4o utrzymał wskaźnik dokładności na poziomie 96%. Model konsekwentnie przewyższał studentów medycyny w sześciu egzaminach państwowych z lat 2021–2023, uzyskując średni wynik na poziomie 95,54% (w porównaniu z 72,15% studentów).

Porównanie wyników uzyskanych na amerykańskim egzaminie medycznym USMLE w semestrze wiosennym i jesiennym (2021-2023) przez GPT-4o i studentów
Porównanie wyników uzyskanych na amerykańskim egzaminie medycznym USMLE w semestrze wiosennym i jesiennym (2021-2023) przez GPT-4o i studentów

Czym wyróżnia się GTP-4o?

GPT-4o nie tylko zdaje egzamin medyczny jak najlepszy uczeń, ale także robi wrażenie, gdy korzystamy z ChatGPT. Udoskonalony model od OpenAI ma oferować bardziej naturalną interakcję człowieka z komputerem. Najważniejszą cechą jest multimodalność modelu – model może analizować i interpretować dane dostarczone w postaci obrazów, tekstów, dźwięków, nagrań wideo. Odpowiedzi na zapytania gotowe są średnio w 320 milisekund, co odpowiada czasu reakcji człowieka.

Jest to też pierwszy tak płynny model konwersacyjny pozwalający rozmawiać z ChatGPT tak jak z człowiekiem. Został wytrenowany na danych do października 2023, ale potrafi zaktualizować informacje wejściowe przeszukując Internet w czasie rzeczywistym. Mimo postępów w wydajności modeli AI w egzaminach medycznych, nie można popadać w przesadny optymizm. Wiele prac naukowych wskazuje na poważne błędy, jakie popełnia AI. Problemem są nadal halucynacje, a dokładna diagnoza wymaga nie tylko analizy danych, ale także poznania kontekstu choroby, rozmowy z pacjentem. Jednak wszystko wskazuje na to, że przy obecnym tempie rozwoju, sztuczna inteligencja w przeciągu kilku lat będzie gotowa, aby pełnić rolę narzędzia drugiej opinii i asystenta lekarza.

WHO opublikowała zaskakujący raport na temat korzyści wdrażania rozwiązań e-zdrowia
WHO opublikowała zaskakujący raport na temat korzyści wdrażania rozwiązań e-zdrowia

Dodatkowe 1 zł (0,24 USD) na pacjenta zainwestowane w systemy telemedycyny, mobilne aplikacje zdrowotne i chatboty, zwraca się w postaci zmniejszenia liczby zgonów z powodu chorób przewlekłych o 2 mln i korzyści ekonomicznych o wartości 807 mld zł (199 mld USD) – sugeruje nowy raport Światowej Organizacji Zdrowia (WHO).

Choroby cywilizacyjne. Cała nadzieja w e-zdrowiu

Nowy raport „Going Digital for Noncommunicable Diseases: The Case for Action”, przygotowany przez WHO oraz Międzynarodowy Związek Telekomunikacyjny (ITU) pokazuje, jak cyfrowe rozwiązania zdrowotne mogą pomóc w walce z epidemią chorób niezakaźnych (NCDs). Choroby sercowo-naczyniowe, nowotwory, cukrzyca i przewlekłe choroby układu oddechowego stanowią aż 74% przyczyn zgonów na świecie i od lat pochłaniają zdecydowaną większość budżetów ochrony zdrowia.

NCDs – potocznie nazywane chorobami cywilizacyjnymi – stanowią ogromne obciążenie dla systemów zdrowotnych na całym świecie, szczególnie w krajach o niskim i średnim dochodzie, gdzie dostęp do usług zdrowotnych jest ograniczony. Oprócz tragicznych skutków zdrowotnych oraz zgonów, którym można zapobiec, generują miliardowe wydatki. Szacuje się, że do 2030 roku kwota tytułem utraconej produktywności z powodu NCDs osiągnie wartość 30 bilionów USD. Jeśli do tego rachunku dodamy zaburzenia zdrowia psychicznego, koszt urośnie do 47 bilionów USD. Rocznie z powodu chorób niezakaźnych umiera ok. 41 mln osób.

Klasyczna medycyna jest często bezsilna, bo wiele chorób cywilizacyjnych jest efektem negatywnych zmian w stylu życia, rozwijając się latami i pozostając w ukryciu. Jedynym rozwiązaniem jest wzmocnienie profilaktyki oraz dostarczenie chorym narzędzi pomagających odzyskać kontrolę nad przebiegiem choroby oraz prowadzić regularny monitoring choroby. WHO twierdzi, że narzędzia cyfrowe mogą okazać się przełomem w walce z NCD.

Aplikacje zdrowotne i telemedycyna dają szybkie korzyści

Raport „Cyfryzacja chorób niezakaźnych: Argumenty za działaniem” kładzie na stół konkretne liczby. Wdrożenie rozwiązań cyfrowych, takich jak telemedycyna, mobilne aplikacje zdrowotne, chatboty i technologie noszone (wearables) to dla ochrony zdrowia inwestycja, która zwróci się wielokrotnie.

Inwestycja w e-zdrowie daje zdrowotne i ekonomiczne korzyści
Inwestycja w e-zdrowie daje zdrowotne i ekonomiczne korzyści (źródło: WHO)

Przeznaczając dodatkowe 24 centy na pacjenta rocznie można by zapobiec 2,1 mln zgonów, generując oszczędności rzędu 199 mld USD w przeciągu kolejnych 10 lat. Największy, pozytywny wpływ ma telemedycyna, która pozwala dotrzeć z opieką do osób poza dużymi ośrodkami miejskimi. W ten sposób stan zdrowia chorych przewlekle może być monitorowany 24/7, a w razie stopniowego pogarszania się wyników, lekarz może zareagować dużo wcześniej, unikając konieczności przyjęcia do szpitala. Tylko taka interwencja pozwala zapobiec aż połowie z 7,4 mln stanów nagłego pogorszenia zdrowia i hospitalizacji z powodu NCDs. To przelicza się na konkretne kwoty zaoszczędzone w systemie zdrowia oraz pozytywne efekty ekonomiczne (większa produktywność, mniejsza liczba absencji chorobowych).

Cyfrowe interwencje zdrowotne przynoszą nie tylko korzyści finansowe, ale również poprawiają jakość i dostępność opieki zdrowotnej. Dzięki telemedycynie, pacjenci mogą korzystać z usług zdrowotnych bez potrzeby fizycznego przemieszczania się. Zdalne konsultacje ułatwiają też kontakt ze specjalistami, skracając czas oczekiwania na diagnozę i leczenie.

Aplikacje zdrowotne i telemedycyna poprawiają dostępność usług medycznych (źródlo: WHO)
Aplikacje zdrowotne i telemedycyna poprawiają dostępność usług medycznych (źródlo: WHO)

Z kolei mobilne aplikacje zdrowotne umożliwiają pacjentom monitorowanie stanu zdrowia w czasie rzeczywistym i bieżące korygowanie terapii. Tanim sposobem na poprawę dostępu do informacji zdrowotnych są chatboty pomagające rzucić palenie, zdrowo się odżywiać i prowadzić zrównoważony tryb życia. Ich zaletą jest łatwość wdrożenia na szeroką skalę i to po niskim koszcie.

Opóźnienia digitalizacji medycyny szkodzą pacjentom

Biorąc pod uwagę obliczenia ekspertów WHO, cyfryzacja ochrony zdrowia powinna stać się priorytetem. Raport podkreśla, że o ile w krajach wysokorozwiniętych można już wykorzystać potencjał e-zdrowia, to w krajach o niskim dochodzie prawie 1/3 populacji nadal nie ma dostępu do internetu. Raport zwraca też uwagę, że transformacja cyfrowa nie jest tylko obowiązkiem instytucji rządowych, ale wymaga współpracy między sektorem publicznym, prywatnym oraz organizacjami międzynarodowymi.

Raport WHO "Cyfryzacja chorób niezakaźnych: Argumenty za działaniem". Kliknij na okładkę, aby pobrać pełną wersję (język angielski)
Raport WHO „Cyfryzacja chorób niezakaźnych: Argumenty za działaniem”. Kliknij na okładkę, aby pobrać pełną wersję (język angielski)
To już 14. edycja konferencji Life Science Open Space Summit
To już 14. edycja konferencji Life Science Open Space Summit

28-29 listopada 2024 w Krakowie odbędzie się 14. edycja konferencji Life Science Open Space Summit 2024. To jedno z najważniejszych wydarzeń dla branży biotechnologicznej, medycznej i nauk o zdrowiu odbywające się pod patronatem czasopisma OSOZ.

Life Science Open Space (LSOS) to coroczne, międzynarodowe spotkanie ekspertów i entuzjastów nowych technologii, naukowców, przedsiębiorców, inwestorów, twórców startupów oraz przedstawicieli instytucji publicznych. Tematyka kongresu koncentruje się na nowościach w obszarze biotechnologii, technologii medycznych i e-zdrowia.

W programie LSOS Summit 2024:

Wydarzenie zainauguruje wykład: „Bezpieczniejsza, tańsza i wydajniejsza opieka zdrowotna dzięki technologiom in silico. Od mitu do nowej rzeczywistości” („Making healthcare safer, more affordable and more efficient with in silico technologies. From a myth to the new reality”).

Organizatorami wydarzenia są Klaster LifeScience Kraków, międzynarodowa fundacja badawcza Sano oraz Uniwersytet Jagielloński. Wszystkie wykłady i dyskusje odbędą się w języku angielskim.

Udział w LSOS Summit 2024 jest bezpłatny. Kliknij tutaj, aby sprawdzić program i zarejestrować się.

Prof. Aleksandra Przegalińska prowadzi badania nad AI m.in. na Uniwersytecie Harvarda
Prof. Aleksandra Przegalińska prowadzi badania nad AI m.in. na Uniwersytecie Harvarda (zdjęcie: CampusAI)

Sztuczna inteligencja zachwyca i jednocześnie przeraża. Co tydzień słyszymy o kolejnych modelach, narzędziach i trendach. Ale co naprawdę AI oznacza dla nas, ludzi? O to pytamy prof. dr. hab. Aleksandrę Przegalińską, filozofkę, badaczkę AI na Uniwersytecie Harvarda i Prorektorkę ds. Innowacji na Akademii Leona Koźmińskiego.

Laureat tegorocznej nagrody Nobla z fizyki, Geoffrey Hinton, wielokrotnie podkreślał, że AI posiada zdolność „rozumowania” i jest czymś więcej niż tylko zaawansowaną maszyną statystyczną. A co Pani sądzi?

Hinton ma rację, wskazując na zdolność AI do działania w sposób, który może przypominać rozumowanie, chociaż właściwszym określeniem jest tu „wnioskowanie”.

Każdy, kto częściej korzysta z AI, widzi istotne ograniczenia tej technologii. Wciąż operujemy na innym poziomie niż ludzki umysł – AI przetwarza informacje statystycznie, a nie intencjonalnie. To raczej symulacja rozumowania, niż faktyczne jego przejawienie.

Czy przyjdzie taki dzień, że będziemy musieli szczerze przyznać: tak, AI jest inteligentniejsza od ludzi?

Inteligencja to złożone i wieloaspektowe zjawisko – nie chodzi tylko o szybkość przetwarzania danych, ale też o intuicję, emocje i kreatywność. AI może przewyższać nas tylko w pewnych obszarach (np. inteligencja obliczeniowa), ale pełna „inteligencja” jak nasza jest znacznie bardziej skomplikowana i trudna do zdefiniowania. I nie, nie sądzę, żeby w tym całym wachlarzu jakim inteligencja jest, AI była dalej niż my.

Była Pani zaskoczona, gdy OpenAI zaprezentował ChatGPT?

Tak, byłam raczej pozytywnie zaskoczona. ChatGPT pokazał, że AI może prowadzić bardziej płynny dialog i generować złożone odpowiedzi, choć nadal ma ograniczenia. To otworzyło nowe możliwości dla współpracy ludzi z technologią.

Pierwsze szpitale sięgają do dużych modeli językowych, aby np. pomóc lekarzom w szukaniu informacji i zależności w danych w elektronicznych kartotekach pacjentów. Czy można zaufać takim rozwiązaniom?

Jestem tutaj optymistyczna, ale ostrożna. AI może wesprzeć lekarzy, ale nie może zastąpić empatii i etycznego osądu. Kluczowe jest utrzymanie kontroli człowieka nad decyzjami oraz ciągłe monitorowanie działania takich systemów. Nadzór człowieka, zwłaszcza w obszarach tak istotnych jak zdrowie, jest absolutnie kluczowy.

Czy dyskutując o błędach wynikających z halucynacji AI jesteśmy fair? Przecież procesy kognitywne człowieka też są pełne błędów, ludzie się mylą, zapominają…

Halucynacje to pewna cecha systemów generatywnej AI, której trudno nam będzie się pozbyć. I rzeczywiście, AI popełnia błędy, ale warto pamiętać, że my również. Ważne jest, by traktować AI jako narzędzie, które może być mylne, i nie obciążać go nierealnymi oczekiwaniami, których nawet ludzie nie spełniają

Załóżmy, że ma Pani do wyboru lekarza AI mającego dostęp do światowych zasobów wiedzy medycznej, najnowszych badań naukowych, wytrenowanego na miliardach kartotek medycznych oraz lekarza-człowieka pracującego bez technologii. Którego Pani wybierze?

Wolałabym połączenie obu. My, jako zespół badawczy w Akademii Leona Koźmińskiego, a także w ramach rozwoju platformy Campus AI, którą współtworzę, pracujemy w duchu „współpracującej sztucznej inteligencji”. AI może zapewnić dostęp do najnowszych danych, ale lekarz-człowiek oferuje empatię i kontekst, których nie da się zastąpić. Uzupełnianie się tych dwóch perspektyw byłoby idealnym rozwiązaniem.

Czy przyjdzie taki moment, że zaufamy AI, tak samo jak ufamy dzisiaj elektryczności gdy włączamy światło, a korzystanie z doradców AI wszelkiego rodzaju stanie się codziennością?

Tak, myślę, że dojdziemy do takiego momentu. W miarę jak technologie AI będą się rozwijały i stawały bardziej przewidywalne, będziemy coraz bardziej na nich polegać – podobnie jak na innych technologiach, które kiedyś wzbudzały obawy, a dziś są codziennością.

Co ważnego w AI wydarzyło się w 2024 roku?

2024 to rok, w którym zaczęliśmy bardziej świadomie rozmawiać o regulacji AI i jej odpowiedzialnym wdrażaniu. Wiele inicjatyw, jak EU AI Act, zaczęło wpływać na kształtowanie standardów rozwoju AI.

Czego można spodziewać się w rozwoju sztucznej inteligencji w 2025 roku? Rok 2025 przyniesie dalszą integrację AI z naszym codziennym życiem, szczególnie w obszarach edukacji i medycyny. AI dzisiaj jest jak internet dwie dekady temu: upowszechnia się. Współpraca między człowiekiem a AI stanie się bardziej naturalna, a rozwój generatywnych modeli będzie jeszcze bardziej ukierunkowany na konkretne zastosowania i ich bezpieczeństwo.

W aplikacji mObywatel można sprawdzić pomiary jakości powietrza
W aplikacji mObywatel można sprawdzić pomiary jakości powietrza

W aplikacji mObywatel można już przeglądać wyniki pomiarów jakości powietrza w miejscu pobytu.

Nowa opcja pozwala na bieżąco sprawdzać, jakim powietrzem oddychamy. Jakość oznaczana jest ikonami i kolorami: od bardzo złej jakości (czarna ikona) do bardzo dobrej (zielona).

Aby skorzystać z opcji, należy na na mapie Polski wybrać punkt pomiarowy albo skorzystać z lokalizacji za pomocą smartfona.

Nowa funkcja zawiera informacje o:

Usługa korzysta z 1200 punktów pomiarowych stworzonych w ramach Edukacyjnej Sieci Antysmogowej. Zostały one zlokalizowane w szkołach, które zgłosiły się do projektu.

Punkty pomiarowe na mapie mają różne kolory zgodne z aktualną jakością powietrza – od zielonego (dobra jakość) po niebieski i czarny (bardzo zła jakość). Dzięki wyszukiwarce można znaleźć punkt pomiarowy w okolicy i dodać go do ulubionych (aplikacja umożliwia zapisanie do 10 ulubionych punktów). Opcja dostępna jest bezpłatnie dla wszystkich użytkowników mObywatel.

Informacja o bardzo dobrej jakości powietrza - kolor zielony
Informacja o bardzo dobrej jakości powietrza – kolor zielony
Laureaci Nagrody Nobla z fizyki 2024 - John Hopfield i Geoffrey Hinton  (grafika: Niklas Elmehed, Nobel Prize) 
Laureaci Nagrody Nobla z fizyki 2024 – John Hopfield i Geoffrey Hinton (grafika: Niklas Elmehed, Nobel Prize) 

Tegoroczną Nagrodę Nobla z fizyki otrzymali Geoffrey Hinton i John Hopfield za prace nad sztucznymi sieciami neuronowymi. Hinton, często określany ojcem chrzestnym sztucznej inteligencji, twierdzi, że AI będzie wkrótce inteligentniejsza od człowieka. Co to oznacza dla ochrony zdrowia?

Jak AI naśladuje ludzki mózg?

John Hopfield jest profesorem na Uniwersytecie Princeton (USA), a Geoffrey Hinton – profesorem na Uniwersytecie w Toronto (Kanada). Zainspirowani tym, jak działa ludzki mózg, naukowcy stworzyli tzw. sztuczne sieci neuronowe, które stały się fundamentem generatywnej sztucznej inteligencji i systemów jak ChatGPT. Sam Altman, szef OpenAI, był jednym ze studentów Geoffrey’a Hintona.

Historia ich prac nad AI sięga lat 80-tych, kiedy obydwaj naukowcy zaczęli eksperymentować z systemami komputerowymi, które naśladowałyby działanie neuronów ludzkiego umysłu – czyli takimi, które mogłyby się wymieniać informacjami, kopiując umiejętności kognitywne i analityczne. To właśnie sztuczne sieci neuronowe i oparte na nich uczenie maszynowe pozwoliły zbudować pierwsze systemy do tłumaczenia tekstów. Ich kolejne wersje posłużyły do stworzenia algorytmów do klasyfikacji zdjęć, w tym rozpoznawania zmian nowotworowych na podstawie danych treningowych, bez konieczności programowania. To był przełom: AI zaczęła się sama uczyć, tak samo jak uczy się człowiek.

Jak działają sztuczne sieci neuronowe?
Jak działają sztuczne sieci neuronowe?

Dlaczego Nobla za AI przyznano właśnie w dziedzinie fizyki? Jak uzasadniła kapituła, sztuczne sieci neuronowe zostały wykorzystane w badaniach nad cząstkami elementarnymi i astrofizyce. Dziś są częścią życia każdego człowieka za każdym razem, gdy tłumaczymy tekst w Google albo czatujemy z ChatGPT. AI zdobyła w tym roku dwie nagrody Nobla. Drugą w dziedzinie chemii za AlphaFold, czyli narzędzie Google do predykcji struktur białkowych.

Hinton twierdzi, że AI to coś więcej niż czysta statystyka

O Hintonie stało się głośno, gdy odszedł z Google ostrzegając przed tym, że AI może zagrozić ludzkości i odbierze nam pracę. Także lekarzom – w 2016 roku, w jednym z wywiadów Hinton stwierdził, że w przeciągu 5 lat AI zastąpi radiologów. Hinton nie przewidział jednego – praca lekarzy, w tym radiologów, to znacznie więcej niż analiza danych i diagnoza. W efekcie, 8 lat po zapowiedzi Hintona, radiolodzy są tak samo potrzebni, a algorytmy AI nadal w niewielkim stopniu pomagają im w pracy.

Pytany przez dziennikarzy zaraz po przyznaniu nagrody Nobla, Hinton powiedział, że wpływ AI na świat będzie porównywalny z rewolucją przemysłową. O ile maszyny przewyższyły ludzi pod względem siły fizycznej, AI pokona nas intelektualnie. Dzięki temu możemy spodziewać się postępów w medycynie, zwłaszcza przyspieszenia prac nad nowymi lekami oraz rozwoju wszechstronnie uzdolnionych asystentów cyfrowych, w tym także cyfrowych lekarzy. Przestrzegł przy tym, że inteligentniejsze od ludzi systemy mogą kiedyś przejąć kontrolę nad światem.

W medycynie, AI przyniesie tylko korzyści

Po nietrafionej prognozie dotyczącej zastąpienia radiologów przez AI, Hinton nadal optymistycznie, ale ostrożniej wypowiada się o sztucznej inteligencji w ochronie zdrowia. W wywiadzie ze światowej sławy ekspertem cyfryzacji medycyny, Ericem Topolem, przyznał m.in., że w ciągu 10–15 lat systemy AI będą rutynowo wykorzystywane do wydawania drugiej opinii lekarskiej i przewyższą lekarzy w niektórych aspektach podejmowania decyzji klinicznych.

Jego zdaniem, duże modele językowe (LLM) naprawdę „rozumieją” wykonywane zadania i są czymś więcej niż systemami realizującymi obliczenia statystyczne. A to oznacza, że wynalezienie tzw. ogólnej sztucznej inteligencji jest tylko kwestią czasu. Niektórzy nie dopuszczają do głowy faktu, że maszyny mogą być lepsze od ludzi albo lekarzy, ale wraz z szybkim postępem technologii, wkrótce nie będzie można temu zaprzeczyć. Dlatego przed ludzkością stoi poważne wyzwanie uregulowania stosowania AI i rozważenia etycznych konsekwencji transformacji sztucznej inteligencji.

W medycynie, AI wprowadzi do praktyki personalizację leczenia. Mając dostęp do danych pacjenta, AI – a zwłaszcza duże modele językowe – pomoże lekarzom w precyzyjnym diagnozowaniu chorób i podejmowaniu decyzji. Z kolei pacjentom i krewnym zaoferuje drugą opinię oraz pozwoli lepiej zrozumieć chorobę. Doradcy AI będą także pomocnym wsparciem w profilaktyce.

Kiedy twórca AI zaczyna zauważać w niej niebezpieczeństwo, można mieć powody do zmartwienia. Ale Hinton z nadzieją patrzy w przyszłość. Kiedy AI stanie się inteligentniejsza od ludzi, może pełnić rolę „życzliwego rodzica ludzkości”, dbając o przyszłość świata, tworząc rozwiązania na kryzysy ekologiczne, ekonomiczne i społeczne.

Szczepionki w sprayu są łatwiejsze do zaaplikowania, ale też wymagają wizyty u lekarza
Szczepionki w sprayu są łatwiejsze do zaaplikowania, ale też wymagają wizyty u lekarza

Amerykańska Agencja ds. Leków i Żywności (FDA) dopuściła do obrotu pierwszą szczepionkę w formie sprayu. Dzięki temu, zaszczepić można się samemu w domu.

Inhalacja zamiast igły

FluMist firmy AstraZeneca jest pełnowartościową szczepionką opracowaną w celu zapobiegania zarażeniom wirusem grypy podtypów A i B u osób w wieku od 2 do 49 lat. Można zaaplikować ją sobie samemu; w przypadku dzieci, środek podaje rodzic lub opiekun. Według przedstawiciela FDA, nowa metoda jest skuteczna, bezpieczna a do tego wygodna w stosowaniu.

Samo szczepienie za pomocą sprayu nie jest niczym nowym, ale FDA potrzebowała przeprowadzenia dodatkowego badania roli czynnika ludzkiego w podawaniu szczepionki. W klasycznym przypadku, to wykwalifikowana pielęgniarka lub lekarz podaje zastrzyk, co gwarantuje, że szczepienie jest wykonane prawidłowo. W przypadku samodzielnej aplikacji sprayem, FDA miała wątpliwości, czy użytkownicy – a dokładnie osoby pomiędzy 18 a 49 rokiem życia – prawidłowo zaaplikują środek.

Wyniki badania potwierdziły, że 100% osób podało pełną dawkę, a skuteczność, immunogenność i zdarzenia niepożądane przy samodzielnym podawaniu są podobne do tych obserwowanych w przypadku szczepień realizowanych przez pracowników służby zdrowia. Wśród nich są m.in. gorączka u dzieci w wieku od 2 do 6 lat oraz katar i przekrwienie błony śluzowej nosa u osób w wieku od 2 do 49 lat, a także ból gardła u dorosłych.

47% wyszczepialność w USA. W Polsce – 3%

FluMist zawiera osłabioną formę żywych szczepów wirusa grypy i jest wydawany na receptę. A to oznacza, że pacjent musi przejść wcześniej takie same badania kontrolne kwalifikujące do szczepienia jak w przypadku normalnego szczepienia. W USA mogą być one przeprowadzone w aptece, gdzie od razu pacjent otrzymuje dawkę sprayu. W ten sposób, apteka pełni funkcję punktu szczepień z pominięciem samej procedury szczepienia.

Naukowcy mają nadzieję, że zastąpienie strzykawki sprayem pozwoli zwiększyć wyszczepialność społeczeństwa. Szczepienia to najprostszy sposób profilaktyki. Z tej formy ochrony przed grypą korzysta w Polsce jedynie ok. 3% obywateli (w USA odsetek ten wynosi 47%). Choroba może prowadzić do hospitalizacji, a nawet zgonu – w sezonie 2022/2023 z powodu powikłań pogrypowych zmarło w Polsce 114 osób. Nawet bez powikłań, odzyskanie pełnej formy po grypie może trwać kilka tygodni.

MZ chce zainwestować pieniędzy z KPO w rozwiązania AI. Wyzwaniem może być 2-letnia perspektywa finansowania – za krótka, aby wdrażane systemy AI zyskały certyfikację jako urządzenia medyczne
MZ chce zainwestować pieniędzy z KPO w rozwiązania AI. Wyzwaniem może być 2-letnia perspektywa finansowania – za krótka, aby wdrażane systemy AI zyskały certyfikację jako urządzenia medyczne

Wspólne posiedzenie Sejmowej Komisji Cyfryzacji, Innowacyjności i Nowoczesnych Technologii oraz Komisji Zdrowia skupiło się na dyskusji o publicznym finansowaniu rozwiązań cyfrowych w polskim systemie zdrowia oraz zastosowaniu sztucznej inteligencji. Jakie konkrety padły podczas dwugodzinnej debaty? I jak się one mają do zaprezentowanej z końcem października Strategii Cyfryzacji Polski?

MZ chce sięgnąć po AI. Na stole duże pieniądze

Podczas posiedzenia Ministerstwo Zdrowia podkreślało, że sztuczna inteligencja odgrywa coraz większą rolę w sektorze ochrony zdrowia. AI pozwala na automatyzację niektórych czynności, co znacząco zwiększa efektywność pracy personelu.

– Sztuczna inteligencja usprawnia procesy diagnostyczne, odciążając lekarzy i dając im więcej czasu na bezpośrednią pracę z pacjentem – mówił Wojciech Demediuk, Dyrektor Departamentu e-Zdrowia w Ministerstwie Zdrowia.

W ramach Naczelnej Izby lekarskiej powstała nawet grupa robocza do spraw AI, z którą współpracuje Ministerstwo Zdrowia, a na stronie MZ dostępny jest formularz, za pomocą którego można zgłaszać innowacje cyfrowe dla ochrony zdrowia. Kilka z nich weryfikuje MZ.

Przykładem jest EmbryoAid, system wspomagający ocenę zarodków podczas procedur in vitro. Narzędzie oparte na sztucznej inteligencji automatycznie analizuje parametry zarodków i rekomenduje te najbardziej obiecujące, co zwiększa obiektywność i efektywność decyzji medycznych. Wspomniano też m.in. o LabPlus – automatycznej interpretacji wyników badań laboratoryjnych wspomaganej AI, dzięki której pacjent ma od razu przejrzysty opis, zamiast tylko suchych liczb.

W ramach monitorowania innowacji, Ministerstwo Zdrowia prowadzi tzw. „Mapę Innowacji”, która obejmuje obecnie ponad 20 projektów związanych z AI. Koncentrują się one głównie na głębokim uczeniu maszynowym i narzędziach telemedycznych. Przykładem jest rozwiązanie, które automatycznie tworzy ustrukturyzowane notatki z wizyt pacjentów, co odciąża personel medyczny i zwiększa wydajność pracy.

– Chcielibyśmy dofinansować z KPO polskie startupy medtech, aby Polska mogła się liczyć w wyścigu technologicznym – mówił Demediuk. Ministerstwo Zdrowia planuje przeznaczyć 1,26 mld zł z Krajowego Planu Odbudowy na rozwiązania oparte o sztuczną inteligencję.

Wdrażenie AI będzie wymagało gimnastyki legislacyjnej

Demediuk zwrócił uwagę, że obecnie w Polsce nie ma definicji prawnej sztucznej inteligencji medycznej, a przepisy są rozproszone. Wprowadzenie odpowiednich regulacji jest konieczne, aby system ochrony zdrowia mógł w pełni korzystać z potencjału AI.

– Nasza interpretacja jest taka, że sztuczną inteligencję można zakwalifikować jako wyroby medyczne – dodał Demediuk.

Unijny Akt o Sztucznej Inteligencji (EU AI Act), który ma zostać wdrożony również w Polsce, przewiduje klasyfikację systemów AI stosowanych w ochronie zdrowia jako „systemów wysokiego ryzyka”. Oznacza to, że każde rozwiązanie AI wykorzystywane w diagnostyce i leczeniu będzie musiało przejść rygorystyczne testy i certyfikacje.

Jednym z kluczowych elementów regulacji jest Europejska Przestrzeń Danych dotyczących Zdrowia (EHDS). Celem EHDS jest umożliwienie transgranicznego dostępu do danych pacjentów, co pozwoli lekarzom w Europie na bezpieczniejsze podejmowanie decyzji medycznych. Z kolei dane dostępne w ramach EDHS wesprą prowadzenie badań naukowych i prac nad nowymi lekami. Ministerstwo Cyfryzacji zapowiedziało, że wdrożeniu EHDS będzie towarzyszyć szereg nowych przepisów dotyczących zarządzania danymi i ochrony prywatności pacjentów.

Podczas dyskusji pojawił się również temat regulacji w zakresie nadzoru nad rynkiem rozwiązań AI. Przedstawiciele rządu zapowiedzieli powołanie organu, który będzie miał możliwość wydawania interpretacji prawnych dotyczących nowych technologii, co ułatwi ich wdrażanie na polskim rynku ochrony zdrowia. Ministerstwo Cyfryzacji zapewniło, że będzie ściśle współpracować z Ministerstwem Zdrowia, aby stworzyć regulacje, które wspomogą wdrożenie AI, nie tylko w kontekście klinicznym, ale także administracyjnym.

Tak, ale… Etyczne wyzwania i zagrożenia związane z AI w medycynie

Podczas posiedzenia pojawiły się także poważne obawy dotyczące etyki sztucznej inteligencji w medycynie.

– Sztuczna inteligencja nie może decydować o życiu i zdrowiu pacjenta bez nadzoru człowieka – stwierdził jeden z parlamentarzystów. System EmbryoAid, który automatyzuje wybór zarodków, a o którym wspomniał Dyrektor Demediuk, stał się szybko przedmiotem debaty etycznej.

– Sztuczna inteligencja będzie automatyzować pracę i rekomendować najbardziej obiecujące zarodki, co oznacza, że to algorytmy będą decydować o ich dalszej implantacji. To niesamowita rewolucja, ale zarazem to przerażające, bo może prowadzić do sztucznej selekcji zarodków, co jest bardzo niebezpiecznym kierunkiem – mówił poseł i lekarz Czesław Hoc, zwracając uwagę na potrzebę zachowania balansu między technologią a ludzką kontrolą.

Kolejnym tematem poruszonym podczas debaty było powołanie Komisji Etyki przy Ministerstwie Zdrowia, która miałaby oceniać i certyfikować rozwiązania AI przed ich wdrożeniem w polskiej służbie zdrowia. Komisja będzie monitorowała, czy nowe technologie spełniają najwyższe standardy etyczne i nie naruszają prywatności pacjentów. Dodatkowo, uczestnicy posiedzenia zaproponowali realizację programów pilotażowych, które pozwoliłyby na testowanie nowych narzędzi AI w bezpiecznym środowisku przed ich masowym wdrożeniem.

Kwestie etyki zastosowania AI w medycynie znalazły też odbicie w znowelizowanym Kodeksie Etyki Lekarskiej. Na nadzwyczajnym zjeździe lekarzy w maju 2024 roku, prawie 500 delegatów zatwierdziło nowe przepisy dotyczące AI, które wejdą w życie 1 stycznia 2025 roku. Zgodnie z nimi, lekarze muszą informować pacjentów o korzystaniu z AI w diagnostyce i terapii, uzyskiwać ich zgodę oraz stosować wyłącznie certyfikowane algorytmy. Kluczowy jest zapis, że ostateczną decyzję diagnostyczną zawsze podejmuje lekarz, co zabezpiecza kwestie odpowiedzialności zawodowej.

Z czasem może być konieczna aktualizacja tego kodeksu, ale już teraz środowisko lekarskie podejmuje działania, aby przygotować się na zmiany technologiczne.

Zakończone sukcesem pilotaże nie są wdrażane na dużą skalę

Sporo czasu poświęcono finansowaniu projektów związanych z wdrażaniem sztucznej inteligencji i innowacji w polskim systemie ochrony zdrowia. Mimo że wiele projektów AI jest obiecujących, brakuje ścieżki ich rozwoju i wsparcia finansowego.

– Bez wsparcia finansowego te innowacje nie trafią do pacjentów – zwrócił uwagę jeden z uczestników.

Przykładem innowacji mającej potencjał zastosowania na szeroką skalę jest program mający na celu zmniejszenie umieralności na raka piersi poprzez zastosowanie AI do analizy mammografii. Rekomendację jego wdrożenia zaproponowała grupa robocza ds. AI przy Ministerstwie Cyfryzacji. Wyniki pilotażowych badań wskazują na możliwość zmniejszenia umieralności o połowę, co uratowałoby życie 3200 kobiet rocznie. Jednak brak odpowiedniej ścieżki refundacji blokuje wdrożenie tego rozwiązania na szeroką skalę.

Kolejnym przykładem jest „Cyfrowy Lekarz”, który umożliwia jednemu lekarzowi obsługę kilku zespołów ratownictwa medycznego dzięki zastosowaniu AI. Pomimo pozytywnych wyników pilotażu, projekt ten wciąż nie ma podpisanego kontraktu z Narodowym Funduszem Zdrowia.

Profesor Katarzyna Kolasa, Dyrektor Centrum Zdrowia Cyfrowego na Akademii Leona Koźmińskiego podkreśliła, że brakuje mechanizmów, które wynagradzałyby twórców rozwiązań e-zdrowia za oszczędności, jakie generują dla systemu ochrony zdrowia. W Niemczech oraz Stanach Zjednoczonych funkcjonują już systemy, w których refundacja zależy od efektu terapeutycznego.

Finansowanie i implementacja AI

Podczas posiedzenia zaprezentowano wyniki spotkania zainagurowanego przez Akademię Leona Koźmińskiego we współpracy z Siecią Lekarzy Innowatorów Naczelnej Izby Lekarskiej (NIL IN), pod patronatem Rynku Zdrowia. Eksperci wypracowali trzy hipotezy dotyczące wdrażania innowacji cyfrowych w polskim systemie ochrony zdrowia.

Pierwsza wskazuje, że wdrożenie sztucznej inteligencji w ochronie zdrowia w Polsce wymaga silniejszego wsparcia dla partnerstw publiczno-prywatnych (PPP). Zdecydowana większość uczestników opowiedziała się za tym, że skuteczne wdrażanie AI w medycynie nie może się obyć bez współpracy między sektorem publicznym a prywatnym. Partnerstwa te pozwalają na połączenie zasobów, know-how oraz infrastruktury, co w praktyce oznacza szybsze wdrożenie technologii oraz większą elastyczność finansową w rozwoju innowacji.

Drugą hipotezą jest konieczność uruchamiania pilotażowych programów sztucznej inteligencji w ochronie zdrowia. Aż 93% uczestników warsztatów wskazało, że wdrażanie nowych technologii powinno odbywać się etapami, poprzez stopniowe testowanie w mniejszych, kontrolowanych warunkach. Takie podejście minimalizuje ryzyko związane z ewentualnymi błędami w działaniu systemów AI, a także pozwala na ocenę ich wpływu na bezpieczeństwo pacjentów. Pilotażowe wdrożenia umożliwiają również testowanie technologii w różnych kontekstach medycznych, co jest szczególnie ważne w przypadku systemów diagnostycznych i terapeutycznych.

Trzecia hipoteza dotyczy elastyczności regulacyjnej, a w niektórych przypadkach nawet deregulacji niektórych przepisów, aby umożliwić szybsze wdrażanie innowacji. Przedstawiciele Akademii Leona Koźmińskiego zwrócili uwagę, że obecny system prawny nie nadąża za tempem rozwoju technologii, co prowadzi do opóźnień we wdrażaniu sztucznej inteligencji. W ramach dyskusji padła propozycja stworzenia nowych ram prawnych, które byłyby bardziej dostosowane do dynamicznie zmieniającego się rynku technologii medycznych. Przykładem może być uproszczenie procesu certyfikacji wyrobów medycznych opartych o AI, co pozwoliłoby na szybsze wdrażanie innowacyjnych narzędzi.

– Z powodu rosnących potrzeb zdrowotnych Polaków oraz topniejącej kadry medycznej, czas lekarzy jest coraz cenniejszy. Dlatego kluczowe w dyskusji o innowacyjnych wyrobach medycznych jest to, ile czasu lekarze mogą oddać do dyspozycji pacjentów. Trzeba liczyć, ile kosztuje płatnika to, że nie leczymy chorób, albo zbyt późno je diagnozujemy – mówiła Prof. Kolasa.

Polityka nie nadąża za technologiami

Niestety, debata nad konstruktywnym planem zmian finansowania rozwiązań cyfrowych szybko zeszła na polityczne potyczki.

Poseł Bolesław Piecha wyraził duży sceptycyzm wobec rosnącej roli sztucznej inteligencji w medycynie, obawiając się, że AI może stopniowo zastąpić lekarzy. Zwrócił uwagę, że algorytmy diagnostyczne mogą wykluczyć lekarzy z procesu leczenia, co budzi jego wątpliwości, szczególnie w kontekście standaryzacji leczenia. Poseł Demediuk skomentował, że MZ nie ma absolutnie żadnych planów, aby AI zastąpiło lekarzy.

Piecha dodał, że młodsze pokolenie nie dostrzega zagrożeń związanych z AI. Jego zdaniem, AI może przynieść efekty finansowe, ale nie zdrowotne. Zwrócił też uwagę, że trzeba stworzyć ramy prawne określające, kto ponosi odpowiedzialność za błędy AI.

– Kto będzie odpowiadał za błędy sztucznej inteligencji? Błędy się będą zdarzać, tak jak dzisiaj zdarzają się błędy lekarskie. […] Dzisiaj mamy fundusz, który pokrywa odszkodowania bez dochodzenia winy lekarza, ale jak będzie wyglądać odpowiedzialność w przypadku AI? – pytał poseł Piecha.

Ligia Kornowska, dyrektor zarządzająca Polskiej Federacji Szpitali i liderka Koalicji AI w Zdrowiu, przypomniała, że algorytmy sztucznej inteligencji są już legalnie stosowane w polskim systemie ochrony zdrowia. Według statystyk Centrum Zdrowia, na koniec 2023 roku 5% polskich szpitali stosowało AI, głównie w radiologii. Kornowska zwróciła uwagę na konieczność stworzenia ścieżki finansowania publicznego dla certyfikowanych algorytmów AI, zaznaczając, że Polska może wzorować się na praktykach brytyjskiego NHS. Dodała również, że Polska powinna aktywnie uczestniczyć w pracach unijnych nad regulacjami dotyczącymi AI, aby wspierać dalszy rozwój technologii w ochronie zdrowia.

Strategia Cyfryzacji Polski. A jednak będzie refundacja rozwiązań cyfrowych?

Kilka nowych szczegółów dotyczących cyfryzacji sektora zdrowia zawiera Strategia Cyfryzacji Polski, którą z końcem października przedstawił ją wicepremier i minister cyfryzacji Krzysztof Gawkowski, a która ustala ramy transformacji cyfrowej państwa na kolejne 10 lat. Dokument zakłada m.in. wsparcie sektora zdrowia poprzez zwiększenie cyberodporności placówek medycznych i przyspieszenie wdrażania e-dokumentacji medycznej.

Minister cyfryzacji Krzysztof Gawkowski prezentuje projekt Strategii Cyfryzacji Polski (zdjęcie:  PAP/Leszek Szymański)
Minister cyfryzacji Krzysztof Gawkowski prezentuje projekt Strategii Cyfryzacji Polski (zdjęcie:  PAP/Leszek Szymański)

Jednym z elementów strategii jest stworzenie Ogólnopolskiej Sieci Medycznej (OSM), na wzór Ogólnopolskiej Sieci Edukacyjnej, zbudowanej przez NASK. OSM ma zapewnić placówkom medycznym dostęp do szybkiej sieci telekomunikacyjnej, wyposażonej w zaawansowane narzędzia ochrony danych. NASK, jako instytut badawczy, miałby kontrolować ruch między siecią wewnętrzną a sieciami zewnętrznymi oraz blokować niebezpieczne połączenia, co pozwoliłoby zwiększyć ochronę przed cyberatakami. Badanie Centrum e-Zdrowia sugeruje, że aż 81% placówek zdrowia nie ma planu zarządzania podatnościami, a 68% nie wykonuje bezpiecznych kopii danych. Strategia zakłada też dofinansowanie szkoleń dla kadry zarządzającej oraz programów wsparcia cyberbezpieczeństwa wspieranych przez sektorowy zespół CSiRT w Centrum e-Zdrowia.

Rząd chce też przyspieszyć wdrażanie elektronicznej dokumentacji medycznej (EDM). Podczas prezentacji strategii, Krzysztof Gawkowski wspomniał, że planowane są zachęty dla podmiotów, które w kompleksowy sposób prowadzą EDM. Nie znamy jednak szczegółów, o jakie bonusy chodzi.

Minister cyfryzacji zapowiedział wykorzystanie nowoczesnych technologii opartych na sztucznej inteligencji do diagnozowania i leczenia. W planie jest m.in. wykrywanie 100 jednostek chorobowych przy pomocy AI do 2035 roku.

Strategia zakłada ponadto mechanizmy refundacji i ocenę koszto-efektywności technologii AI przez Agencję Oceny Technologii Medycznych i Taryfikacji. Możliwe będzie współpłacenie pacjentów za korzystanie z aplikacji zdrowotnych a nawet ich współfinansowanie przez firmy technologiczne w zamian za dostęp do danych.

Zgodnie z nowym artykułem 12 KEL, lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji pod warunkiem uzyskania świadomej zgody pacjenta 
Zgodnie z nowym artykułem 12 KEL, lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji pod warunkiem uzyskania świadomej zgody pacjenta 

Koalicja AI i Innowacji w Zdrowiu wraz z Ogólnopolską Izbą Gospodarczą Wyrobów Medycznych POLMED mają duże wątpliwości co do proponowanych zmian w Kodeksie Etyki Lekarskiej (KEL) dotyczących wykorzystania AI w diagnostyce i leczeniu. W piśmie do przewodniczącego Komisji Etyki Lekarskiej NRL Artura de Rosier postulują uwzględnienie kilku ważnych zmian.

Kontrowersyjny artykuł 12 KEL

Chodzi o interpretację artykułu 12 KEL, który nakłada na lekarzy obowiązek uzyskania świadomej zgody pacjenta na zastosowanie AI w procesie diagnostycznym lub terapeutycznym. Koalicja AI w Zdrowiu popiera ideę regulacji w tej dziedzinie, ale jednocześnie zwraca uwagę, że proponowana interpretacja jest zbyt restrykcyjna i może stwarzać „ryzyko potencjalnych nadużyć ze szkodą dla lekarzy, w których brak poinformowania o zastosowaniu systemu AI nawet o trzeciorzędnym w procesie opieki nad pacjentem znaczeniu stanowić będzie naruszenie zasad deontologii zawodowej.”

Autorzy pisma proponują rozróżnienie dwóch sytuacji:

  1. Gdy AI ma kluczowe znaczenie dla świadczenia medycznego, np. samodzielnie stawia diagnozę – wtedy pacjent powinien być poinformowany i wyrazić zgodę.
  2. Gdy AI pełni jedynie rolę pomocniczą, np. poprawia jakość obrazów medycznych – wtedy, zdaniem Koalicji, nie ma potrzeby uzyskiwania osobnej zgody pacjenta.

– Nie ma w naszej ocenie podstaw do przyjęcia, że o AI każdorazowo należy informować pacjenta tylko i wyłącznie dlatego, że to właśnie AI – argumentują Ligia Kornowska, Liderka Koalicji AI i Innowacji w Zdrowiu oraz Arkadiusz Grądkowski, Prezes Ogólnopolskiej Izby Gospodarczej Wyrobów Medycznych POLMED.

Zupełnie inne stanowisko przedstawiła Komisja Etyki Lekarskiej NIL w niedawno opublikowane interpretacji: „Jedną z podstawowych zasad wynikających z Kodeksu etyki lekarskiej jest poszanowanie autonomii pacjentów. Jej wyrazem jest spoczywający na lekarzach obowiązek uzyskania uprzedniej świadomej zgody na udzielenie świadczenia zdrowotnego (wynikający z art. 16 KEL) i obowiązek respektowania prawa pacjenta do świadomego udziału w podejmowaniu decyzji dotyczących ich zdrowia, w tym informowania pacjenta o korzyściach i ryzyku proponowanych działań diagnostycznych i leczniczych, a także o możliwościach zastosowania innego postępowania medycznego (wynikający z art. 14 KEL).”

Obawy o nadmierną biurokrację

Eksperci Koalicji obawiają się, że dosłowne rozumienie nowego przepisu mogłoby w praktyce oznaczać konieczność informowania pacjenta i pobierania od niego zgody na zastosowanie AI przed każdym standardowym badaniem obrazowym. Taki dodatkowy obowiązek administracyjny, niezwiązany z procesem leczenia, może wydłużyć czas wizyty pacjenta, bez wpływu na jakość opieki.

Koalicja podkreśla, że informowanie pacjentów o zastosowaniu AI powinno odbywać się zgodnie ze standardem wynikającym z obowiązującego prawa, które bazuje na zasadzie neutralności technologicznej.

„Kluczowe jest wzajemne zrozumienie pomiędzy lekarzem a pacjentem, a nie szczegóły techniczne wykorzystywanego systemu IT. AI stosowana w sposób wspierający proces diagnozowania czy leczenia może być traktowana po prostu jako kolejny wkład w proces rozumowania lekarza” – czytamy w stanowisku Koalicji AI w Zdrowiu i POLMED.

Propozycje zmian

Koalicja AI w Zdrowiu proponuje uzupełnienie komentarza do artykułu 12 KEL. Sugeruje m.in. wyraźne rozróżnienie sytuacji, w których zgoda pacjenta na zastosowanie AI jest wymagana, od tych, w których nie jest to konieczne.

„W naszej ocenie art. 12 KEL należy rozumieć w ten sposób, że obejmuje te sytuacje, w których lekarz intencjonalnie wykorzystuje systemy sztucznej inteligencji lub poleca pacjentowi wykorzystanie systemów sztucznej inteligencji w rozumieniu obowiązujących przepisów prawa w sposób, w którym proponowany przez lekarza algorytm AI ma kluczowy dla udzielanego świadczenia charakter, w tym samodzielnie wykonuje zadanie o charakterze klinicznym charakterystyczne dla wykonywania zawodu lekarza” – wskazują autorzy pisma.

Koalicja AI i POLMED proponują ponadto rezygnację z zapisu o udostępnianiu pacjentom instrukcji wyrobu medycznego AI, argumentując, że mogą one być niezrozumiałe dla odbiorców. Chodzi dokładnie o zapis „jeżeli pacjenci zażądaliby dodatkowych informacji, lekarz powinien udostępnić im informacje dostarczone przez producenta w instrukcji wyrobu medycznego AI”.

Przedstawiciele Koalicji AI w Zdrowiu oraz POLMED deklarują chęć spotkania i dokładniejszego omówienia tematu z Przewodniczącym Komisji Etyki Lekarskiej Naczelnej Rady Lekarskiej.

Niewyjaśnione kwestie AI

Wątpliwości wokół artykułu 12 KEL pokazują, jak złożonym i delikatnym tematem jest wprowadzanie sztucznej inteligencji do medycyny w obliczu braku jasnych regulacji prawnych. Z jednej strony, AI może znacząco poprawić jakość diagnostyki i leczenia, z drugiej – rodzi obawy o autonomię pacjenta i odpowiedzialność lekarza.

Koalicja AI w Zdrowiu i POLMED słusznie zwracają uwagę na potrzebę znalezienia równowagi pomiędzy prawami pacjenta i rozwojem technologii oraz wypracowania podejścia, które nie będzie hamować postępu technologicznego w medycynie, a jednocześnie zapewni pacjentom pełną transparentność procesu leczenia.

Ostateczny kształt regulacji etycznych dotyczących AI w medycynie będzie miał ogromne znaczenie dla podejście i zaufanie do sztucznej inteligencji, zarówno ze strony pacjentów jak i lekarzy.

W październikowym OSOZ dowiesz się, jak sztuczna inteligencja już dziś zmienia ochronę zdrowia i jak Ministerstwo Zdrowia planuje wykorzystać AI. Ponadto w numerze:

OSOZ 10/2024
OSOZ 10/2024

Spis treści:

Wszystkie wydania archiwalne dostępne są na zakładce POBIERZ.

Archiwum czasopisma OSOZ

1 20 21 22 23 24 120