Nature: Generatywna AI wchodzi do medycyny. Jest jedno “ale”


Potencjalne oszczędności wynikające ze sztucznej inteligencji w amerykańskim sektorze opieki zdrowotnej mogą wynieść od 200 do 360 mld USD rocznie.
Potencjalne oszczędności wynikające ze sztucznej inteligencji w amerykańskim sektorze opieki zdrowotnej mogą wynieść od 200 do 360 mld USD rocznie.

Duże modele językowe, takie jak ChatGPT, mogą wkrótce stać się podstawowymi narzędziami do diagnozowania i leczenia pacjentów. Aby były bezpieczne, muszą być tworzone przez placówki medyczne i systemy zdrowia, a nie tylko prywatne koncerny jak OpenAI – donosi czasopismo naukowe Nature.

Generatywna AI dla zdrowia

Duże modele językowe (LLM) zachwycają swoimi możliwościami. Pomagają tworzyć dokumentację medyczną, wypełniać formularze do celów administracyjnych, trafnie podpowiadają diagnozy i sposób leczenia.

W marcu 2022 roku, naukowcy z Microsoftu opisali, jak GPT-4 – który przecież nie przeszedł specjalistycznego szkolenia medycznego – zdaje z doskonałym wynikiem testy medyczne, w tym amerykański medyczny egzamin licencyjny. W lipcu 2023 roku ukazało się badanie pokazujące, że lekarze preferują notatki kliniczne generowane przez GPT-4 od tych pisanych przez ich kolegów. Do tego GPT-4 zdaje egzaminy w niektórych specjalistycznych dziedzinach, jak np. neurochirurgia. Z kolei jesienią 2023 roku głośny był przypadek poprawnej diagnozy postawionej przez ChatGPT, po tym jak chłopcu nie potrafiło pomóc 17 lekarzy.

Wdrażanie LLM to też inwestycja finansowa: szacuje się, że potencjalne oszczędności wynikające ze sztucznej inteligencji w amerykańskim sektorze opieki zdrowotnej mogą wynieść od 200 do 360 mld USD rocznie.

Ale generatywna AI ma też swoje wady, wśród których są halucynacje czy nieaktualność wiedzy – poprzednia wersja ChatGPT obejmowała wiedzę do września 2021 roku, nowa – do kwietnia 2023 roku. Trzeba też pamiętać, że LLM bazują na ogromnej bazie danych z Internetu. Oznacza to, że mogą być one stronnicze lub nie reprezentować precyzyjnie lokalnej specyfiki. Do tego nikt tak naprawdę nie wie, jak ChatGPT podejmuje decyzje, bo liczba zaangażowanych parametrów liczona jest w miliardach. Dopóki LLM są rozwijane w nietransparentny sposób, dużym wyzwaniem będzie bezpieczne zastosowanie technologii w opiece zdrowotnej.

Wielu dostawców LLM, w tym OpenAI, korzysta z zamkniętego interfejsu programowania aplikacji (API). Na przykład transkrybowana rozmowa pomiędzy pacjentem a lekarzem jest wysyłana do zewnętrznego serwera, po czym zwrotnie przekazywany jest wynik obliczeń. W efekcie, użytkownicy nie mają dostępu do metody, według której dane zostały przetworzone. Nie wiedzą, co dzieje się z danymi i czy są odpowiednio chronione; nie mają wglądu do tego, jak LLM są opracowywane i kontrolowane za zamkniętymi drzwiami korporacji, które oferując tak potężne narzędzia mają bezpośredni wpływ na zdrowie ludzi.

Dlatego konieczne jest bardziej inkluzyjne i transparentne podejście do tworzenia AI dla ochrony zdrowia. Tak, aby modele AI były tworzone nie tylko przez inżynierów, ale również środowisko medyczne i naukowe, w tym pacjentów oraz aby instytucje ochrony zdrowia mogły budować własne modele w oparciu o bezpieczne przetwarzanie lokalnych danych.

Podmioty medyczne muszą współtworzyć własne modele

Czasopismo Nature proponuje stworzenie globalnego konsorcjum naukowców z instytutów badawczych, środowisk akademickich i przemysłu w celu rozwoju modeli sztucznej inteligencji dla ochrony zdrowia. Zwłaszcza, że coraz więcej firm pracuje nad włączeniem LLM do medycyny. Przykładowo, Microsoft współpracuje z Epic – głównym dostawcą oprogramowania do generowania elektronicznej dokumentacji medycznej w USA – aby wdrożyć LLM do pracy lekarzy. W 2023 roku Google ogłosiło partnerstwo z Mayo Clinic, Amazon Web Services uruchomił HealthScribe, czyli usługę generatywnej sztucznej inteligencji (AI) do gromadzenia dokumentacji klinicznej, a prywatny kapitał zainwestował 50 mln USD w amerykański start-up Hippocratic AI, który opracowuje LLM dla opieki zdrowotnej.

Pośpiech we wdrażaniu gotowych, zastrzeżonych rozwiązań LLM sprawia, że instytucje opieki zdrowotnej i inne organizacje ryzykują oddaniem kontroli nad procesami interesom korporacyjnym. Opieka medyczna może szybko stać się zależna od LLM zaangażowanych w tworzenie dokumentacji, diagnozę i leczenie, podczas gdy komercyjne modele mogą być modyfikowane bez wiedzy użytkowników, a nawet wyłączane bez uprzedzenia, jeśli usługa będzie nieopłacalna.

Potrzebne są inwestycje w AI

Widać pierwsze inicjatywy mające na celu publiczne inwestycje w AI. W rozporządzeniu wykonawczym w sprawie sztucznej inteligencji podpisanym przez Prezydenta USA Joe Bidena, Departament Zdrowia i Opieki Społecznej USA oraz Departament Spraw Weteranów USA mają przeanalizować, jak bezpiecznie wdrożyć sztuczną inteligencję w opiece zdrowotnej. W Wielkiej Brytanii Narodowa Służba Zdrowia (NHS, National Health Service) przeznaczyła ponad 123 miliony funtów na rozwój i ocenę sztucznej inteligencji oraz 21 milionów funtów na jej wdrożenie. Unia Europejska przeznaczyła 60 milionów euro na badania nad sztuczną inteligencją w opiece zdrowotnej i jej wdrażanie.

Publiczne inwestycje w AI mają jeszcze jeden atut: ochrona zdrowia dysponuje dużymi repozytoriami danych, które można by wykorzystać do trenowania nowych modeli AI dopasowanych do lokalnych potrzeb, opartych na danych z badań naukowych.

W Polsce temat AI w ochronie zdrowia jest na razie mocno zaniedbany – inwestycyjne i legislacyjnie. „Polityka dla rozwoju sztucznej inteligencji w Polsce” została opracowana jeszcze przed pojawieniem się dużych modeli językowych i już straciła na aktualności. Biała Księga AI w Praktyce Klinicznej stworzona przez Koalicję AI w Zdrowiu nie doczekała się większego zainteresowania ze strony Ministerstwa Zdrowia po jej publikacji w czerwcu 2022 roku. Wszyscy czekają na unijny AI Act, który posłuży jako podstawa do dalszych działań regulacyjnych. Jedyną inicjatywą godną uwagi jest powstanie 18 regionalnych Centrów Medycyny Cyfrowej w ramach projektu Agencji Badań Medycznych.

Na podstawie artykułu „Generative AI could revolutionize health care – but not if control is ceded to big tech”, czasopismo Nature.

Czytaj także: 17 lekarzy nie potrafiło zdiagnozować chorego chłopca. Zrobił to ChatGPT