Think Tank SGH opublikował raport “AI w zdrowiu” [POBIERZ]


Autorami raportu są eksperci Think Tanku SGH dla ochrony zdrowia, AI Lab oraz Fundacji na rzecz zrównoważonej ochrony zdrowia Medea
Autorami raportu są eksperci Think Tanku SGH dla ochrony zdrowia, AI Lab oraz Fundacji na rzecz zrównoważonej ochrony zdrowia Medea

86-stronicowy raport “Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce” prezentuje zastosowania oraz możliwości AI w sektorze ochrony zdrowia z uwzględnieniem pespektywy polskiego rynku zdrowia.

Medycyna. Nauka oparta na danych

Ochrona zdrowia jest sektorem, który generuje najwięcej danych. Paradoksalnie, większość z nich się dotąd marnowała. Powodem były opóźnienia w cyfryzacji, brak standardów wymiany informacji oraz silna silosowość informacji. Dzięki digitalizacji, która stała się priorytetem systemów zdrowia na całym świecie, obserwujemy szybki rozwój ekosystemu połączonych interoperacyjnych danych medycznych. I właśnie te zbiory danych są naturalnym surowcem, który sztuczna inteligencja jest w stanie przetworzyć na nowe rozwiązania wczesnej diagnostyki, prewencji chorób oraz leczenia.

Dane napędzają rozwój medycyny opartej na danych: AI analizuje już dostępne dane, ale jednocześnie pozwala przechwytywać nowe biomarkery dzięki urządzeniom ubieralnym. W efekcie naukowcy będą mogli przyspieszyć badania nad nowymi lekami, lekarze zyskają obiektywny i holistyczny obraz zdrowia (nie tylko choroby) człowieka, a pacjenci – nową wiedzą i kompetencje niezbędne do podejmowania świadomych decyzji zdrowotnych.

Jednak same dane nie wystarczą, aby AI nabrała rozpędu. Drugim elementem są urządzenia, systemy i aplikacje, które zaczynają wymieniać między sobą dane, komunikować się ze sobą – z tej synergii informacji z różnych źródeł generowana jest wiedza, której nie jest w stanie stworzyć żadne działające w izolacji urządzenie lub aplikacja.

Jak minimalizować zagrożenia złej AI i wspierać rozwój dobrej AI?

Ten proces wzajemnej akceleracji danych i AI przypomina reakcję jądrową – może z niej powstać energia poprawiająca jakość naszego życia i zwiększająca dobrobyt, ale pod warunkiem, że cały proces będzie nadzorowany. Tak samo jak reaktor jądrowy musi być chłodzony, aby nie doszło do przegrzania systemu. W języku angielskim mówi się o AI governance albo zarządzaniu scenariuszami przyszłości AI.

Sztuczna inteligencja żywi się nie tylko danymi z kartotek medycznych, ale także powstają systemy tzw. ambient intelligence ułatwiające gromadzenie i interpretowanie informacji – łącznie z mimiką – podczas wizyty pacjenta. Im bardziej inteligentne stają się nasze domy i urządzenia, AI może też analizować nasze zachowania, sposób korzystania z urządzeń mobilnych i internetu, profilować pacjentów i dzielić ich na grupy ryzyka. Dobrze administrowana rewolucja AI to realne wielkie postępy w ochronie zdrowia.

Ale niekontrolowane zbieranie i analizowane danych prowadzi do utraty prywatności, końca solidarnościowego systemu zdrowia, nierówności zdrowotnych, z konsekwencjami daleko wykraczającymi poza system zdrowia, jak dezintegracja społeczena i zmierzch opieki zdrowotnej opartej na podstawowych wartościach etycznych.

Przykładowe zastosowania AI w placówkach ochrony zdrowia (źródło: raport Think Tanku SGH)
Przykładowe zastosowania AI w placówkach ochrony zdrowia (źródło: raport Think Tanku SGH)

Regulacje AI są tak samo ważne jak inwestycje w AI

Dlatego rozwój AI potrzebuje solidnych ram prawnych. Takich, które z jednej strony będą chronić pacjentów i ich prywatność, ale również takich, które będą aktywnie wspierały rozwój korzystnych rozwiązań AI. Europa zrozumiała te wyzwania uchwalając Akt w sprawie sztucznej inteligencji (EU AI Act), a także przygotowując się do uruchomienia tzw. Europejskiej Przestrzeni Danych Medycznych (European Health Data Space).

Ramy stworzone przez dobrą legislację muszą być uzupełnione inwestycjami w infrastrukturę cyfrową i krajowe start-upy, edukację, tworzenie krajowych repozytoriów danych do trenowania algorytmów AI, celów naukowych i rozwoju nowych rozwiązań AI.

Polscy pacjenci są otwarci na innowacje, co udowadnia m.in. pomyślna realizacja dużych projektów cyfryzacji jak e-recepta, telemedycyna albo Internetowe Konto Pacjenta IKP. Aby byli tak samo otwarci na innowacje AI, muszą być pewni, że ich dane są wykorzystywnane w trasparentny, bezpieczny i etyczny sposób, otrzymując w zamian lepszą opiekę zdrowotną.

Jak wdrożyć AI w ochronie zdrowia? Rekomendacje

Autorzy raportu “Sztuczna inteligencja w zdrowiu. Bezpieczeństwo prawne i wykorzystanie w Polsce” proponują, co trzeba zrobić, aby zbudować sprzyjający ekosystem AI w ochronie zdrowia:

ZAUFANIE PACJENTÓW

  • Wdrożenie przepisów dotyczących ochrony danych w związku z wtórnym wykorzystaniem danych dotyczących zdrowia na potrzeby rozwoju systemów AI.
  • Wskazanie jednostki odpowiedzialnej za dochodzenie odpowiedzialności z przypadku szkód wyrządzonych przez systemu AI.
  • Szkolenia personelu medycznego w zakresie bezpiecznego i efektywnego korzystania z technologii AI w procesie diagnostyczno-terapeutycznym.

ROZWÓJ TECHNOLOGICZNY

  • Systemowe wsparcie w procesie dostarczania danych do trenowania modeli na poziomie krajowym, które warunkuje przewagę konkurencyjną firm rozwijających technologię w Polsce – z dochowaniem przepisów ochrony danych i zgód na wtórne wykorzystanie danych dotyczących zdrowia.
  • Zapewnienie odpowiedniego poziomu cyberbezpieczeństwa we wszystkich jednostkach dostarczających i przetwarzających dane do systemów AI.

OTOCZENIE PRAWNE

  • Dookreślenie definicji systemów AI wysokiego ryzyka w celu ujednolicenia sposobu kwalifikacji systemów w zakresie obowiązków dostawców lub użytkowników.
  • Ustalenie katalogu działań systemów AI mieszczących się w ramach zasad współżycia społecznego i dobrych obyczajów.
  • Przyjęcie na gruncie polskiego prawa jednolitego i przejrzystego modelu odpowiedzialności cywilnej za szkody wyrządzone przez systemy AI.
  • Określenie zasad odpowiedzialności za skutki wynikające z wewnętrznego funkcjonowania systemów AI, a także odpowiedzialności za skutki działania wywołanego przez niezależne czynniki zewnętrzne.

OCENA TECHNOLOGII MEDYCZNYCH I WYROBÓW MEDYCZNYCH OPARTYCH NA AI

  • Zaprojektowanie specjalistycznego procesu HTA dla AI, odnoszącego się do wszystkich elementów działania systemu (od procesu uczenia do rozwiązywania problemów) za pomocą systematycznej, bezstronnej, przejrzystej i obiektywnie rzetelnej metodologii.
  • Przyjęcie konsensusu w przedmiocie oceny i ewaluacji wyrobów medycznych opartych o AI.

ZRÓWNOWAŻONY ROZWÓJ

  • Przestrzeganie standardów etycznych we wdrażaniu AI.
  • Opracowanie strategii dotyczącej zrównoważonej ochrony zdrowia opartej na AI.
Raport "Sztuczna inteligencja w zdrowiu"