Sztuczna inteligencja? Lekarze nie mają się czego obawiać


Piotr Sankowski jest profesorem w Instytucie Informatyki na Uniwersytecie Warszawskim
Piotr Sankowski jest profesorem w Instytucie Informatyki na Uniwersytecie Warszawskim

Rozmowa z Prof. UW dr hab. Piotrem Sankowskim z Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego, CSO w MIM Solutions oraz CEO w IDEAS NCBR – ośrodku badawczo-rozwojowym działającym w obszarze AI i ekonomii cyfrowej.

Jakie są możliwości, a jakie ograniczenia AI w medycynie?

Sztuczna inteligencja długofalowo może zrewolucjonizować wiele aspektów medycyny.

W szczególności, dzięki rozwojowi metod diagnostycznych mamy szansę na stworzenie ustandaryzowanych metod leczenia i uniknięcia pewnych rodzajów błędów, czy zagwarantowanie optymalnych metod leczenia. Chodzi tutaj o zapewnienie każdemu pacjentowi spersonalizowanej i zawsze najlepszej ścieżki leczenia. Taka spersonalizowana medycyna wymaga właśnie użycia metod analizy statystycznej, które dominują we współczesnych technikach AI.

Obecnie stosowane systemy AI możemy rozumieć jako takie maszynki, które są wstanie znaleźć istotne korelacje, czy reguły w ogromnych zbiorach danych. Natomiast ludzie są tak skonstruowani, że mamy ogromne problemy z oceną znaczenia zdarzeń mało prawdopodobnych. Posłużę się prostym przykładem: granie w ruletkę jest postrzegane jako coś ryzykownego, a granie w Lotto jako całkiem sensowne. Prosta analiza statystyczna mówi, że sensowniej jest grać w ruletkę – AI nie ma problemów z jasnym określeniem prawdopodobieństwa wygranej.

Musimy być jednak świadomi, że w żadnym rozsądnym przedziale czasowym AI nie zastąpi lekarzy. W tym momencie techniki, które potrafimy tworzyć, nadają się tylko i wyłącznie do roli asystentów, czyli takich doradców, którzy mogą dla przykładu powiedzieć „pamiętaj aby zadać pacjentowi jeszcze to pytanie”, „coś mi tu nie gra na tym zdjęciu rentgenowskim”, czy „oceniam, że proponowana ścieżka leczenia zakończy się sukcesem z takim prawdopodobieństwem”. Natomiast nawet to wymaga jeszcze wiele pracy, a przede wszystkim uwolnienia do badań statystycznych danych medycznych.

Musimy dążyć do tego, abyśmy dzielili się w Polsce danymi medycznymi, oczywiście odpowiednio zanonimizowanymi. Jest to klucz do dalszego rozwoju tych metod, a bez dostępu do polskich danych medycznych, nie powstaną algorytmy, które stosują się do polskiej populacji. Od kilku lat wiadomo, że wiele błędów popełnianych przez systemy AI wynika z tego, że próbujemy je zastosować do przypadków/populacji, na których systemy te nie były wytrenowane.

Czy algorytmy są w stanie z większą dokładnością niż lekarze analizować zdjęcia medyczne lub wyszukiwać zależności w danych medycznych pacjenta? Na ile dokładne są takie obliczenia?

Jeżeli chodzi o analizę zdjęć medycznych to tutaj istnieją jeszcze duże wątpliwości, czy komputery robią to
lepiej niż ludzie. W ostatnich latach nie brakowało sensacyjnych doniesień, że algorytmy rozpoznawania obrazu np. lepiej diagnozują zapalenie płuc niż lekarz. Często jednak okazywało się, że w trakcie tworzenia i uczenia tych algorytmów popełnianie były pewne błędy, które wprowadzały nieoczekiwane i szkodliwe uprzedzenia.

Dla przykładu, jeden z takich algorytmów podejmował decyzję na podstawie numeru seryjnego maszyny, na której wykonane było zdjęcie. Jeżeli była to starsza maszyna, to szansa, że algorytm dojrzy zapalenie płuc, była wyraźnie większa. Wynikało to z tego, że część danych pochodziła z biednych krajów, w których były używane starsze maszyny, gdzie więcej ludzi choruje na zapalenie płuc. Ponieważ w danych była taka korelacja, to algorytmy ją wychwyciły. I tu dochodzimy do głównego paradoksu w użyciu współczesnych systemów AI – systemy te świetnie odnajdują korelacje, ale nie rozumieją, co z czego wynika.

Dobitnym przykładem możliwych do popełnienia tutaj błędów jest na pewno próba zautomatyzowania procesu rekrutacji przez Amazon, gdzie algorytm nauczył się wielu stronniczych przesłanek, np. dyskryminował kobiety grające w szachy. Trzeba podkreślić, że w tym momencie nie znamy skutecznych technik jak tworzyć algorytmy sztucznej inteligencji, które będą wolne od tego typu ograniczeń.

Z tego powodu algorytmom sztucznej inteligencji nie możemy powierzyć podejmowania ważnych decyzji; możemy ich używać jedynie jako doradców, którzy mogą właśnie tak jak mówiłem wcześniej, wskazywać na pewne zależności. Natomiast interpretacja znaczenia tych korelacji powinna należeć do człowieka, któremu wręcz trzeba za każdym razem przypominać, że współpracuje z maszyną. Zresztą taka ułomność AI jest też istotna w innych zastosowaniach, np. kierowaniu pojazdami autonomicznymi.

W tym momencie producenci nie są w stanie nas zapewnić, że taki pojazd nigdy nie podejmie decyzji, że należy z pełną prędkością wjechać w ścianę. Natomiast, jest wiele zastosowań, gdzie te wymagania nie są kluczowe, a od algorytmów wymagamy podejmowania wielu, ale tak naprawdę „tanich” decyzji. Dla przykładu, AI świetnie sprawdza się w podejmowaniu decyzji o zakupie przestrzeni ogłoszeniowej w internecie. W tym przypadku aukcje tych przestrzeni reklamowych trwają dziesiątki milisekund i wręcz z założenia nie może w nich brać udziału człowiek. Co ważniejsze, nie bolą nas błędy AI, która czasami niepotrzebnie wyda jedną złotówkę więcej na jakąś reklamę.

Prawdopodobnie w wielu zastosowaniach jesteśmy w stanie tolerować pewne niepoprawności algorytmów, czy wbudowaną w nie tendencyjność. Pewnie nie będziemy się głęboko zastanawiać, dlaczego robot pakuje czarne przedmioty szybciej od białych, tak długo jak robi to lepiej, szybciej i taniej niż człowiek.

AI ma potencjał, aby zrewolucjonizować wiele dziedzin naszego życia, ale na pewno jesteśmy dalecy od tego, aby stało się to w przypadku diagnostyki, czy medycyny. Przez najbliższe lata AI będzie co prawda nas wspierała, np. wykonując proste czynności, ale na pewno nie zastąpi człowieka. Moim zdaniem AI ma szansę uczynić pracę lekarza dużo mniej żmudną i zdjąć z niego obowiązek wykonywania powtarzalnych czynności. Dla przykładu, w programie INFOSTRATEG przewidzieliśmy – mówię to jako członek Rady NCBR – konkurs dedykowany stworzeniu inteligentnego asystenta dla lekarzy, który byłby w stanie automatycznie wypełniać formularz wywiadu lekarskiego.

Jednym z wyzwań związanych z systemami opartymi na AI jest to, że nie wiemy, dlaczego algorytm podjął taką, a nie inną decyzję. Czy ten problem będzie można rozwiązać w przyszłości?

Jest to jedno z kluczowych pytań, jakie teraz nurtuje badaczy i powstało wiele technik, które już teraz dostarczają pewnych wskazówek, dlaczego algorytmy podjęły taką, a nie inna decyzję. Tylko, że jeżeli próbujemy stosować te techniki do istniejących metod, to rzadko otrzymamy zadowalające odpowiedzi.

Mogłoby się wydawać, że skoro systemy AI tworzone są na wzór działania rzeczywistych sieci neuronowych, czyli pośrednio na wzór działania naszych mózgów, to podejmują decyzje w podobny sposób jak my. Niestety nic bardziej mylnego – okazuje się, że współczesne systemy AI to taki obcy, którego nawet nie mamy szans zrozumieć. Rozpoznaje on kota od psa na zdjęciu, nie po kształcie uszu, czy nosa, ale po tym, że jakieś dwa określone piksele na zdjęciu w dziwny sposób ze sobą korelują. Ponieważ systemy AI są świetne w szukaniu korelacji, to znajdują ich bardzo dużo i większość z nich w żaden sposób nie jest zrozumiała dla człowieka.

Aby zrozumienie decyzji systemów AI było możliwe, musimy wytworzyć nowe techniki uczenia sieci neuronowych, a ogólnie, nowe techniki tworzenia algorytmów AI, które będą zakładały, że człowiek ma ją być w stanie pojąć. W szczególności czeka nas era intensywnych badań nad AI i bardzo ważne jest, aby Polska także brała w nich udział. Musimy zainwestować i stworzyć nowy instytut sztucznej inteligencji, bo bez tego za kilka lat nie będziemy w stanie brać udziału w wyścigu technologicznym.

W pierwszej połowie roku 2021 zaczął swoje działanie IDEAS NCBR, który jest nowym ośrodkiem badawczo-rozwojowym działającym w obszarze sztucznej inteligencji i ekonomii cyfrowej. IDEAS dąży do przeniesienia zachodnich wzorców funkcjonowania instytucji badawczych do Polski. W szczególności bazujemy na doświadczeniach Instytutów Maxa Plancka w Niemczech, które w wielu wypadkach oferują tylko stanowiska na czas określony dedykowane realizacji konkretnych projektów. Dzięki takiemu podejściu, efektywnie wzmacniają one system akademicki oraz umożliwiają skutecznie kształcenie młodych badaczy. Także IDEAS tak działa i właśnie rusza ze swoim naborem na wspólne studia doktorskie.

Ten i 15 innych wywiadów znajdziesz w bezpłatnym raporcie INNOWATORZY >