Profesor Benanti: Każdy w coś wierzy, niektórzy w AI


Paolo Benanti jest uznanym na świecie profesorem bioetyki zajmującym się kwestiami sztucznej inteligencji
Paolo Benanti jest uznanym na świecie profesorem bioetyki zajmującym się kwestiami sztucznej inteligencji

O sztucznej inteligencji w medycynie i związanych z nią moralnych dylematach rozmawiamy z Ojcem Paolo Benanti – Franciszkaninem, zakonnikiem i profesorem teologii moralnej, bioetyki i neuroetyki na Papieskim Uniwersytecie Gregoriańskim w Rzymie.

Co sprawia, że lekarz to ktoś wyjątkowy?

Od początku historii ludzkości medycynę rozumiemy jako dyscyplinę naukową. Był czas, kiedy ksiądz i lekarz to była ta sama osoba. Na stanowisko lekarza zawsze wybierano kogoś wyjątkowego w danej społeczności. Nie wystarczy, że lekarz jest człowiekiem. Przede wszystkim musi to być osoba, która jest zaangażowana w niesienie pomocy innym członkom wspólnoty w szczególnych momentach ich życia – wówczas gdy są chorzy, słabi, a czasem umierający.

Dzięki technologii i sztucznej inteligencji maszyny mogą zastąpić wiele czynności tradycyjnie wykonywanych przez człowieka. Pytanie, przed którym teraz stoimy, brzmi: Czy maszyny mogą wykonywać wszystkie zadania? W każdym społeczeństwie są szczególne zawody, które nie są przeznaczone dla każdego, wymagające ogromnego poświęcenia i oddania przez całe życie. To na przykład lekarze, sędziowie, policjanci. Wszyscy oni składają przysięgę, że zrobią wszystko, co w ich mocy, aby dobrze wykonywać powierzone im zadania.

Technologia jest coraz lepsza a sztuczna inteligencja potrafi już przykładowo ocenić ryzyko zgonu…

Zapytałbym, czy niektóre decyzje – i które – mogą być podejmowane przez AI? Na przykład, jeśli chcę pożyczyć pieniądze, idę do banku, rozmawiam z pracownikiem, który musi podjąć decyzję dotyczącą mojej wiarygodności kredytowej. Algorytm również może to zrobić i nie ma w tym nic złego.

Ale jeśli chodzi o pewne kluczowe kwestie, takie jak prawa podstawowe – a prawo do życia jest jednym z nich – zasługuję na decyzję człowieka, a nie algorytmu.

W złożonym środowisku medycznym tego rodzaju kalkulacje dotyczące przeżywalności determinują sposób leczenia i dalsze losy pacjenta. To nie jest prognoza dla samej prognozy. Taka decyzja wpływa na kolejne kroki, w tym na to, jakie leki lub wsparcie otrzyma pacjent, jak chory będzie traktowany i widziany przez lekarzy, osoby bliskie, rodzinę.

Pozwolę sobie na zmianę perspektywy: Wypadki spowodowane przez kierowców są czymś powszechnym. Gdyby jednak zapytać, czy maszyna może kogoś zabić z powodu błędu, sto procent ludzi odpowiedziałoby „nie”.

Jesteśmy świadomi tego, że jako ludzie mamy pewne ograniczenia, ale nie akceptujemy ograniczeń maszyn, które mogłyby doprowadzić do zabijania ludzi. Bo robot jest „czymś”, a nie „kimś”.

Wracając do relacji w medycynie. Czy jesteśmy gotowi zaakceptować tego rodzaju błędy? Co by się stało, gdyby maszyna przewidziała trzy miesiące życia, ale pacjent przeżyje dziesięć lat albo tylko jeden dzień. Czy jesteśmy w stanie zrozumieć taką pomyłkę, tak jak rozumiemy błędne prognozy lekarzy? Lekarz ma prawo do ludzkich słabości, a więc i popełniania błędów. Zdarza się bowiem, że pacjent, którego rokowania są bardzo złe, cieszy się jeszcze długim i szczęśliwym życiem. Są też sytuacje odwrotne. Mimo, że jesteśmy tego świadomi, że lekarz nie wie wszystkiego, relacja pacjent-lekarz powinna opierać się na relacji międzyludzkiej, jedynie wspomaganej przez maszyny.

Jak w takim razie budować systemy AI, aby były one „oparte na wartościach”, etyczne?

Musimy wziąć pod uwagę, że słowo „etyka” ma kilka znaczeń. Ktoś może mieć na myśli „etykę normatywną”, która mówi „nie rób tego czy tamtego”. Jeśli ktoś reprezentuje wąską interpretację etyki, prawdopodobnie trudno będzie znaleźć normę lub prawo, które byłoby w 100% akceptowalne na całym świecie. Ale etyka to coś znacznie więcej niż normy etyczne. To tak, jakby powiedzieć, że sprawiedliwość składa się tylko z przepisów prawa. Tak nie jest, bo sprawiedliwość to coś więcej niż przepisy.

Od Arystotelesa wiemy, że etyka jest cnotą. Jeśli zapytalibyśmy ludzi, czy wolą sprawiedliwy czy niesprawiedliwy system opieki zdrowotnej sterowany przez sztuczną inteligencję, wierzę, że wszyscy odpowiedzieliby „sprawiedliwy”. Z tej perspektywy, jeśli mamy szerokie rozumienie etyki w sensie cnót, możemy postrzegać ją jako strażnika, który nakreśla ścieżkę dla medycyny opartej na AI. A to rzuca inne światło na pytanie, które pan zadał. Z tej perspektywy nie musimy szukać powszechnie uznawanej normy czy prawa. Musimy znaleźć szereg wytycznych i granic, których maszyny nie mogą przekroczyć w procesie podejmowania decyzji w medycynie. Takie podejście jest o wiele łatwiejsze i bardziej akceptowalne jako wytyczne dla nowych rozwiązań.

Coraz szersze zastosowanie AI nazywa Ojciec „świtem nowej ery”. Co to oznacza?

Po pierwsze, musimy zdecydować, czy chcemy stworzyć nowy gatunek „machina-sapiens” czyli człowieko-maszyny i postawić go w darwinowskiej roli konkurencyjnej wobec homo-sapiens, człowieka. Jeśli stworzymy nowy gatunek, będziemy musieli z nim walczyć. I to jest negatywne w tym sensie, że mamy obsesyjno-kompulsywnego konkurenta – algorytm, który ma wąsko zdefiniowane cele, a do tego jest bardzo zdeterminowany, aby je osiągnąć.

Nowa, pozytywna era nadejdzie, jeśli będziemy tworzyć AI jako narzędzie rozszerzające ludzkie możliwości. W tym podejściu nie budujemy substytutu człowieka. Człowiek pozostanie w centrum, a wszystkie innowacje technologiczne będą uniwersalne i skalowalne, co zdemokratyzuje medycynę i poprawi jej jakość.

Podam przykład. Wyobraźmy sobie, że dysponujemy narzędziami sztucznej inteligencji, które pozwalają lekarzom na rozszerzenie ich umiejętności odczytywania i interpretowania obrazów medycznych. Najlepsi specjaliści w tym obszarze mogą pracować również bez pomocy algorytmów, podejmując celne decyzje oparte na wieloletnim doświadczeniu. Istnieje jednak wiele miejsc na świecie, zwłaszcza na obszarach wiejskich, gdzie jakość opieki medycznej jest niska, przede wszystkim z powodu braków infrastrukturalnych lub niedoboru pracowników służby zdrowia. Dzięki narzędziom opartym na AI możemy zdemokratyzować najlepsze praktyki analizy obrazów medycznych na całym świecie. Nawet lekarz rodzinny praktykujący z dala od dużych ośrodków akademickich może mieć możliwość podejmowania decyzji na maksymalnie precyzyjnym poziomie; takim, który wcześniej były dostępny tylko w wyspecjalizowanych klinikach zatrudniających najlepszych eksprtów. To naprawdę pozytywna zmian.

Inny przykład: jednym z największych wyzwań dla onkologa jest idealne dopasowanie metody leczenia do pacjenta, która uwzględniałaby ostatnio opublikowane badania naukowe. Jeśli weźmiemy pod uwagę, jak wiele opracowań naukowych pojawia się każdego roku, system AI mógłby wesprzeć lekarza w podejmowaniu decyzji i wyborze najlepszego możliwego scenariusza leczenia. Również w tym przypadku AI nie zastępuje lekarzy-ludzi, a jedynie rozszerza ich możliwości.

W obu przypadkach, o których wspomniałem, jest jeden podstawowy warunek: człowiek pozostaje w centrum. Jeśli zaprojektujemy system w charakterze konkurenta dla człowieka, prawdopodobnie w przyszłości będziemy mieli najgorszą możliwą medycynę.

Paolo Benanti

Jeśli systemy oparte na AI są wykorzystywane jako część ekosystemu lepszej opieki zdrowotnej, nie ma w tym nic złego.”

Wiele mówi się dziś o tzw. opiece zdrowotnej skoncentrowanej na człowieku. Co oznacza dla Ojca oznacza pacjentocentryczność w dobie nowych technologii?

Aby odpowiedzieć na to pytanie, powinniśmy sięgnąć do filozofii. Sokrates zwykł mawiać: „Poznaj samego siebie”. Miał przy tym na myśli to, że jako człowiek jesteś czymś więcej niż ciałem – masz także wewnętrzny świat uczuć, pragnień, lęków, doznań. Jeśli „poznaj siebie” staje się „poznaj swoje dane”, mamy kolejny rodzaj warstwy – warstwę zbudowaną z danych.

Opieka zdrowotna skoncentrowana na człowieku oznacza, że maszyna jest nie tylko optymalizatorem o określonej funkcji, ale musi być również zaprojektowana tak, aby rozumieć emocje i uczucia pacjenta, aby je szanować. Aby to zilustrować, możemy ponownie posłużyć się przykładem autonomicznych samochodów. Mamy prawo zakładać, że pewnego dnia nie będą one powodowały wypadków. Ale jeśli do takiego pojazdu wejdzie osoba wrażliwa, a samochód będzie jechał zbyt szybko, może ona poczuć się wręcz sterroryzowana przez maszynę. Czyli pojazd powinien dostosować się do człowieka, by nie być w sprzeczności z uczuciami pasażera. Albo odwrotnie – będą też bardziej odważni pasażerowie, dla których powolna, monotonna jazda będzie po prostu nudna. Wracając do służby zdrowia – technologia również musi być dostosowana do oczekiwań pacjentów. Dopiero wówczas stworzymy rozwiązania techniczne, które budzą szacunek.

Można to zobrazować jeszcze innym przykładem. Wyobraźmy sobie opartego na sztucznej inteligencji robota chirurgicznego do zaszywania ran po operacjach. Jeśli robot będzie to robił zbyt szybko, pacjent może się przestraszyć, myśląc: „Nie jestem kawałkiem tkaniny”. Jeśli jest zbyt wolny, niektórzy pacjenci mogliby poczuć, że jest zbyt niezdarny. Widzimy więc, że istotne jest postrzeganie człowieka jako czegoś więcej niż tylko ciała. Jesteśmy również istotami emocjonalnymi i technologia musi to uszanować.

Niektóre roboty lub wirtualni asystenci posiadają już tzw. „syntetyczną empatię”, dzięki której mogą wykrywać i reagować na emocje człowieka. Mówi się o jej zastosowaniu m.in. w awatarach lekarzy i pielęgniarek.

Z punktu widzenia kosztów, prawdopodobnie pewnego dnia użycie takich asystentów będzie tańsze. Ale możemy też rozwijać AI po to, aby pacjenci lepiej się poczuli będąc chorymi. I w tym przypadku jest to uzasadnione, bo wzmacnia relację lekarz-pacjent i chroni lekarza przed zbyt dużym obciążeniem emocjonalnym, być może nawet zapobiega wypaleniu zawodowemu.

Tego typu boty mogłyby również przypominać pacjentowi o konieczności zażycia leku, poprawiać stopień stosowania zaleceń lekarskich, informować lekarza o wykrytych nieprawidłowościach w parametrach zdrowia, a także rozpoznawać w głosie pacjenta oznaki stresu, aby pomóc personelowi medycznemu reagować w empatyczny sposób.

Jeśli systemy oparte na AI są wykorzystywane jako część ekosystemu lepszej opieki zdrowotnej, nie ma w tym nic złego. Ale jeśli rozwijamy wspomniane technologie, ponieważ traktujemy medycynę jak biznes i próbujemy optymalizować koszty, wówczas nie jest to w porządku.

W książce „Digital Age” stawia Ojciec pytania dotyczące „nowej formy człowieka w erze cyfrowej”. Kim są ludzie w epoce cyfrowej?

To jest wielkie pytanie. Tak zwany Test Turinga (red.: test badający sposób określania zdolności maszyny do posługiwania się językiem naturalnym i pośrednio mający dowodzić opanowania przez nią umiejętności myślenia w sposób podobny do ludzkiego) postawił pewną granicę.

Mówimy, że test jest zaliczony, jeśli nie potrafię odpowiedzieć na pytanie: „Kim Ty jesteś?”. To stawia po drugiej stronie odpowiednie pytanie: „Kim Ja jestem?”. Jeśli to, czy jestem biologiczną czy sztuczną inteligencją nie ma już znaczenia, co znaczy „być człowiekiem”? Pytanie o tożsamość pojawiło się po teście Turinga „za ścianą” – w tej metodologii nie ma już znaczenia, czy jesteś kimś, czy czymś.

Jeśli potrafię wykonać idealny duplikat monety o wartości jednego euro, to jej wartość wynosi jeden euro. Nikt nie jest w stanie dostrzec różnicy, liczy się tylko wartość, którą moneta reprezentuje. Ale jeśli mógłbym zrobić doskonałą kopię twojej osoby, to czy ta kopia jest dokładnie taka sama jak ty? Czy jest tobą?

Inny przykład – wyobraź sobie, że postawię przed tobą kaczkę i suszarkę do włosów. Są one mniej więcej podobne w kształcie. Jednak jeśli wyłączę suszarkę, mogę ją włączyć ponownie. Jeśli wyłączę kaczkę, nie mogę jej włączyć ponownie. Coś nie jest kimś. Bycie żywą istotną nie oznacza funkcjonować, ale istnieć.

W epoce cyfrowej pojawia się więc dodatkowe pytanie: Co to znaczy istnieć, a nie funkcjonować? Jak widzisz, jeśli spróbujemy zapomnieć o filozofii odpowiadając na wielkie pytania, to filozofia tak czy owak do nas wraca jak bumerang.

Czy w erze AI ludzie nie powinni dostosować się do nowych możliwości, jakie oferuje AI, definiując na nowo niektóre z ludzkich wartości?

To zawsze miało miejsce. Siedemdziesiąt tysięcy lat temu, ludzie częściej niż dziś przemieszczali się po świecie w poszukiwaniu lepszych warunków życia. I jako ludzie robiliśmy coś, co odróżniało nas i do dziś odróżnia od innych gatunków. Kiedy mamut przywędrował z Afryki na północ Europy, musiał długo czekać aż urośnie mu sierść, aby przetrwać w nowym, zimnym środowisku. Nie mógł przeskoczyć ograniczeń ewolucyjnych. Jednocześnie, 70 000 lat temu człowiek nie czekał aż obrośnie włosami, aby emigrować na północ Europy. Po prostu ubrał się w skórę mamuta.

Zawsze używaliśmy wynalazków, aby się przystosować do nowych warunków życia, zmienić siebie i rzeczywistość, w której żyliśmy. Odpowiedź na twoje pytanie brzmi: Dlaczego również nie dzisiaj? Do tego dodałbym jeszcze inny dylemat: Jak zagwarantować, że ta zmiana będzie korzystna, biorąc pod uwagę dzisiejsze, szybkie zmiany. Stara zasada ostrożności „Pomyśl dwa razy, zanim coś zrobisz” staje się szczególnie ważna i powinna być stosowana z wielką uwagą.

Technologia daje nam ogromną władzę. W pierwszych latach XX wieku próbowaliśmy się unicestwić za pomocą bardzo głupiej innowacji, czyli bomby atomowej. Ale ta władza nie jest kwestią inteligentnej technologii czy naszej inteligencji. Jeśli ta władza nie kieruje się zasadami etycznymi, może nas zniszczyć. Pułapką dzisiejszych czasów jest to, że pracujemy nad nowymi technologiami w takim tempie, że nie mamy czasu zastanowić się nad ich długoterminowym wpływem. I to może okazać się zgubne.

Zwolennicy transhumanizmu sugerują, że podczas gdy religie próbują dać nam odpowiedzi na wszystkie pytania, technologia pozwala odkrywać świat i wszechświat jak nigdy dotąd. Wiemy więcej, a dzięki technologii możemy się doskonalić, unowocześniać. Czy technologia jest więc nową religią?

Może nią być. Jeden z pierwszych filozofów, Heraklit, napisał: Bóg, który jest w Delfach, nie przemawia, nie krzyczy. On nadaje znaczenie rzeczom”. Analogicznie, Bóg, który jest w Google nie mówi, nie krzyczy. Nadaje sens danym. Wyrocznia delficka jest dziś nowym bogiem w moim telefonie komórkowym. Bogowie z panteonu – Bóg miłości, Bóg handlu i inni – zostali zastąpieni przez bogów w smartfonie: Tinder jako bóg miłości, Amazon jako bóg handlu i tak dalej. Są to nowe wyrocznie, którym poświęcam swoje dane w zamian za jakieś korzyści. Czy jest to zachowanie religijne? Myślę, że tak.

Każdy z nas w coś wierzy. Mogę zapytać: Czy wierzysz, że rzeczywistość, wszystko co nas otacza składa się z atomów? Nigdy nie widziałeś żadnego atomu, więc możesz tylko wierzyć, że atomy istnieją. A to znaczy – wierzysz w wiarygodne źródło, które powiedziało ci: „tak, atomy istnieją”. Jesteśmy istotami wierzącymi. Dzisiaj niewątpliwie rozwija się nowa wiara oparta na sile danych.

Czym to grozi?

Wiara oparta na danych bazuje na korelacjach. Możemy znowu sięgnąć do filozofii i zapytać: Czym jest prawda? Czym jest prawda w epoce pełnej korelacji? Jeśli istnieje korelacja pomiędzy parasolem a deszczem, to czy parasol wywołuje złą pogodę, czy wręcz przeciwnie? Jeśli zapytam Google, jaka jest najszybsza droga do konkretnego miejsca, do którego się chcę dostać, mapa Google po prostu koreluje, nie znając moich intencji, nie wiedząc dlaczego chcę pojechać w to miejsce. I to działa. W zamian za przyczynowość, dostaję korelację. Ale ten nowy model epistemologiczny nie jest jeszcze dobrze zbadany i możemy popełnić ogromne błędy. Zdarza się to również w nauce. Na przykład w przeszłości wierzono, że ciepło i iskry uwalniane podczas cięcia metalu nie są energią wyzwalaną w procesie cięcia, ale rodzajem ciepła i ognia uwięzionego w metalu. Taki sam błąd interpretacyjny możemy popełnić w przypadku korelacji, na których opieramy dzisiejszy punkt widzenia.

Czytaj także: Jak Instytut Matki i Dziecka w Warszawie eksperymentuje z AI