Prof. Bryson: Przeceniamy rolę AI w medycynie


Joanna Bryson bada wpływ technologii na człowieka
Joanna Bryson bada wpływ technologii na człowieka.

Czy AI może nauczyć się empatii? Czy robot może być lepszy niż lekarz? Wywiad z Joanną Bryson, profesorem etyki i technologii w Hertie School w Berlinie.

Czy możliwe jest zbudowanie systemu AI autonomicznie podejmującego decyzje podobnie jak lekarze? Inaczej mówiąc: takiego, który zastąpiłby lekarzy.

Wiemy już, że można wykorzystać sztuczną inteligencję do podejmowania decyzji w bardzo konkretnych obszarach. Przykładowo, aby łączyć ze sobą informacje z wielu źródeł, znaleźć dane i korelacje w dokumentacji medycznej i dobrać odpowiednie kroki postępowania.

Ale bycie lekarzem to coś o wiele więcej niż podejmowanie decyzji.

Geoffrey Hinton powiedział w 2016 roku, że nie powinniśmy już kształcić radiologów, ponieważ uczenie maszynowe jest lepsze w wykrywaniu zmian na zdjęciach rentgenowskich. AI jest lepsze niż ludzkie oko. W rzeczywistości zapotrzebowanie na radiologów nie zmalało. Wręcz przeciwnie, nawet wzrosło, bo każdy radiolog jest cennym zasobem, a AI po prostu poprawia jakość ich pracy.

Opieka zdrowotna wychodzi daleko poza proste podejmowanie decyzji, odpowiadanie na pytania pacjentów, a praca lekarza jest niezwykle skomplikowana.

Skoro lekarza wyróżnia empatia i komunikacja z pacjentami, to czy AI możemy nauczyć tych cech?

Maszyna nigdy nie wykształci w sobie empatii w oparciu o swoje doświadczenie, może jedynie naśladować zachowania innych ludzie w konkretnych sytuacjach.

Na przykład, jeśli kupujesz książkę lub film, system sprawdza inne osoby, które mają takie same preferencje, a następnie sugeruje, że skoro podobała im się ta lub inna książka, więc również i ty powinieneś ją kupić.

W analogii do maszyn-lekarzy można by zastosować podobny mechanizm. Robot mógłby pomyśleć: „miałem innego pacjenta, który tak czuł, więc powinienem się zachować zgodnie z tamtą sytuacją”. To jednak nie to samo, co empatia człowieka, na którą składa się szereg innych elementów niż tylko i wyłącznie dane.

Ważne abyśmy zrozumieli, że każdy system AI jest artefaktem, którym ktoś zbudował.

Możesz powiedzieć: „OK, ale AI sama się nauczyła”. Nie, sztuczna inteligencja sama się nie uczy. Ktoś zaprojektował ją do nauki. Każdy istniejący system AI nie tylko jest tworzony przez ludzi, aby się uczyć, ale też trenowany i rozwijany przez człowieka. Żywi się go danymi, reguluje parametry działania. I tak aż do momentu, kiedy powstaje docelowy system AI. Jest to więc proces od początku do końca zakładający zaangażowanie człowieka. Nic tu nie powstaje z siebie samego, nic tu nie rodzi się z niczego.

Ale zaprogramowana empatia to też empatia czy nie?

Empatia robota jest empatią programisty, empatią ludzi, na danych których AI powstała lub empatią pracownika służby zdrowia, który używa AI. Uczucia lub ich brak można wyrazić za pomocą maszyny, ale maszyna nie jest współczującym bytem, ​​ale jedynie wyraża określony, zaplanowany stan.

Zwykle posługuję się tutaj analogią do moralności: kiedy działasz w moralny sposób, nie czyni cię to jeszcze moralną osobą. Może dane działanie było częścią twojej pracy, powiedziano ci, że coś masz zrobić w pewien określony sposób. Podobnie w przypadku maszyn – sposób działania jest narzucany z góry, nie jest wyborem robota.

Jeśli ktoś mówi, że „robot naprawdę troszczy się o niego”, jest w błędzie. O wiele bliższe prawdy jest powiedzenie, że „moja mama naprawdę troszczy się o mnie, bo kupiła mi robota” lub „system opieki zdrowotnej  dobrze wykorzystuje roboty, aby zadbać o moje zdrowie.”

Nawet jeśli to zaufanie wynika z doskonałości maszyn?

Zbudowane przez omylnych ludzi maszyny również są omylne. Wierzymy w mit doskonałych maszyn. Dzieje się tak, ponieważ jesteśmy przyzwyczajeni do myślenia o maszynach jako tworach matematycznych. A matematyka jest logicznie spójna i dokładna. To jednak tylko część prawdy.

Maszyny oparte o AI uczone są na danych, które zawierają dużo błędów.

Poza tym pułapką jest myślenie, że roboty rozwiążą wszystkie problemy. Weźmy przykład autonomicznych samochodów. Szacunkowo, dwa miliony osób rocznie ginie w wyniku wypadków samochodowych. Tę liczbę można obniżyć do około dwustu tysięcy wykorzystując pojazdy kierowane przez AI.

Ale w tym przypadku będzie to dwieście tysięcy innych osób – innych niż te, które zginęłyby w klasycznych pojazdach. Jak sobie z tym poradzimy?

Czy powinniśmy być pesymistami, czy raczej optymistami, jeśli chodzi o AI?

Tu nie chodzi o samą technologię. Chodzi o sposób jej wdrożenia, etycznego wykorzystania danych, dystrybucji korzyści z AI w społeczeństwie. Wiemy z przeszłości, że każda przełomowa technologia transformuje społeczeństwa. W jaki sposób? O tym decydujemy my, a nie sama innowacja.

Ostatecznie jednak, ludzie, ich potrzeby i pragnienia nie zmieniają się tak bardzo.

Czytaj także: Profesor Benanti: “Każdy w coś wierzy, niektórzy w AI”