ChatGPT to największy eksperyment w dziejach ludzkości


Obecna wersja ChatGPT bazuje na ok. 100 bilionach parametrów czyli reguł, które pomagają modelowi tworzyć teksty
Obecna wersja ChatGPT bazuje na ok. 100 bilionach parametrów czyli reguł, które pomagają modelowi tworzyć teksty

Czy generatywna sztuczna inteligencja to genialny asystent lekarza czy groźny oszust? Wszechwiedzący doradca czy gadająca papuga powtarzająca nieudolnie wcześniej usłyszane słowa? O tym rozmawiamy z Prof. Giną Neff, dyrektor Centrum Technologii i Demokracji na Uniwersytecie w Cambridge.

Maszyna nigdy się nie denerwuje albo stresuje. Nie musi się spieszyć. Pamięta każdy piksel i każdą informację, nigdy nie zapomina. Zdaje egzaminy medyczne, diagnozuje pacjentów, pisze wypisy ze szpitala, odpowiada na pytania pacjentów. Trudno już nadążać za wszystkimi doniesieniami dotyczącymi generatywnej AI i modeli językowych oraz orientować się w postępach AI.

Ale co tak naprawdę potrafi AI? Odpowiedź jest prosta: analizować dane, identyfikować reguły i replikować je. Sztuczna inteligencja jest oszałamiającym arcydziełem inżynierii komputerowej, z którego skorzystamy wszyscy. Ale to także przełom technologiczny, który oznacza rewolucję społeczną.

Podczas wykładu „Making AI Work for Us” (Uczynić, aby AI pracowała dla nas) Profesor Uniwersytetu w Cambridge, Gina Neff, z jednej strony ostrzegła przed nienadzorowanym rozwojem sztucznej inteligencji napędzanym przez gigantów technologicznych i największym eksperymentem społecznym w dziejach ludzkości, z drugiej – uspokajała. Przyszłość nie będzie technokratyczna. Jakie ma na to argumenty?

  • Pesymistyczne wizje rozwoju AI opierają się na filmach science-fiction, a nie rzeczywistości;
  • Ludzie negocjują każdą innowację i wdrażają tylko te, które uważają za potrzebne i nieszkodliwe;
  • Generatywna AI kopiuje bez skrupułów teksty, obrazy i wiedzę. Możemy się spodziewać dużych rozpraw sądowych i zaskakujących wyroków;
  • W medycynie jesteśmy gotowi wybaczyć ludziom, ale nie algorytmom. Precyzja na poziomie 97% jest do zaakceptowania w przypadku ludzi, ale od robotów oczekujemy perfekcji;
  • Akceptujemy tylko te technologie, którym ufamy. Zła wiadomość jest taka, że ogólne zaufanie do instytucji i rządów spada w społeczeństwach zachodnich;
  • Możliwości AI mogą być imponujące, ale AI działa w sztucznym ekosystemie. Uczy się na podstawie danych, a nie rzeczywistych interakcji;
  • ChatGPT może mieć lepsze maniery niż lekarze, odpowiadając na pytania pacjentów. Jednak pacjenci otrzymują tylko sekwencję zdań wygenerowanych przez algorytmy wyszkolone do przewidywania następnego słowa lub frazy;
  • Algorytmy nie potrafią poruszać się po złożoności prawdziwego świata;
  • GPT jest modelem statycznym. Odpowiedzi, które otrzymujemy, nie są dostosowane do świata tu i teraz, kultury i przemian społecznych. Bez kontekstu sama wiedza jest czasami bezużyteczna;
  • Nawet wykładniczy wzrost sztucznej inteligencji ma swoje granice – wyczerpują się nam dane do trenowania modeli AI.

Generatywna sztuczna inteligencja przyspieszy zmiany w wielu dziedzinach życia w tempie, jakiego jeszcze nie doświadczyliśmy, ale nie wszystkie karty są rozdane.

Oto nasz wywiad z Profesor Giną Neff.

Gina Neff
Gina Neff

Badanie przeprowadzone na Uniwersytecie Kalifornijskim w San Diego wykazało, że ChatGPT cechuje większa empatia niż lekarzy. Co to oznacza dla opieki zdrowotnej w przyszłości?

Ludzie potrzebują zaufanych, opartych na dowodach i dokładnych informacji, aby podejmować dobre decyzje dotyczące ich zdrowia.

Nowe narzędzia AI to szansa na nowe sposoby dostarczania informacji. Ale z drugiej strony rośnie szansa popełnienia błędów, manipulacji i pomyłek, które są kosztowne i potencjalnie śmiertelne. I to na masową skalę.

Skoro zaufanie jest tak ważne, co zrobić, aby ludzie zaufali sztucznej inteligencji?

Zaufanie to bardzo delikatny i złożony obszar. Gdy technologie AI przynoszą nam korzyści, mogą z czasem stworzyć niewidzialną infrastrukturę naszego codziennego życia. Nie zadajemy sobie pytań, czy „ufamy” Netflixowi polecającemu nam kolejne filmy do obejrzenia, bo korzyści płynące z rekomendacji AI dla rozrywki znacznie przewyższają potencjalne zagrożenia. Sprawy stają się bardzie skomplikowane, gdy systemy sztucznej inteligencji są wykorzystywane do ocen ludzi, podejmują za nich decyzje bez ich wiedzy.

A czy Pani zaufałaby chatbotowi AI, który ma dostęp do najnowszych badań i może porównywać dane milionów pacjentów, aby stworzyć oparty na faktach spersonalizowany plan leczenia?

Nie do końca, bo choć AI może być doskonała, problem pojawia się na poziomie danych. Modele AI w opiece zdrowotnej to „systemy wspomagania decyzji”, w których dobrej jakości informacje są syntetyzowane, aby pomóc w niczym innym jak podejmowaniu dobrych decyzji.

Jednak badania i dane, na podstawie których tego typu systemy są trenowane, nie reprezentują najczęściej wszystkich grup społecznych. Na przykład, w badaniach klinicznych najczęściej uczestniczą osoby mające dostęp do uniwersyteckich szpitali badawczych i spełniające wymagania dotyczące włączenia do badania. Wiele grup jest marginalizowanych. Oznacza to, że nawet najlepsza synteza danych nadal pozostawia wiele osób poza równaniem matematycznym, z którego korzysta generatywna AI.

Jakie praktyczne zastosowania widzi Pani dla dużych modeli językowych, takich jak ChatGPT, w opiece zdrowotnej? A które z nich są tylko medialnym szumem?

Istnieje wiele praktycznych zastosowań sztucznej inteligencji. Niestety, w zamieszaniu wokół ChatGPT tracimy z oczu ogromne postępy w innych typach modeli głębokiego uczenia, które mogą pomóc klinicystom w zarządzaniu dużymi zbiorami danych i obrazów diagnostycznych.

Obecnie duże modele językowe nadal wymagają indywidualnego nadzoru ze strony przeszkolonych specjalistów medycznych, aby wyeliminować błędne lub sfałszowane informacje, które często generują. Generatywna sztuczna inteligencja nie jest jeszcze gotowa do stosowania w placówkach zdrowia. Za to inne rodzaje sztucznej inteligencji są z powodzeniem wykorzystywane w usługach obrazowania diagnostycznego, w badaniach laboratoryjnych i monitorowaniu zdrowia pacjentów.

Czy uważa Pani, że duże firmy technologiczne, jak Google czy Microsoft, oferujące algorytmy AI, będą odgrywać coraz ważniejszą rolę w opiece zdrowotnej?

Już teraz chcą one odgrywać ważną rolę w opiece zdrowotnej, interpretując problemy związane z opieką zdrowotną w charakterze problemów z dostępem do informacji. Ale większość ludzi na pierwszej linii ochrony zdrowia wie doskonale, że informacja jest tylko częścią opieki.

Nasze badania na temat „pracy z danymi” w opiece zdrowotnej pokazują, że tradycyjni dostawcy usług medycznych mają dużo do nadgonienia w zakresie gromadzenia danych i ich analizy, a następnie przekuwania tej wiedzy na lepszą opiekę nad pacjentem. Czas pokaże, czy big tech będzie w stanie przejąć ten obszar ochrony zdrowia.

Powinniśmy się bać rozwoju AI czy cieszyć się z niego?

Jesteśmy na wczesnym etapie sprawdzania, czy i w jaki sposób sztuczna inteligencja może przyczynić się do stworzenia sprawiedliwych i równych społeczeństw cyfrowych. Jestem optymistką – myślę, że ludzie wykorzystają AI do stworzenia lepszej i zdrowszej przyszłości.

Profesor Gina Neff podczas dyskusji „Making AI work for us”
Profesor Gina Neff podczas dyskusji „Making AI work for us”

Czytaj także: Generatywna AI to punkt zwrotny w medycynie. Wywiad z Johnem Nosta