Prof. Przegalińska: AI i lekarz mogą się świetnie uzupełniać


Prof. Aleksandra Przegalińska prowadzi badania nad AI m.in. na Uniwersytecie Harvarda
Prof. Aleksandra Przegalińska prowadzi badania nad AI m.in. na Uniwersytecie Harvarda (zdjęcie: CampusAI)

Sztuczna inteligencja zachwyca i jednocześnie przeraża. Co tydzień słyszymy o kolejnych modelach, narzędziach i trendach. Ale co naprawdę AI oznacza dla nas, ludzi? O to pytamy prof. dr. hab. Aleksandrę Przegalińską, filozofkę, badaczkę AI na Uniwersytecie Harvarda i Prorektorkę ds. Innowacji na Akademii Leona Koźmińskiego.

Laureat tegorocznej nagrody Nobla z fizyki, Geoffrey Hinton, wielokrotnie podkreślał, że AI posiada zdolność „rozumowania” i jest czymś więcej niż tylko zaawansowaną maszyną statystyczną. A co Pani sądzi?

Hinton ma rację, wskazując na zdolność AI do działania w sposób, który może przypominać rozumowanie, chociaż właściwszym określeniem jest tu „wnioskowanie”.

Każdy, kto częściej korzysta z AI, widzi istotne ograniczenia tej technologii. Wciąż operujemy na innym poziomie niż ludzki umysł – AI przetwarza informacje statystycznie, a nie intencjonalnie. To raczej symulacja rozumowania, niż faktyczne jego przejawienie.

Czy przyjdzie taki dzień, że będziemy musieli szczerze przyznać: tak, AI jest inteligentniejsza od ludzi?

Inteligencja to złożone i wieloaspektowe zjawisko – nie chodzi tylko o szybkość przetwarzania danych, ale też o intuicję, emocje i kreatywność. AI może przewyższać nas tylko w pewnych obszarach (np. inteligencja obliczeniowa), ale pełna „inteligencja” jak nasza jest znacznie bardziej skomplikowana i trudna do zdefiniowania. I nie, nie sądzę, żeby w tym całym wachlarzu jakim inteligencja jest, AI była dalej niż my.

Była Pani zaskoczona, gdy OpenAI zaprezentował ChatGPT?

Tak, byłam raczej pozytywnie zaskoczona. ChatGPT pokazał, że AI może prowadzić bardziej płynny dialog i generować złożone odpowiedzi, choć nadal ma ograniczenia. To otworzyło nowe możliwości dla współpracy ludzi z technologią.

Pierwsze szpitale sięgają do dużych modeli językowych, aby np. pomóc lekarzom w szukaniu informacji i zależności w danych w elektronicznych kartotekach pacjentów. Czy można zaufać takim rozwiązaniom?

Jestem tutaj optymistyczna, ale ostrożna. AI może wesprzeć lekarzy, ale nie może zastąpić empatii i etycznego osądu. Kluczowe jest utrzymanie kontroli człowieka nad decyzjami oraz ciągłe monitorowanie działania takich systemów. Nadzór człowieka, zwłaszcza w obszarach tak istotnych jak zdrowie, jest absolutnie kluczowy.

Czy dyskutując o błędach wynikających z halucynacji AI jesteśmy fair? Przecież procesy kognitywne człowieka też są pełne błędów, ludzie się mylą, zapominają…

Halucynacje to pewna cecha systemów generatywnej AI, której trudno nam będzie się pozbyć. I rzeczywiście, AI popełnia błędy, ale warto pamiętać, że my również. Ważne jest, by traktować AI jako narzędzie, które może być mylne, i nie obciążać go nierealnymi oczekiwaniami, których nawet ludzie nie spełniają

Załóżmy, że ma Pani do wyboru lekarza AI mającego dostęp do światowych zasobów wiedzy medycznej, najnowszych badań naukowych, wytrenowanego na miliardach kartotek medycznych oraz lekarza-człowieka pracującego bez technologii. Którego Pani wybierze?

Wolałabym połączenie obu. My, jako zespół badawczy w Akademii Leona Koźmińskiego, a także w ramach rozwoju platformy Campus AI, którą współtworzę, pracujemy w duchu „współpracującej sztucznej inteligencji”. AI może zapewnić dostęp do najnowszych danych, ale lekarz-człowiek oferuje empatię i kontekst, których nie da się zastąpić. Uzupełnianie się tych dwóch perspektyw byłoby idealnym rozwiązaniem.

Czy przyjdzie taki moment, że zaufamy AI, tak samo jak ufamy dzisiaj elektryczności gdy włączamy światło, a korzystanie z doradców AI wszelkiego rodzaju stanie się codziennością?

Tak, myślę, że dojdziemy do takiego momentu. W miarę jak technologie AI będą się rozwijały i stawały bardziej przewidywalne, będziemy coraz bardziej na nich polegać – podobnie jak na innych technologiach, które kiedyś wzbudzały obawy, a dziś są codziennością.

Co ważnego w AI wydarzyło się w 2024 roku?

2024 to rok, w którym zaczęliśmy bardziej świadomie rozmawiać o regulacji AI i jej odpowiedzialnym wdrażaniu. Wiele inicjatyw, jak EU AI Act, zaczęło wpływać na kształtowanie standardów rozwoju AI.

Czego można spodziewać się w rozwoju sztucznej inteligencji w 2025 roku? Rok 2025 przyniesie dalszą integrację AI z naszym codziennym życiem, szczególnie w obszarach edukacji i medycyny. AI dzisiaj jest jak internet dwie dekady temu: upowszechnia się. Współpraca między człowiekiem a AI stanie się bardziej naturalna, a rozwój generatywnych modeli będzie jeszcze bardziej ukierunkowany na konkretne zastosowania i ich bezpieczeństwo.