AI pomaga hakerom kraść dane. Ale można się obronić

Dodano: 19.02.2026


Dziś każdy może zostać domorosłym hakerem. W darknecie i na forach dla hakerów można bez problemu pobrać narzędzia AI do generowania złośliwego oprogramowania i phishingu
Dziś każdy może zostać domorosłym hakerem. W darknecie i na forach dla hakerów można bez problemu pobrać narzędzia AI do generowania złośliwego oprogramowania i phishingu

Tysiące Polaków dało się nabrać na fikcyjnego lekarza wygenerowanego przez AI, który na Instagramie polecał suplementy diety. Podobne metody z wykorzystaniem sztucznej inteligencji mogą być wykorzystane do kradzieży danych medycznych. Jak się chronić?

  • Fikcyjny lekarz z Instagrama wygenerowany przez AI to tylko jeden przykład na to, jak łatwo dziś wzbudzić zaufanie, aby wyłudzić pieniądze albo wykraść dane.
  • Deepfake, klonowanie głosu i spersonalizowany phishing – AI pomaga cyberprzestępcom kraść dane w wyrafinowany i perfidny sposób.
  • Rosnącym zagrożeniem jest „shadow AI”, czyli nieautoryzowane używanie publicznych chatbotów w pracy z danymi medycznymi.
  • Dzisiaj haker może „zatrudnić” tysiące autonomicznych botów AI skanujących systemy szpitalne w poszukiwaniu luk w zabezpieczeniach.
  • Najskuteczniejszą obroną pozostają silne hasła, uwierzytelnianie dwuskładnikowe, model zero trust oraz aktywne wykorzystanie AI do monitorowania zagrożeń.

Wygląda jak lekarz, ale to fejk stworzony przez AI

Przedstawiający się jako dr Adrian Halewski lekarz nie wzbudzał żadnych podejrzeń. Wyglądał jak prawdziwy, opowiadał wiarygodnie o jednym z suplementów diety, odpowiadał na komentarze użytkowników. Tysiące Polaków szukających porad uwierzyło, że po drugiej stronie ekranu jest specjalista i mogą mu zaufać. Szybko okazało się, że to oszustwo.

To nie jest odosobniony przypadek i podobnych fake’owych profili w mediach społecznościowych jest coraz więcej. Kilka przykładów: Wygenerowany przez AI lekarz twierdził, że nasiona chia pozwalają stabilizować cukier we krwi u cukrzyków. Wideo zostało udostępnione 18 000 razy i zebrało ponad 2 mln kliknięć. Jeszcze inny twierdził, że zmielenie siedmiu migdałów, 10 gramów cukru kandyzowanego i 10 gramów kopru włoskiego, przyjmowane przez 40 dni każdego wieczoru z gorącym mlekiem, wyleczy każdą chorobę mózgu. Konto AI lekarza miało 200 000 lubiących, a porada została obejrzana 86 000 razy.

Newsletter OSOZ

Wygenerowane przez AI boty trudno już odróżnić od prawdziwych lekarzy, bo dzisiaj AI może tworzyć wysokiej jakości zdjęcia, kopiować głos człowieka (tzw. vishing) i pisać teksty w dowolnym stylu, np. polskim języku urzędowym. Nawet eksperci mają problem z odróżnieniem treści prawdziwych od fałszywych. Takie boty promują cudowne sposoby leczenia i nieznane, przełomowe terapie, aby zyskać szybki rozgłos i popularność. Czasami kradną dane osobowe, a czasami wyłudzają pieniądze.

Hakerzy wykorzystują metody inżynierii społecznej i generują deepfake-i AI, aby przeprowadzać wysoce personalizowane ataki phishingowe, tworzyć e-maile dopasowane do kontekstu pracy podmiotu, zawierające nawet nazwiska lekarzy albo realne scenariusze, jak zalogowanie się do systemu IT, aby poprawić raport sprawozdawczy. Bez problemu mogą też skopiować głos informatyka na podstawie kilkusekundowego nagrania głosu i wykorzystać go w rozmowie telefonicznej, wymuszając podanie hasła.

Nie zwierzaj się ChatGPT z tajemnic

Boty AI mogą podszywać się pod pracowników NFZ albo firm IT, żądając logowania się na podrobionych stronach www i tak kradnąc dane. To już nie musi być e-mail jak kiedyś, ale także płynna rozmowa telefoniczna. To tylko jeden z przykładów nowego zagrożenia bezpieczeństwa danych, z jakim pracownicy ochrony zdrowia będą mieli do czynienia coraz częściej.

Ale wyciek nie musi być inicjowany z zewnątrz – może być efektem luk w wewnętrznym systemie bezpieczeństwa. Takim nowym cyber-niebezpieczeństwem jest tzw. stosowanie AI w cieniu. Chodzi dokładnie o stosowanie przez pracowników zdrowia, nieoficjalnie, wszelkiego rodzaju czatbotów i systemów generatywnej AI w pracy. To może być szukanie danych w dokumentacji medycznej pacjenta, potwierdzenie diagnozy, planowanie zabiegów – z pozoru niewinne zadania. Ale trzeba pamiętać, że wprowadzane do czatbotów dane nie są bezpieczne, bo ChatGPT i podobne rozwiązania to nie autoryzowane rozwiązania medyczne, niespełniające standardów bezpieczeństwa danych. Do tego dane trafiają na serwery zlokalizowane w USA.

Pobierz bezpłatny poradnik ochrony danych w placówkach ochrony zdrowia
Pobierz bezpłatny poradnik ochrony danych w placówkach ochrony zdrowia

Przykładem jest głośna sprawa z 2025 roku, gdy do internetu wyciekło ok. 300 000 rozmów z czatbotem Grok. Eksperci od cyberbezpieczeństwa podkreślają, że czatując z AI, nie powinniśmy podawać żadnych informacji, które są poufne. Interakcje z AI nie mogą być monitorowane ani zabezpieczane nawet przez profesjonalne działy IT. Wyjątkiem jest stosowanie modeli lokalnych zamiast publicznych (ChatGPT, Gemini, Perplexity i inne).

Automatyzacja pracy hakera

W 2026 roku powinniśmy też przestać myśleć o hakerach jako informatykach ukrytych w piwnicach, często w Rosji, i wkradających się do zabezpieczeń szpitali. W sieci krążą tysiące botów, autonomicznych programów AI, które skanują systemy w poszukiwaniu luk w zabezpieczeniach, generują tzw. exploity (fragmenty kodu lub sekwencje poleceń wykorzystujące błędy i luki w zabezpieczeniach systemów komputerowych) i w ten sposób infekują podatny system. Tego typu boty badają aktualność systemów operacyjnych, sprawdzają urządzenia podpięte do internetu oraz każdy inny element sieci, który potencjalnie ma luki w zabezpieczeniach.

W darknecie, na forach dla hakerów można bez problemu pobrać narzędzia AI, jak WormGPT albo FraudGPT, do generowania złośliwego oprogramowania i phishingu. Zmienia się sposób ataku, ale obrona pozostaje taka sama: dokładne monitorowanie podatności na ataki w placówkach zdrowia, natychmiastowa aktualizacja zasobów IT zaraz po pojawieniu się upgrade’u, przechowywanie danych w bezpiecznej chmurze danych.

Twoje hasło jest tak słabe jak nigdy dotąd

Jeśli znowu musisz zmienić hasło, bo wymaga tego system albo wprowadzić dodatkowy kod SMS w procesie uwierzytelniania dwuskładnikowego, to może okazać się to najlepszą metodą obrony przed hakerami. Mocne hasła były dla hakerów barierą nie do pokonania. Ale i to się zmienia dzięki AI. Systemy AI analizują wykradzione zbiory danych, aby wykryć te najczęściej stosowane wzorce haseł. To przestroga, aby nie stosować haseł prostych, łatwych do zapamiętania. Niezmiennie, najlepsze hasła to takie wygenerowane losowo, składające się z m.in. 8 znaków, a najlepiej ok. 12–14, małych i dużych liter, liczb i znaków specjalnych. Hasło nie może być powiązane z nazwą użytkownika ani zawierać danych osobowych (twoich lub bliskich), imion, prostych słów, sekwencji znaków (np. 1234, abcd, QWERTY), powtórzeń ani oczywistych wyrażeń. AI pomaga hakerom, ale też broniącym się. Są już systemy AI monitorujące podejrzany ruch na serwerach, wykrywające zagrożenia na podstawie niestandardowych aktywności sieciowych, demaskujące podejrzane e-maile mające na celu wyłudzenie danych. Generatywną AI można stosować do wyszukiwania nowych zagrożeń, szkolenia personelu i przygotowywania testów bezpieczeństwa danych. W przypadku kradzieży haseł, uwierzytelnianie dwuskładnikowe zablokuje hakerom dostęp do zasobów informatycznych. Każda placówka – nawet mały POZ – powinna prowadzić politykę w modelu tzw. zero trust (zero zaufania), nadając tylko niezbędne uprawnienia personelowi pomocniczemu, nie wykorzystując komputerów do tworzenia elektronicznej dokumentacji medycznej do innych celów, tworząc regularnie – najlepiej automatycznie – kopie zapasowe.