Parlament Europejski przyjął EU AI Act. Jakie są kolejne kroki?


EU AI Act to pierwsza tak obszerna regulacja sztucznej inteligencji na świecie
EU AI Act to pierwsza tak obszerna regulacja sztucznej inteligencji na świecie

Parlament Europejski (PE) zagłosował za Europejskim Aktem ws. AI (EU AI Act). Za historycznym rozporządzeniem regulującym sztuczną inteligencję opowiedziało się 523 posłów, przeciw – 46, a 49 wstrzymało się od głosu. Tłumaczymy, co oznaczają nowe przepisy.

Co to jest EU AI Act?

Ustawa o sztucznej inteligencji ma regulować rozwiązania oparte na sztucznej inteligencji i zapobiegać potencjalnym zagrożeniom ze strony AI.

Zwolennicy od dawna podkreślali, że ramy prawne dla AI są potrzebne, aby firmy i instytucje opracowujące i wdrażające sztuczną inteligencję mogły kierować się jasnymi wymogami. AI może być wykorzystana w dobrym celu, jak ocena niewidocznych gołym okiem zmian patologicznych na zdjęciach radiologicznych, ale i z niecnym zamiarem, chociażby do stworzenia fake newsów i szerzenia dezinformacji zagrażającej demokracji i stabilności społecznej.

Przeciwnicy są zdania, że AI EU Act zwiąże ręce europejskim innowatorom, przez co Europa zostanie na marginesie rozwoju innowacji technologicznych, ustępując pola Chinom i USA. To zresztą był największy punkt zapalny trwających od 5 lat przygotowań i negocjacji, gdy w międzyczasie na rynku pojawił się ChatGPT i stało się jasne, że z nowymi przepisami Europa będzie miała jeszcze mniejsze szanse na opracowanie konkurencyjnych rozwiązań.

Jednak nie tylko Europa reguluje AI odkąd generatywna sztuczna inteligencja uświadomiła, z jak potężną technologią mamy do czynienia. Przykładowo, w październiku 2023 r. Prezydent Joe Biden wydał rozporządzenie wykonawcze w sprawie bezpiecznej i godnej zaufania sztucznej inteligencji. Nawet Chiny ustaliły zasady dla generatywneh sztucznej inteligencji.

Ustawa o sztucznej inteligencji ma zagrawantować, że rozwiązania oparte na AI będą bezpieczne i transparentne. W ochronie zdrowia, niewiele zmieni się w stosunku do rozwiązań AI, które są już wyrobami medycznymi, czyli posiadają znak CE – przepisy w tym zakresie regulują poziomy bezpieczeństwa stosowania (klasy ryzyka). Zmiany czekają jednak twórców np. chatbotów albo aplikacji wykorzystywanych w procesie diagnozy, a nie będących jeszcze urządzeniami medycznymi.

Głównym celem EU AI Act jest:

  • minimalizacja zagrożeń stwarzanych przez aplikacje AI,
  • zablokowanie rozwoju rozwiązań AI, które stwarzają niedopuszczalne ryzyko;
  • stworzenie listy aplikacji wysokiego ryzyka;
  • określenie wymagań dla systemów sztucznej inteligencji w zastosowaniach wysokiego ryzyka;
  • określenie obowiązków podmiotów wdrażających i dostawców aplikacji AI wysokiego ryzyka;
  • wprowadzenie obowiązku dostarczenia oceny zgodności przed oddaniem systemu AI do użytku lub wprowadzeniem go do obrotu;
  • ustanowienie struktury zarządzania i kontroli rozwiązań AI na poziomie europejskim i krajowym.

4 poziomy ryzyka AI

Im bardziej ryzykowne jest rozwiązanie AI, tym większej kontroli będzie podlegać. EU AI Act wprowadza 4-poziomową klasyfikację rozwiązań sztucznej inteligencji:

  • Systemy nieakceptowalnego ryzyka
  • Systemy wysokiego ryzyka
  • Systemy ograniczonego ryzyka
  • Systemy minimalnego ryzyka
Poziomy ryzka zgodnie z EU AI Act
Poziomy ryzka zgodnie z EU AI Act

Systemy wysokiego ryzyka obejmują technologie AI wykorzystywane w:

  • infrastrukturze krytycznej (np. transportowej), która może zagrażać życiu i zdrowiu obywateli;
  • szkoleniach edukacyjnych lub zawodowych, które mogą decydować o dostępie do edukacji i przebiegu kariery zawodowej (np. punktacja egzaminów);
  • elementach bezpieczeństwa produktów (np. zastosowanie AI w chirurgii wspomaganej robotami);
  • zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV w procedurach rekrutacyjnych);
  • podstawowych usługach prywatnych i publicznych (np. scoring kredytowy odmawiający obywatelom możliwości uzyskania pożyczki);
  • egzekwowaniu prawa, które może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów);
  • zarządzaniu migracją, azylem i kontrolą graniczną (np. zautomatyzowane rozpatrywanie wniosków wizowych);
  • wymiarze sprawiedliwości i procesach demokratycznych (np. rozwiązania AI do wyszukiwania orzeczeń sądowych).

Systemy AI wysokiego ryzyka będą podlegać rygorystycznym obowiązkom, zanim zostaną wprowadzone na rynek. Do tej kategorii należą także urządzenia medyczne.

Ograniczone ryzyko odnosi się do zagrożeń związanych z brakiem transparentności AI. Chodzi o to, aby np. podczas korzystania z systemów AI, takich jak chatboty, użytkownicy byli poinformowani, że wchodzą w interakcję z maszyną, a nie człowiekiem. Teksty generowane przez AI (teksty, wideo, audio), publikowane w celu informowania opinii publicznej o kwestiach leżących w interesie publicznym, muszą być odpowiednio oznaczone.

Minimalne ryzyko lub jego brak. Ustawa o sztucznej inteligencji zezwala na swobodne korzystanie ze sztucznej inteligencji o minimalnym ryzyku. Obejmuje to aplikacje takie jak gry wideo wykorzystujące sztuczną inteligencję lub filtry antyspamowe. Zdecydowana większość systemów sztucznej inteligencji wykorzystywanych obecnie w UE należy do tej kategorii.

Ustawa o AI wprowadza też obowiązki dotyczące przejrzystości wszystkich modeli AI ogólnego przeznaczenia, aby ich działanie było zrozumiałe i dzięki temu można było zarządzać ryzykiem. Dotyczy to przede wszystkim rozwiązań generatywnej AI, jak ChatGPT. Tutaj ustawa nakłada obowiązki samoregulacyjne na dostawców, w tym wymaga zgłaszania poważnych incydentów, przeprowadzania testów i oceny modeli. Dodatkowo, twórcy modeli generatywnej AI będą zobowiązani przedstawić podsumowanie danych pozyskanych z internetu i wykorzystywanych do szkolenia systemów. Muszą też przestrzegać prawa autorskiego UE.

Dodatkowej kontroli podlegają najpotężniejsze modele sztucznej inteligencji, które stwarzają “ryzyko systemowe”, w tym m.in. model GPT4 firmy OpenAI.

Co dalej z AI EU Act?

W lutym 2024 r. powołany został Europejski Urząd ds. AI, który zajmie się nadzorowaniem i wdrażaniem aktu w sprawie sztucznej inteligencji w państwach członkowskich.

Ustawa o sztucznej inteligencji wejdzie w życie 20 dni po jej opublikowaniu w Dzienniku Urzędowym. Stanie się to prawdopobodnie w maju lub czerwcu i zacznie w pełni obowiązywać w okresie 2 lat, przy czym:

  • zakazy związane z AI zaczną obowiązywać po 6 miesiącach,
  • zasady zarządzania i obowiązki dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia zaczną obowiązywać po 12 miesiącach,
  • zasady dotyczące systemów sztucznej inteligencji – wbudowanych w produkty regulowane – będą miały zastosowanie po 36 miesiącach.

To oznacza, że twórcy systemów AI wykorzystywanych w medycynie (aplikacje, systemy robotyczne, oprogramowanie zawierające algorytmy AI i uczenia maszynowego) mają 3 lata na dostosowanie się do zapisów EU AI Act.

Naruszenie przepisów EU AI Act będzie sporo kosztować. Grzywny mogą sięgać 35 mln euro lub 7% globalnego przychodu firmy.