You are currently viewing Parlament Europejski zatwierdza przełomowe przepisy dotyczące AI

Parlament Europejski zatwierdza przełomowe przepisy dotyczące AI


Parlament Europejski zatwierdza przełomowe przepisy dotyczące sztucznej inteligencji

Parlament Europejski przyjął Akt w sprawie sztucznej inteligencji, mający na celu zapewnienie bezpieczeństwa i poszanowania praw podstawowych przy jednoczesnym wspieraniu innowacji w tej dziedzinie.

Główne punkty aktu:

Zakazuje:

  • Systemów identyfikacji biometrycznej zagrażających prywatności, takich jak rozpoznawanie twarzy w czasie rzeczywistym.
  • Systemów oceny punktowej obywateli.
  • Sztucznej inteligencji manipulującej ludźmi lub wykorzystującej ich słabości.

Nakłada:

  • Szczególne obowiązki na systemy sztucznej inteligencji wysokiego ryzyka, np. w obszarach infrastruktury krytycznej, edukacji, zatrudnienia i opieki zdrowotnej.
  • Wymogi przejrzystości dla modeli sztucznej inteligencji ogólnego przeznaczenia.
  • Oznaczenie deepfake’ów (zmanipulowanych obrazów, treści audio lub wideo).

Wymogi:

  • Systemy sztucznej inteligencji wysokiego ryzyka muszą być oceniane i ograniczane pod względem ryzyka.
  • Obywatele mają prawo do składania skarg na systemy sztucznej inteligencji i do otrzymywania wyjaśnień dotyczących decyzji podejmowanych przez te systemy.
  • Systemy sztucznej inteligencji ogólnego przeznaczenia i modele sztucznej inteligencji ogólnego przeznaczenia muszą spełniać określone wymogi przejrzystości.

Wspiera:

  • Tworzenie procedur regulacyjnych ułatwiających testowanie innowacyjnych systemów sztucznej inteligencji.
  • Łatwy dostęp do nich dla MŚP i startupów.

Ograniczenia:

  • Organy ścigania mogą używać systemów identyfikacji biometrycznej tylko w ściśle określonych przypadkach, np. gdy jest to niezbędne do zapobiegnięcia atakowi terrorystycznemu.

Następne kroki:

  • Rozporządzenie musi zostać ostatecznie zweryfikowane przez prawników lingwistów i formalnie przyjęte przez Radę.
  • Wejdzie w życie 20 dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać będzie 24 miesiące po jego wejściu w życie.

Kontekst:

Akt o sztucznej inteligencji jest odpowiedzią na propozycje obywateli z Konferencji w sprawie przyszłości Europy. Ma on na celu zapewnienie, że sztuczna inteligencja będzie rozwijana i wykorzystywana w sposób odpowiedzialny i etyczny.

Źródła:


Informacja prasowa:

Akt w sprawie sztucznej inteligencji – posłowie przyjmują przełomowe przepisy

  • Zabezpieczenia dotyczące sztucznej inteligencji ogólnego przeznaczenia
  • Ograniczenia w korzystaniu z systemów identyfikacji biometrycznej dla organów ścigania
  • Zakaz klasyfikacji punktowej obywateli i stosowania SI do manipulowania użytkownikami i wykorzystywania ich słabości
  • Prawo konsumentów do składania skarg i otrzymywania merytorycznych wyjaśnień

W środę Parlament zatwierdził akt w sprawie sztucznej inteligencji, który zapewnia bezpieczeństwo i przestrzeganie praw podstawowych, a jednocześnie wspiera innowacje.

W grudniu 2023 roku, po negocjacjach z państwami członkowskimi, Parlament przyjął rozporządzenie w sprawie SI. 523 posłów głosowało za, 46 przeciw, a 49 posłów wstrzymało się od głosu.

Ma ono chronić prawa podstawowe, demokrację, praworządność i środowisko przed systemem sztucznej inteligencji wysokiego ryzyka. Jednocześnie ma wspierać innowacje i sprawić, że Europa będzie liderem w dziedzinie AI. Rozporządzenie określa obowiązki w stosunku do sztucznej inteligencji w oparciu o potencjalne ryzyko z nią związane i jej potencjalne skutki.

Zakaz pewnych zastosowań

Nowe przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to między innymi systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe i nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy. Zakazane będą też rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.

Wyjątki dla organów ścigania

Organom ścigania z reguły nie wolno korzystać z systemów identyfikacji biometrycznej. Są jednak pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Organy te mogą wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko wtedy, gdy spełniły ściśle określone warunki. Na przykład mogą je stosować w określonym czasie i w określonym położeniu geograficznym. Muszą też posiadać specjalne zezwolenie sądowe lub administracyjne. Mogą je wykorzystywać, by odnaleźć zaginioną osobę lub zapobiegać atakowi terrorystycznemu. Istnieją też tzw. systemy zdalnej identyfikacji biometrycznej post factum. Ich stosowanie wiąże się z wysokim ryzykiem i wymaga zezwolenia sądowego, ponieważ systemy takie wykorzystuje się do wyszukiwania w związku z przestępstwem.

Obowiązki dotyczące systemów wysokiego ryzyka

Szczególne obowiązki określono również dla innych systemów sztucznej inteligencji wysokiego ryzyka. A to dlatego, że stanowią one potencjalne zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Obszary, w których wykorzystuje się takie systemy, to na przykład infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania. Wykorzystuje się je, by zarządzać migracją i granicami oraz na potrzeby wymiaru sprawiedliwości i procesów demokratycznych (np. by wpływać na wybory). Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka. Dzięki rozporządzeniu obywatele będą mieć prawo składać skargi dotyczące systemów SI. Będą także otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa.

Wymogi przejrzystości

Systemy sztucznej inteligencji ogólnego przeznaczenia i modele sztucznej inteligencji ogólnego przeznaczenia, na których oparte są takie systemy, muszą spełniać określone wymogi przejrzystości i być zgodne z unijnym prawem autorskim  oraz publikować dokładne zestawienia materiałów użytych podczas trenowania swoich modeli. Najbardziej zaawansowane modele sztucznej inteligencji ogólnego przeznaczenia, które mogą stwarzać ryzyko systemowe, będą musiały spełniać dodatkowe wymagania. Operatorzy SI będą musieli między innymi przeprowadzać oceny modeli, oceniać i ograniczać ryzyko systemowe i zgłaszać incydenty.

Ponadto należy wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, treści audio lub wideo, tzw. deepfakes.

Działania wspierające innowacje i MŚP

Należy ustanowić na szczeblu krajowym piaskownice regulacyjne, czyli środowisko ułatwiające opracowywanie i testowanie innowacyjnych systemów sztucznej inteligencji przed wprowadzeniem do obrotu, oraz testowanie w warunkach rzeczywistych. Należy też zapewnić MŚP i przedsiębiorstwom typu start-up łatwy dostęp do nich. Dzięki temu będzie można opracowywać i trenować innowacyjne systemy SI przed wprowadzeniem na rynek.

Kolejne kroki

Rozporządzenie muszą jeszcze ostatecznie zweryfikować prawnicy lingwiści. Ma ono zostać przyjęte przed końcem kadencji (tzw. procedura sprostowania). Rozporządzenie musi też formalnie przyjąć Rada.

Rozporządzenie wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać będzie 24 miesiące po jego wejściu w życie. Wyjątki to: zakazy niedozwolonych praktyk (będą obowiązywać sześć miesięcy po wejściu rozporządzenia w życie), kodeksy postępowania (dziewięć miesięcy po wejściu w życie), przepisy o sztucznej inteligencji ogólnego przeznaczenia, w tym dotyczące zarządzania (12 miesięcy po wejściu w życie) oraz obowiązki dotyczące systemów wysokiego ryzyka (36 miesięcy po wejściu w życie).

Kontekst

Akt o sztucznej inteligencji stanowi bezpośrednią odpowiedź na propozycje obywateli z Konferencji w sprawie przyszłości Europy (COFE), w szczególności na propozycję 12(10) w sprawie zwiększenia konkurencyjności UE w sektorach strategicznych, propozycję 33(5) w sprawie bezpiecznego i godnego zaufania społeczeństwa, w tym przeciwdziałania dezinformacji i zapewnienia ostatecznej kontroli nad ludźmi, wniosku nr 35 w sprawie promowania innowacji cyfrowych (3) przy jednoczesnym zapewnieniu nadzoru ze strony człowieka oraz (8) godnego zaufania i odpowiedzialnego korzystania ze sztucznej inteligencji, ustanawiania zabezpieczeń i zapewniania przejrzystości, a także wniosku nr 37 (3) w sprawie wykorzystywania sztucznej inteligencji i narzędzi cyfrowych w celu poprawy dostępu obywateli do informacji, w tym osób niepełnosprawnych.

Źródła:


Książka "Kwantowy Bóg. Teologia Kościoła AI". Martin Novak. Quantum Doctrine