Przejdź do treści

Europejski Inspektor Ochrony Danych o rozpoznawaniu twarzy w miejscach publicznych przy użyciu AI


  • EIOD zwraca uwagę na zagrożenia prywatności związane ze zdalną identyfikacją biometryczną.
  • Komisja Europejska przygotowała projekt przepisów regulujących zastosowanie sztucznej inteligencji.
  • Niedopuszczalne mają być m.in. systemy manipulujące ludzkim zachowaniem lub oceniające je.
  • Regulacje będą istotne dla wszystkich podmiotów stosujących SI, nie tylko dla instytucji, ale też dla firm dostarczających usługi lub wykorzystujących inteligentne algorytmy w produkcji i handlu.

Europejski Inspektor Ochrony Danych zaopiniował propozycję nowych unijnych przepisów dotyczących działania sztucznej inteligencji. Postuluje bardziej rygorystyczne podejście do zautomatyzowanego rozpoznawania ludzkich cech w przestrzeni publicznej. Poza rozpoznawaniem twarzy kwestia obejmuje również chód, odciski palców, DNA, głos, śledzenie naciskania klawiszy i inne sygnały biometryczne lub behawioralne – niezależnie od tego, w jakim celu są identyfikowane. Jak tłumaczy urząd, takie przypadki wiążą się z ryzykiem głębokiej ingerencji w życie prywatne osób.

Europejskie regulacje AI

Unia Europejska przygotowała przepisy mające gwarantować bezpieczeństwo i prawa podstawowe obywateli w zakresie sztucznej inteligencji. Ryzyka związane z jej wykorzystaniem zostały podzielone na cztery grupy. Niedopuszczalne mają być systemy, które za pomocą AI manipulują ludzkim zachowaniem czy oceniają zachowania obywateli. Wysokie ryzyko stanowią technologie AI używane w transporcie, kiedy może być zagrożone życie przewożonych, w kształceniu lub szkoleniu zawodowym, zatrudnieniu i zarządzeniu pracownikami czy podstawowych usługach prywatnych i publicznych. Do tej kategorii zaliczono przypadki stosowania AI w egzekwowaniu prawa, zarządzaniu migracją, azylem i kontrolą granic oraz w wymiarze sprawiedliwości i procesach demokratycznych. W grupie ograniczonego ryzyka projekt rozporządzenia ujął systemy wymagające przejrzystości, jak np. chatboty, ale użytkownicy powinni wiedzieć, że współpracują z maszyną. Minimalnym niebezpieczeństwem, według KE, charakteryzują się np. gry wideo ze sztuczną inteligencją lub filtry spamu. Przepisy dopuszczają stosowanie identyfikacji cech ludzkich do poszukiwania dzieci, zapobiegania zagrożeniom terrorystycznym czy do ścigania osób podejrzanych o popełnienie poważnego przestępstwa.

Polska wspiera ograniczenia

W Polsce została przyjęta polityka rozwoju sztucznej inteligencji, zakładająca intensyfikację prac nad ramami etyki i regulacjami dotyczącymi AI. Jako istotne zagrożenia krajowy dokument wskazuje wyłączenie społeczne oraz przypadkową dyskryminację. Zwraca również uwagę na prawa człowieka.


Zyskasz dostęp do rzetelnej wiedzy i aktualnych informacji o wydarzeniach oraz szkoleniach z zakresu transformacji cyfrowej. Zapisz się:

Zgadzam się na