Przejdź do treści

Jakie obowiązki dla przedsiębiorców wynikają z AI Act?


  • Zespół naukowców z Future of Life Institute opracował narzędzie do sprawdzania zgodności rozwiązań opartych na sztucznej inteligencji z unijnym rozporządzeniem o sztucznej inteligencji (AI Act)
  • AI Act nakłada obowiązki na organizacje, które opracowują, wykorzystują, dystrybuują lub importują systemy sztucznej inteligencji w UE
  • Kary za nieprzestrzeganie przepisów mogą wynieść nawet do 35 mln EUR lub 7% globalnego rocznego obrotu firmy.

Zgodnie z AI Act „System sztucznej inteligencji” to system oparty na wykorzystaniu maszyn, zaprojektowany do działania na różnym poziomie autonomii, który może wykazywać zdolność adaptacji po wdrożeniu i który, dla celów jawnych lub niejawnych, wnioskuje na podstawie otrzymywanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne. Nowe przepisy, które zaczną obowiązywać w przyszłym roku, będą miały duży wpływ na organizacje rozwijające lub wykorzystujące sztuczną inteligencję oraz będą dotyczyły wszystkich systemów AI udostępnionych na terenie Unii Europejskiej.

Indywidualny przewodnik dla przedsiębiorstw

Aby ułatwić weryfikację danego rozwiązania pod kątem zgodności z przepisami zawartymi w AI Act, zespół z Future of Life Institute opracował formularz, który przyporządkowuje rozwiązanie do jednej z 4 grup:

  • System AI obarczony niskim ryzykiem, który wymaga jedynie zapewnienia bezpieczeństwa w przypadku interakcji z osobami fizycznymi,
  • System AI ogólnego przeznaczenia (m.in. generatywna sztuczna inteligencja), który podlega bardziej szczegółowym przepisom,
  • System AI wysokiego ryzyka, który nakłada szeroki zakres obowiązków, zwłaszcza na dostawców rozwiązania,
  • System AI, który zostanie całkowicie zabroniony po wejściu w życie przepisów.

Wypełnienie formularza pozwala w łatwy sposób zweryfikować, jak wejście w życie przepisów AI Act wpływa na dany przypadek wykorzystania systemu AI. Użytkownik otrzymuje indywidualną ocenę dla rozwiązania oraz zakres obowiązków związany z wykorzystaniem, dystrybucją lub importowaniem systemów sztucznej inteligencji dla jego wskazanego przeznaczenia. Poza indywidualną oceną, narzędzie odsyła również do konkretnych fragmentów rozporządzenia. Formularz jest obecnie dostępny w 9 wersjach językowych, również w języku polskim.

Które rozwiązania zostały sklasyfikowane jako systemy wysokiego ryzyka?

Ocena ryzyka wykorzystania technologii AI jest zależna od celu wdrożenia danego rozwiązania oraz roli pełnionej przez operatora. Systemy AI, które zostaną całkowicie zabronione po wejściu w życie AI Act to m.in. scraping twarzy w Internecie, systemy do rozpoznawania emocji w miejscu pracy i edukacji oraz systemy wykorzystujące techniki podprogowe do manipulacji ludzkim zachowaniem. Z kolei systemy wysokiego ryzyka, które będą podlegały ścisłym obowiązkom przed ich wprowadzeniem do obrotu, to m.in. technologia sztucznej inteligencji stosowana w ramach infrastruktury krytycznej, kształcenia lub szkoleń zawodowych, podstawowych usług prywatnych i publicznych. Z formularzem przygotowanym przez Future of Life Institute można zapoznać się na stronie -> link


Zyskasz dostęp do rzetelnej wiedzy i aktualnych informacji o wydarzeniach oraz szkoleniach z zakresu transformacji cyfrowej. Zapisz się:

Zgadzam się na