Możemy powierzyć algorytmom bezpieczeństwo?

  • Sieci neuronowe nie są dokładne w 100%.
  • Algorytmy godne zaufania powinny umieć uzasadnić podjęte decyzje i nie wyrokować, kiedy nie mają pewności co do wyników.
  • Podsumowujemy dyskusję zorganizowaną przez klub Politechniki Gdańskiej AI Bay i DIH4AI.
sztuczna inteligencja

Trudności związane z projektowaniem systemów opartych o AI przedstawił Miłosz Kaszyński z firmy OKE Poland. Jego zdaniem, głównym problemem, z jakim borykają się inżynierowie, jest dokładność:

Sieci neuronowe zazwyczaj działają na zasadzie prawdopodobieństwa, więc precyzyjność nigdy nie jest stuprocentowa – wyjaśniał.

Kolejną rzeczą jest stabilność – choć algorytmy działają zadowalająco w laboratoriach, ich dokładność przy wdrożeniu produkcyjnym może się zmniejszyć. Sztucznej inteligencji brakuje również rzetelności, bo nawet przy dokładności 98% pozostałe 2% ma szansę spowodować duże straty. Specjalista opowiedział o projektach, które prowadzi jego firma – o systemie Civileo automatycznie analizującym dźwięk i obraz czy warunki środowiskowe w miastach, a także o aplikacji Vileo przeznaczonej dla mieszkańców do kontaktu z sąsiadami.

Powstaną godne zaufania systemy AI?

Sebastian Cygert z Politechniki Gdańskiej zastanawiał się nad możliwością wykorzystania algorytmów w systemach istotnych dla bezpieczeństwa, m.in. w medycynie, pojazdach autonomicznych i robotyce. Podkreślił, że AI godna zaufania powinna dobrze dostosowywać się do nowych warunków i odpowiednio szacować niepewność:

Chodzi o to, żeby w sytuacji, kiedy algorytmy nie umieją zwrócić poprawnej odpowiedzi, były w stanie przekazać, że nie potrafią rozpoznać obrazu, zamiast podawać błędną informację z wrażeniem dużej pewności. Sztuczna inteligencja godna zaufania powinna tłumaczyć, dlaczego podjęła taką, a nie inną decyzję, i być sprawiedliwa, czyli nie opierać sądów na płci czy kolorze skóry – argumentował Cygert.

Naukowiec dowodził, że jeszcze nie dysponujemy idealnymi sieciami neuronowymi. W czasie wystąpienia pokazał szereg sposobów na zmylenie algorytmów, związanych z niewielkimi (niedostrzegalnymi dla ludzkiego oka) manipulacjami obrazem czy zmianą warunków pogodowych. W jednym przypadku wystarczył deszcz, żeby SI nie zauważyła pieszych na drodze.

Przykład błędu algorytmów, w którym z powodu nieznacznego zniekształcenia obrazu uznały, że na grafice zamiast pandy jest gibon
(Przykład pomyłki algorytmów – graf. I. Goodfellow et. al.)

Dobre i złe algorytmy

Sztuczna inteligencja z jednej strony zastępuje ludzi w niebezpiecznych i powtarzalnych zajęciach oraz wspiera m.in. osoby starsze w codziennych czynnościach. Pomimo zalet, według Magdaleny Popowskiej z Politechniki Gdańskiej, coraz szersze stosowanie AI każe zastanawiać się nad konsekwencjami dla rynku pracy, demokracji czy zależności ludzi od algorytmów. Naukowiec opowiedziała o inicjatywach, które zajmują się etycznymi aspektami AI, np. o grupie eksperckiej Komisji Europejskiej High-Level Expert Group on Artificial Intelligence oraz o pracach Instytutu Inżynierów Elektryków i Elektroników (IEEE) nad przygotowaniem pierwszego certyfikatu przyznawanego sprawiedliwym algorytmom.

inżynier i robot
(graf. Adobe Stock)

Zatoka Sztucznej Inteligencji

Wydarzenie zorganizował klub Politechniki Gdańskiej AI Bay – Zatoka Sztucznej Inteligencji we współpracy z Hubem Innowacji Cyfrowych DIH4AI. Profesor Jacek Rumiński, prezes AI Bay, zapowiedział kolejne działania klubu, m.in. zdalne szkolenia i międzynarodową konferencję Human-System Interaction 2021. Przybliżył także plany otwarcia na Politechnice Gdańskiej AI Living Lab, czyli laboratorium umożliwiającego testowanie i usprawnianie aplikacji bazujących na sztucznej inteligencji. Z AI Living Lab i opisywanego już przez nas laboratorium robotycznego w Gdańskim Parku Naukowo-Technologicznym będą mogli skorzystać przedsiębiorcy współpracujący z DIH4AI.