Celem przedsięwzięcia jest przygotowanie platformy udostępniającej najnowsze informacje o sztucznej inteligencji, pilotowanie nowych podejść do transparentnej AI i popularyzacja najlepszych praktyk w zakresie wdrażania algorytmów. Członkowie sojuszu zajmą się wyszukiwaniem i wprowadzaniem na rynek narzędzi używających SI, które zapewniają etyczność i dostępność dla całego społeczeństwa. Prezes World Economic Forum, Klaus Schwab, podkreśla, że rozwój sztucznej inteligencji powinien w centrum stawiać człowieka. GAIA rozpocznie działalność dzięki dotacji w wysokości 500 tys. dolarów, pochodzącej z Fundacji Patricka J. McGoverna – organizacji powstałej z inicjatywy założyciela International Data Group. W ramach różnych projektów fundacja chce przeznaczyć na rozwój AI 40 milionów dolarów.
Dysproporcja pomiędzy powstającymi regułami a systemami, które je realizują
W projekt zaangażowało się ponad 100 przedsiębiorstw, organizacji i uczelni, jak IBM, Międzynarodowa Konfederacja Związków Zawodowych, OECD i UNESCO. Inicjatorzy podkreślają, że wraz z rozwojem potencjału AI rośnie ryzyko dotyczące pojawiania się niebezpiecznych lub nietycznych zastosowań sztucznej inteligencji, np. w systemach rozpoznawania twarzy, zautomatyzowanego podejmowania decyzji czy śledzenia ludzi. Potrzebę współpracy argumentują tym, że pojedyncza organizacja nie poradzi sobie z podobnymi wyzwaniami, co widać m.in. w obecnym rozproszeniu – do tej pory powstało ponad 175 odrębnych zestawów zasad dotyczących etycznej AI. Dodatkowo, według ekspertów WEF ds. AI, widać lukę we wdrożeniach, ich zdaniem liczba reguł odnośnie działania algorytmów nie przekłada się na powstawanie faktycznych systemów.
Etyczne algorytmy
Kwestie dotyczące projektowania moralnych systemów wykorzystujących sztuczną inteligencję poruszała wcześniej w Białej Księdze AI Komisja Europejska. Zdaniem autorów dokumentu, zarówno SI, jak i sposoby zbierania danych do szkolenia sieci neuronowych muszą być zgodne z europejskimi przepisami, szczególnie w zakresie praw podstawowych i konsumenckich. Z kolei „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020” zakłada, że systemy AI mają respektować zasady:
- solidności technicznej i bezpieczeństwa
- ochrony prywatności i zarządzania danymi
- transparentności
- dobrostanu społecznego i środowiskowego
- rozliczalności i odpowiedzialności.