U progu 2024 roku amerykańscy badacze z Uniwersytetu Północnego Teksasu oraz Uniwersytetu Nebraski w Lincoln zwracają uwagę na to, że generatywna sztuczna inteligencja może być w najbliższym czasie istotnym narzędziem kampanii dezinformacyjnych, ukierunkowanych na zakłócanie demokratycznych wyborów w wielu państwach.
Ze względu na dużą liczbę planowanych kampanii wyborczych na całym świecie, rok 2024 nazywany jest „rokiem wielkich wyborów”. Z kolei Washington Post określa najbliższe wybory prezydenckie w USA „Wyborami AI”. To, jak ogromny zasięg i wpływ na wyborców mogą mieć wygenerowane przez sztuczną inteligencję treści, budzi na całym świecie ogromne emocje i obawy. Zapowiedzią tego, co może zdarzyć się w bieżącym roku, są ubiegłoroczne wybory prezydenckie w Argentynie. Kandydaci na prezydenta tego kraju usiłowali bowiem zdobyć przewagę, wykorzystując sztuczną inteligencję do tworzenia obrazów i filmów w celu promowania siebie lub atakowania się nawzajem. Chociaż ciężko ocenić, jak te działania przełożyły się na faktyczny wynik, nie sposób nie docenić zasięgu i prędkości, z jaką materiały wygenerowane za pomocą AI rozprzestrzeniały się w mediach.
Możliwe, że nigdy wcześniej walka z dezinformacją i manipulacją nie była tak ważna, jak obecnie. Łatwość tworzenia deepfake’ów osiągnęła niespotykane dotąd poziomy. To, co kiedyś wymagało zaawansowanych umiejętności technicznych, teraz jest dostępne dla każdego, kto posiada podstawową wiedzę z zakresu informatyki. Ta dostępność, w połączeniu z coraz bardziej realistycznym wynikiem generowanych przez sztuczną inteligencję treści, stanowi poważny problem, z którym próbują poradzić sobie środowiska naukowe na całym świecie. Zaawansowane możliwości imitowania cech ludzkich i tworzenia realistycznych obrazów lub filmów są coraz częściej wykorzystywane nie tylko w kampaniach wyborczych, ale też przez grupy przestępcze lub organizacje hakerskie. Naukowcy dostrzegają silną potrzebę wyposażenia społeczeństwa w technologie, które ułatwiłyby identyfikację deepfakeów w czasie rzeczywistym. Proponowane rozwiązania w tym zakresie obejmują osadzanie cyfrowych znaków wodnych w filmach, ustalenie odpowiednich zasad odczytu metadanych, czy też rozwój oprogramowania do weryfikacji twórcy oraz wszelkich wprowadzonych zmian w filmach lub obrazach.
Więcej o propozycjach środowisk naukowych w kontekście przeciwdziałania negatywnym skutkom deepfake’ów w artykule: link
*Obraz główny przygotowany za pomocą generatora obrazów DALL-E, dostępnego w ramach Bing Image Creator.