Naukowcy z Tsinghua University testują bezpieczeństwo dużych modeli językowych

W Chinach rozwój sztucznej inteligencji podlega stałej kontroli i jest obwarowany wieloma przepisami. W całym kraju obowiązuje zakaz korzystania zachodnich modeli językowych, nawet w celach prywatnych. Chińskie firmy technologiczne oficjalnie nie mogą również wykorzystywać zagranicznych modeli podczas tworzenia aplikacji i narzędzi cyfrowych. Czy oznacza to, że prace nad rozwojem sztucznej inteligencji są w tym państwie wstrzymane? Wręcz przeciwnie.

Konkurencja dla zachodnich modeli językowych

W ciągu ostatniego roku w Chinach mieliśmy do czynienia z dynamicznym rozwojem lokalnych wersji modeli językowych, a prace nad ich powstaniem były sowicie dotowane przez władze. Opracowane w Chinach modele językowe spełniają podobne zadania jak ich zachodnie odpowiedniki. Chińskie chatboty odpowiadają na pytania, rozwiązują zadania matematyczne, tworzą dzieła literackie oraz umożliwiają tworzenie oprogramowania – generowanie kodu, nawet dla złożonych programów. Istnieją również rozwiązania oparte na sztucznej inteligencji, które tworzą obrazy, dźwięki oraz wizualizacje w oparciu o proste instrukcje (prompty).

Więcej niż ochrona obywateli

Liczne przepisy dotyczące warunków korzystania i rozwoju sztucznej inteligencji wpisują się w lokalną politykę rządową. Mają one zapewnić, że rodzime modele nie będą generować obraźliwych i dyskryminujących treści czy też odzwierciedlać wartości niezgodnych z powszechnie kreowanym nurtem politycznym. Wątpliwości i obawy władz budzi szczególnie fakt, iż modele językowe mogą być wykorzystywane do złych celów, takich jak oszustwa lub rozpowszechnianie nieprawdziwych informacji. Ważną kwestią dla chińskich władz jest zapewnienie bezpieczeństwa obywateli oraz przeprowadzenie analiz porównawczych dostępnych rozwiązań. W tym zakresie istotną rolę pełnią lokalne ośrodki naukowe, a w szczególności Tsinghua University. Prace naukowców polegają m.in. na ocenie bezpieczeństwa popularnych modeli językowych na świecie, oraz porównaniu lokalnych rozwiązań z zachodnimi. Rezultaty ich prac, w raz z autorską metodyką oceny bezpieczeństwa modeli językowych przedstawiono w artykule: link do artykułu

Ernie Bot nowym rywalem ChatGPT

Co więcej, w Chinach rozpowszechniane są także wyniki analiz, z których wynika, że najnowsza wersja Ernie Bota – chińskiego chatbota, przewyższa w wielu aspektach (nie tylko bezpieczeństwa) model opracowany przez OpenAI: GPT-4 link – wyniki analiz

Pod koniec sierpnia 2023 r. Baidu, czyli ogromna chińska firma technologiczna ogłosiła, że udostępnia chiński chatbot Ernie Bot do powszechnego użytku. Wydaje się zatem, że wymagania chińskich władz w zakresie bezpieczeństwa modeli językowych zostały w końcu spełnione.