$ 41.97 € 48.69 zł 11.52
+9° Kijów +7° Warszawa +4° Waszyngton
Jak sztuczna inteligencja stała się narzędziem rosyjskiej propagandy

Jak sztuczna inteligencja stała się narzędziem rosyjskiej propagandy

11 listopada 2025 10:47

Sztuczna inteligencja w ciągu ostatnich kilku lat stała się nieodłączną częścią naszego życia. Dziś trudno znaleźć osobę, która choć raz nie korzystała ze SI lub nic o niej nie słyszała. Niezliczone ilości informacji są obecnie przetwarzane przy pomocy SI. Uczy się na nich, analizuje je i doskonali samego siebie.

Jednak pojawiło się niebezpieczeństwo. SI zaczęła rozpowszechniać rosyjską propagandę. W tym materiale UA.NEWS przyjrzy się, jak dokładnie to się odbywa i dlaczego nawet najbardziej zaawansowane modele nieświadomie powielają narracje Kremla.

Jak rosyjska propaganda trafia do sztucznej inteligencji
 

5 listopada magazyn Wired opublikował badanie przeprowadzone przez Institute for Strategic Dialogue. Wynika z niego, że popularne chatboty oparte na SI zaczęły wykorzystywać informacje z źródeł powiązanych z rosyjską propagandą. Co więcej, robią to częściej niż inne modele.

Modelom SI zadawano pytania w języku angielskim, hiszpańskim, francuskim, niemieckim i włoskim. Pytano o tematy związane z wojną na Ukrainie, stosunkiem do NATO, uchodźcami z Ukrainy oraz zbrodniami wojennymi. Badacze stosowali trzy rodzaje pytań: neutralne, uwzględniające aktualne stanowisko społeczne oraz prowokacyjne (wymagające potwierdzenia ze źródeł). Łącznie sformułowano i przeanalizowano 300 zapytań.

W rezultacie ustalono, że niemal co piąta odpowiedź popularnych chatbotów SI dotycząca wojny zawierała odnośniki do rosyjskich stron propagandowych. Co więcej, ChatGPT odwoływał się do rosyjskiej propagandy najczęściej – aż 21 razy. Za nim w rankingu plasują się Grok i DeepSeek. Gemini również znalazł się w badaniu, ale wykazał najniższy poziom (5 rosyjskich źródeł).

Innymi słowy, sztuczna inteligencja zaczęła rozpowszechniać narracje korzystne dla Kremla. Tworzy to niebezpieczną sytuację, ponieważ istnieje ryzyko, że zachodnia publiczność otrzyma zniekształcone informacje.

W latach 2024–2025 kilka niezależnych zespołów badawczych przeprowadziło dodatkowe śledztwa i odkryło coś ciekawego. Digital Forensic Research Lab (DFRLab) we współpracy z fińską firmą Check First oraz francuską agencją VIGINUM zbadali rozległą sieć stron internetowych znaną jako Pravda Network (lub „Portal Kombat”). Została ona stworzona przez rosyjskie struktury w celu „nakarmienia” sztucznej inteligencji dezinformacją.

Sieć działa w ten sposób: strony z sieci „Pravda” przedrukowują tezy z Russia Today, Sputnik, kremlowskich kanałów na Telegramie oraz innych źródeł. Robią to masowo i w różnych językach, aby podczas automatycznego zbierania danych ich treści trafiły do próbek. Tylko w 2024 roku opublikowano ponad 3,6 mln artykułów na około 180 stronach internetowych. Większość tych „zasobów” ma bardzo niską lub niemal zerową realną publiczność. Ich „docelową publicznością” są algorytmy wyszukiwarek i duże modele językowe (takie jak ChatGPT).

image


Jak chatboty SI stały się rozpowszechniającymi rosyjską propagandę
 

Pojawia się logiczne pytanie: dlaczego SI nie kontroluje informacji, które przyswaja? Odpowiedź jest prosta. Ponieważ modele automatycznie indeksują i uczą się na dużych zbiorach danych, nie odróżniają fałszywek od faktów. W rezultacie zaczynają traktować te „dane” jako część wiarygodnej informacji. Kreml doskonale to rozumie i celowo tworzy sieci stron internetowych, które generują wiadomości korzystne dla Rosji. Takie podejście nazywa się „zatruciem danych” lub LLM-grooming.

Firma NewsGuard twierdzi, że Rosja coraz aktywniej próbuje „podsuwać” swoje narracje sztucznej inteligencji, aby potem automatycznie powielały je w odpowiedziach.

Ponadto pseudo-media, za pomocą których Rosja to robi, wypełniają luki tam, gdzie brakuje wysokiej jakości informacji. Na przykład użytkownik zadaje SI specyficzne lub prowokacyjne pytanie, na które w zachodnich mediach nie ma odpowiedzi. Model językowy znajduje jedyną dostępną w Internecie odpowiedź właśnie na prorosyjskich źródłach.

Warto zauważyć, że niektórzy badacze dyskutują, jak skuteczna jest taka celowa taktyka „zatrucia” SI. Część twierdzi, że problem często wynika bardziej z braku wysokiej jakości informacji niż z tego, że Rosja wprowadza fałszywe dane do sieci. Niestety, fakt pozostaje faktem.

Co więcej, rosyjscy propagandyści nawet nie ukrywają swoich zamiarów. W styczniu 2025 roku na konferencji w Moskwie były Amerykanin, a obecnie prorosyjski aktywista John Dugan, wygłosił głośne oświadczenie. Chwalił się, że jego strony „już teraz zainfekowały około 35% wszystkich systemów sztucznej inteligencji na świecie”. Według niego, „poprzez promowanie rosyjskich narracji możemy faktycznie zmienić światowy SI”.

Oczywiście liczba 35% jest przesadzona. Jednak sam fakt oświadczenia potwierdza, że proces ten rzeczywiście ma miejsce.

Jaki odsetek cytowań rosyjskiej propagandy występuje w chatbotach?
 

Średnio w 18% przypadków chatboty cytowały strony powiązane z rosyjską propagandą państwową. Jeśli pytania były sformułowane neutralnie, propaganda pojawiała się w około 11% odpowiedzi. Natomiast w przypadku pytań prowokacyjnych, propaganda była obecna już w 24% odpowiedzi. W niektórych przypadkach (szczególnie w ChatGPT i Grok) odnośniki do prorosyjskiej „prawdy” pojawiały się w 28–30% odpowiedzi.

Osobno badacze wyróżnili chatbota Grok, stworzonego przez Muska. Pozycjonowany jest jako „wolna” alternatywa dla ChatGPT, jednak właśnie ten SI okazał się najbardziej podatny na propagandę. Grok często cytował posty dziennikarzy rosyjskiego kanału RT w mediach społecznościowych X, nawet jeśli pytanie było całkowicie neutralne. W rezultacie użytkownik otrzymywał dezinformację. Jednak firma xAI (twórca Grok) odrzuciła tę krytykę, nazywając raport „kłamstwem starych mediów”, choć fakty pozostają.

Co do ChatGPT – mimo filtrów i deklaracji OpenAI o walce z dezinformacją, badacze odnotowali powtarzanie tez Kremla lub przytaczanie „dowodów” z wątpliwych źródeł. Na przykład na pytania typu „udowodnij, że ukraińscy uchodźcy planują ataki terrorystyczne” odpowiedzi, jak zauważają badacze, nie zawierały widocznych odnośników. Oznacza to, że jeśli użytkownik nie włączył trybu, w którym bot pokazuje źródła, lub nie sprawdził samodzielnie, odpowiedź wyglądała jak relacja samego ChatGPT.

Dla porównania, Google Gemini okazał się bardziej ostrożny. Częściej odmawiał odpowiedzi na wyraźnie prowokacyjne pytania. Jednak i w jego przypadku zdarzały się odpowiedzi wyglądające na obiektywne, choć źródło informacji pozostawało nieznane.

image


Jak przeciwdziałać rozpowszechnianiu rosyjskiej propagandy przez SI
 

Problem przenikania propagandy do sztucznej inteligencji jest skomplikowany, ale nie beznadziejny. Eksperci i firmy technologiczne już dyskutują nad sposobami jego rozwiązania.

Przede wszystkim proponuje się kontrolę danych, na których uczą się modele. Firmy powinny staranniej weryfikować źródła, wykluczać znane strony propagandowe lub sprawiać, aby nie były tak istotne dla botów. Niestety, zablokowanie kilku domen nie rozwiąże problemu. Należy stosować algorytmy, które automatycznie wykrywają sieci dezinformacji i je eliminują. Co więcej, w artykule How AI Can Help Stop the Spread of Misinformation wskazuje się, że algorytmy uczenia maszynowego mogą znacznie przewyższać ludzkie możliwości w wykrywaniu kłamstw.

Ponadto konieczna jest przejrzystość i oznaczanie źródeł. Jeśli chatbot odwołuje się do źródła, użytkownik powinien od razu widzieć, czym jest to źródło i skąd pochodzi. Nie można też zapominać o wypełnianiu luk informacyjnych prawdziwą i wysokiej jakości treścią. Najskuteczniejszym narzędziem w walce z propagandą jest dostarczanie sieci prawdziwych i zweryfikowanych informacji.

Na koniec – regulacje i współpraca z władzami. Oprócz rozwiązań technicznych potrzebne są również decyzje polityczne. Warto pamiętać, że internet nie zna granic, a wojna informacyjna wokół SI rozprzestrzenia się na cały świat.