HomeDezinformacjaNajnowsze

Rosja manipuluje sztuczną inteligencją. Nowy front wojny informacyjnej Kremla

Kreml już nie tylko zalewa Internet fake newsami. Rosyjskie fabryki dezinformacji zaczęły „uczyć” sztuczną inteligencję swoich narracji. Według raportu EUvsDisinfo, miliony tekstów tworzonych przez prorosyjskie portale trafiają do baz danych modeli językowych takich jak ChatGPT, wpływając na odpowiedzi generowane przez AI.

Polska przygotowuje się do ataku na kraj, który coś chce jej odebrać Kto tak twierdzi?
Rosjanie nazwali Treblinkę polskim obozem
Miedwiediew nazwał Polskę sługą III Rzeszy

W epoce cyfrowej dezinformacja przestała być jedynie problemem mediów społecznościowych. Dziś stała się pełnoprawnym narzędziem wojny informacyjnej, w której Rosja od dawna posiada ogromne doświadczenie. Jednak pojawienie się sztucznej inteligencji (AI) otworzyło przed Kremlem zupełnie nowe możliwości wpływania na sposób, w jaki ludzie – i maszyny – postrzegają rzeczywistość. Przeczytać o tym możemy w tekście Large language models: the new battlefield of Russian information warfare zamieszczonym na portalu .

Od czasów zimnej wojny rosyjskie kampanie manipulacji informacyjnej (tzw. FIMI – Foreign Information Manipulation and Interference) pozostawały w dużej mierze niezmienne. Ich celem było podważanie zaufania do instytucji demokratycznych i sianie chaosu. Teraz jednak Rosja poszła o krok dalej – zamiast oddziaływać wyłącznie na odbiorców, zaczęła celowo „trenować” sztuczną inteligencję, by ta powielała rosyjskie narracje.

„LLM grooming” – nowa technika Kremla

Eksperci nazywają ten proces LLM groomingiem (od Large Language Models – duże modele językowe). Polega on na masowym wprowadzaniu do Internetu milionów niskiej jakości tekstów i artykułów, które później są wykorzystywane przez narzędzia oparte na AI – takie jak ChatGPT – podczas generowania odpowiedzi. W efekcie rosyjskie fałszywe narracje zaczynają „przeciekać” do treści, które użytkownicy uznają za neutralne i obiektywne.

Francuska agencja rządowa Viginum już w 2024 roku ujawniła operację o kryptonimie „Portal Kombat”, znaną także jako „Sieć Prawda”. To rozbudowany system stron internetowych w wielu językach, publikujących zmanipulowane materiały pochodzące z rosyjskich mediów państwowych i prorządowych influencerów.

Celem są nie tylko Ukraina, Polska i Niemcy, ale również Francja, USA, Wielka Brytania i część krajów afrykańskich. Ogromna liczba publikacji sprawia, że sztuczna inteligencja w naturalny sposób zaczyna je uwzględniać w swoich odpowiedziach.

Jak ustalił zespół NewsGuard Reality Check, sieć „Prawda” rozpowszechniała m.in. fałszywą informację, jakoby prezydent Ukrainy Wołodymyr Zełenski zakazał działalności platformy Truth Social Donalda Trumpa.

Z dziesięciu przetestowanych chatbotów aż sześć powtórzyło tę nieprawdę – właśnie dlatego, że ich modele zostały „nakarmione” rosyjskimi źródłami. Udział błędnych lub manipulacyjnych treści w odpowiedziach AI wzrósł z 18% w 2024 roku do 35% w roku 2025.

Propaganda, która uczy maszyny

Zjawisko LLM groomingu oznacza, że dezinformacja przestała być tylko problemem odbiorcy – stała się problemem systemu. Kreml świadomie wprowadza do globalnego ekosystemu informacyjnego fałszywe dane, by w dłuższej perspektywie „przekonać” algorytmy, że rosyjska narracja to wersja prawdy.

Jak podkreśla raport Halyny Padalko z Digital Policy Hub, Rosja nie tylko rozpowszechnia kłamstwa – ona normalizuje je, sprawiając, że z czasem stają się częścią „neutralnego” dyskursu.

Nawet wiarygodne platformy, takie jak Wikipedia, nieświadomie cytowały źródła powiązane z rosyjską siecią „Prawda”. Oznacza to, że dezinformacja zaczyna wnikać także w przestrzeń, którą dotąd uważano za w miarę odporną na manipulacje.

Nowe zagrożenie dla wiarygodności informacji

Sztuczna inteligencja coraz częściej zastępuje wyszukiwarki, dziennikarzy i ekspertów. Wielu użytkowników woli zapytać ChatGPT, niż samodzielnie analizować źródła. Dlatego wpływanie na treści, które trafiają do modeli językowych, staje się jednym z najgroźniejszych narzędzi propagandy XXI wieku.

Według badaczy z Uniwersytetu Clemson kampanie dezinformacyjne, takie jak „Storm-1516”, kontynuują działalność słynnej rosyjskiej Internet Research Agency, która ingerowała w wybory prezydenckie w USA w 2016 roku. Dziś te same mechanizmy wykorzystywane są do „zatruwania” sztucznej inteligencji, by generowała treści zgodne z interesami Moskwy.

Automatyzacja i skala rosyjskich operacji sprawiają, że są one niezwykle trudne do wykrycia. W przeciwieństwie do tradycyjnych „farm trolli”, tu nie chodzi o pojedyncze wpisy, lecz o długofalowe kształtowanie całych modeli językowych.

Kto kontroluje prawdę?

„Ten, kto zostanie liderem w sztucznej inteligencji, będzie rządził światem” – mówił Władimir Putin już w 2017 roku, cytowany przez

Teraz widać, że jego słowa nie były jedynie przechwałkami. Rosja walczy dziś o dominację informacyjną, choć – jak zauważają analitycy – czyni to głównie, korzystając z obcych technologii.

A jej celem jest przekonywanie ludzi, przez kształtowanie myślenia samych maszyn.

źródło: Large language models: the new battlefield of Russian information warfare

COMMENTS

WORDPRESS: 1
DISQUS: