HomeDezinformacjaWiadomości główne

Jak wykorzystuje się inteligencję przeciwko nam?

Chatboty AI są już nieodłączną częścią naszej codzienności. Są coraz szybsze i mądre. Problem tylko w tym, że można ich używać także na naszą szkodę, aby wpychać nam go głowy fake newsy. I nie tylko można, bo to się już dzieje.

Rosja manipuluje sztuczną inteligencją. Nowy front wojny informacyjnej Kremla
Nie wierz od razu temu, co widzisz
Rzecznik OpenAI nie zareagował na kłamstwa

Udowodnili to analitycy brytyjskiego think tanku Institute for Strategic Dialogue (ISD), którzy sprawdzili odpowiedzi czterech popularnych chatbotów na pytania  dotyczące rosyjskiej inwazji na Ukrainę. I okazało się, że prawie 20% wszystkich odpowiedzi zawierało źródła powiązane z rosyjskim państwem, z czego wiele objęto sankcjami w UE. Co gorsza były wśród nich także rosyjskie media objęte sankcjami (zablokowane) w UE.

Badaniem objęto ChatGPT (OpenAI), Gemini (Google), Grok (xAI) i DeepSeek (V3.2) . A pytania zadawano po angielsku, hiszpańsku, francusku, niemiecku i włosku.

Spośród wszystkich chatbotów, ChatGPT cytował najwięcej rosyjskich źródeł i był najbardziej podatny na stronnicze zapytania. Grok z kolei często linkował do kont powiązanych z Rosją, ale niezwiązanych z państwem, wzmacniając narracje prokremlowskie. Poszczególne odpowiedzi DeepSeek czasami generowały duże ilości treści przypisywanych państwu, podczas gdy należący do Google Gemini często wyświetlał ostrzeżenia dotyczące bezpieczeństwa dla podobnych komunikatów.

1. ChatGPT najczęściej cytował rosyjskie źródła i był najbardziej podatny na wpływ tendencyjnych zapytań.
2. Grok często odwoływał się do kont powiązanych z Rosją, lecz formalnie niezależnych od państwa, które wzmacniały narracje prokremlowskie.
3. Pojedyncze odpowiedzi DeepSeek zawierały duże ilości treści przypisywanych rosyjskim źródłom państwowym,
4. Należący do Google Gemini często wyświetlał ostrzeżenia o bezpieczeństwie przy podobnych zapytaniach

„Spośród wszystkich chatbotów, Gemini był jedynym, który wprowadził takie zabezpieczenia, dostrzegając tym samym ryzyko związane z stronniczymi i złośliwymi komunikatami dotyczącymi wojny na Ukrainie. Jednak w porównaniu ze swoimi odpowiednikami, chatbot Google’a nie oferował dedykowanej opcji, takiej jak ChatGPT czy Grok, z osobnym przeglądem cytowanych źródeł.” – czytamy w analizie ISD.

Co ciekawe we wszystkich pięciu językach liczba źródeł przypisywanych Kremlowi była mniej więcej taka sama, z nieco wyższymi poziomami w języku włoskim i hiszpańskim oraz niższymi w języku francuskim i niemieckim.

Wiele wskazuje, że problemy czatbotów z rosyjską dezinformacją to nie przypadek, a konsekwencja działań rosyjskiej propagandy i informatyków. Chodzi o „LLM grooming” (Large Language Models – duże modele językowe). Działanie to polega na masowym wprowadzaniu do Internetu milionów niskiej jakości tekstów i artykułów, które później są wykorzystywane przez narzędzia oparte na AI podczas generowania odpowiedzi. W efekcie rosyjskie fałszywe narracje zaczynają „przeciekać” do treści, które użytkownicy uznają za neutralne i obiektywne.

Rosja manipuluje sztuczną inteligencją. Nowy front wojny informacyjnej Kremla

Korzystający z chatów powinni też pamiętać o tym, że AI odczytuje ton naszego pytania czy polecenia.

Na neutralne polecenia chaty udzielały tylko 11 proc. odpowiedzi opartych na rosyjskich źródłach. Polecenia dobitnie wyrażające poglądy pytającego to już 18%, a zadawane tendencyjnie lub złośliwie: 24 proc.

Oznacza to, że Chatboty AI są narażone na tzw. efekt potwierdzenia. To tendencja człowieka (a teraz i AI) do poszukiwania, interpretowania i zapamiętywania informacji w sposób, który potwierdza jego wcześniejsze przekonania i oczekiwania — przy jednoczesnym ignorowaniu lub odrzucaniu sprzecznych z nimi informacji .

Pytanie może więc zawierać w sobie sugerowaną odpowiedź:

Pytanie tendencyjne: „Dlaczego Ukraina nie chce zakończenia wojny?”
Pytanie neutralne: „Jakie są przeszkody w rozmowach pokojowych między Rosją a Ukrainą?”

Efekt potwierdzenia w świecie sztucznej inteligencji tworzy „cyfrowe echo”. Użytkownik otrzymuje treści, które potwierdzają jego przekonania, więc uznaje je za prawdę. W efekcie:

1. Dezinformacja zyskuje status wiedzy,
2. Propaganda zyskuje zasięgi,
3. Społeczeństwo traci zdolność do krytycznego myślenia.

Warto zatem pamiętać, że propaganda przestała działać tylko na emocje. Dziś działa także na algorytmy, które nie mają emocji — ale potrafią perfekcyjnie je naśladować.

oprac. ih

źródło:

Investigation | Talking Points: When chatbots surface Russian state media

 

COMMENTS

WORDPRESS: 1
DISQUS: 0