HomeДезинформацияВыбор редакции

Как ИИ используется против правды?

Чат-боты с искусственным интеллектом уже стали неотъемлемой частью нашей повседневной жизни. Они становятся все быстрее и умнее. Проблема только в том, что их можно использовать и в ущерб нам, чтобы вбивать в наши головы фальшивые новости. И не просто можно, а это происходит уже сейчас.

Почему Польша вооружается?
Фальшивая история на улицах Москвы
За молитву их назвали “гитлеровцами”

Это доказали аналитики британского аналитического центра Institute for Strategic Dialogue (ISD), которые изучили ответы четырех популярных чат-ботов на вопросы о российском вторжении на Украину. Оказалось, что почти 20 % всех ответов включали источники, связанные с Россией, многие из которых попали под санкции ЕС. Что еще хуже, среди них были и российские СМИ, находящиеся под санкциями (заблокированные) в ЕС.

Исследование охватывало ChatGPT (OpenAI), Gemini (Google), Grok (xAI) и DeepSeek (V3.2). Вопросы задавались на английском, испанском, французском, немецком и итальянском языках.

Из всех чат-ботов ChatGPT цитировал наибольшее количество российских источников и был наиболее подвержен предвзятым запросам. Grok, в свою очередь, часто размещал ссылки на аккаунты, связанные с Россией, но не имеющими отношения к государству, усиливая прокремлевские нарративы. Отдельные ответы DeepSeek иногда выдавали большое количество контента, приписываемого государству, а Gemini, принадлежащий Google, часто отображал предупреждения о безопасности для подобных сообщений.

  1. ChatGPT чаще всего ссылался на российские источники и был наиболее подвержен влиянию предвзятых запросов.
  2. Grok часто ссылался на аккаунты, связанные с Россией, но формально независимые от государства, что усиливало прокремлевские нарративы.
  3. Отдельные ответы DeepSeek содержали много контента, приписываемого российским государственным источникам,
  4. Принадлежащий Google Gemini часто выдавал предупреждения о безопасности при таких запросах

Из всех чат-ботов Gemini был единственным, кто внедрил подобные меры защиты, тем самым признав риск появления предвзятых и вредоносных сообщений о войне в Украине». Однако, по сравнению с аналогами, чат-бот Google не предлагал специальной опции, такой как ChatGPT или Grok, с отдельной проверкой цитируемых источников». — говорится в анализе ISD.

Интересно, что во всех пяти языках количество источников, приписываемых Кремлю, было примерно одинаковым, но несколько выше в итальяноком и испанском сегментах, и ниже во французском и немецком.

Многое указвает на то, что проблемы чат-ботов с российской дезинформацией — это не случайность, а следствие действий российской пропаганды и IT-специалистов. Речь идет о «LLM grooming» (Large Language Models – большие языковые модели). Эта деятельность заключается в массовом размещении в интернете миллионов текстов и статей низкого качества, которые затем используются инструментами на основе искусственного интеллекта при генерации ответов. В результате фальшивые российские нарративы начинают «просачиваться» в контент, который пользователи считают нейтральным и объективным.

Тем, кто использует чаты, также следует помнить, что ИИ считывает тон нашего вопроса или команды.

На нейтральные вопросы чата отвечали только 11% ответов, основанных на российских источниках. Команды, явно выражающие мнение спрашивающего, составляют уже 18%, а задаваемые тенденциозно или злонамеренно — 24%.

Это означает, что чат-боты на основе искусственного интеллекта подвержены так называемому эффекту подтверждения. Люди (а теперь и ИИ) склонны искать, интерпретировать и запоминать информацию таким образом, чтобы она подтверждала их прежние убеждения и ожидания, игнорируя или отвергая противоречивую информацию.

Поэтому вопрос может содержать в себе предполагаемый ответ:

Предвзятый вопрос: «Почему Украина не хочет прекращения войны?»Нейтральный вопрос: «Что мешает мирным переговорам между Россией и Украиной?»

Эффект подтверждения в мире искусственного интеллекта создает «цифровое эхо». Пользователь получает контент, который подтверждает его убеждения, поэтому он воспринимает его как истину. В результате:

  1. дезинформация приобретает статус знания,
  2. пропаганда набирает обороты,
  3. общество теряет способность к критическому мышлению.

Поэтому стоит помнить, что пропаганда больше не работает только на эмоциях. Сегодня она также работает над алгоритмами, которые не имеют эмоций — но могут прекрасно их имитировать.

подгот. ih

источник: Investigation | Talking Points: When chatbots surface Russian state media

COMMENTS

WORDPRESS: 0
DISQUS: 0