HomeДезинформацияВыбор редакции

Как ИИ используется против правды?

Чат-боты с искусственным интеллектом уже стали неотъемлемой частью нашей повседневной жизни. Они становятся все быстрее и умнее. Проблема только в том, что их можно использовать и в ущерб нам, чтобы вбивать в наши головы фальшивые новости. И не просто можно, а это происходит уже сейчас.

Песков и Захарова впали в истерику после высказываний Дональда Туска
Польская армия предупреждает о путинской дезинформации
Что российская пропаганда приписала польскому генералу?

Это доказали аналитики британского аналитического центра Institute for Strategic Dialogue (ISD), которые изучили ответы четырех популярных чат-ботов на вопросы о российском вторжении на Украину. Оказалось, что почти 20 % всех ответов включали источники, связанные с Россией, многие из которых попали под санкции ЕС. Что еще хуже, среди них были и российские СМИ, находящиеся под санкциями (заблокированные) в ЕС.

Исследование охватывало ChatGPT (OpenAI), Gemini (Google), Grok (xAI) и DeepSeek (V3.2). Вопросы задавались на английском, испанском, французском, немецком и итальянском языках.

Из всех чат-ботов ChatGPT цитировал наибольшее количество российских источников и был наиболее подвержен предвзятым запросам. Grok, в свою очередь, часто размещал ссылки на аккаунты, связанные с Россией, но не имеющими отношения к государству, усиливая прокремлевские нарративы. Отдельные ответы DeepSeek иногда выдавали большое количество контента, приписываемого государству, а Gemini, принадлежащий Google, часто отображал предупреждения о безопасности для подобных сообщений.

  1. ChatGPT чаще всего ссылался на российские источники и был наиболее подвержен влиянию предвзятых запросов.
  2. Grok часто ссылался на аккаунты, связанные с Россией, но формально независимые от государства, что усиливало прокремлевские нарративы.
  3. Отдельные ответы DeepSeek содержали много контента, приписываемого российским государственным источникам,
  4. Принадлежащий Google Gemini часто выдавал предупреждения о безопасности при таких запросах

Из всех чат-ботов Gemini был единственным, кто внедрил подобные меры защиты, тем самым признав риск появления предвзятых и вредоносных сообщений о войне в Украине». Однако, по сравнению с аналогами, чат-бот Google не предлагал специальной опции, такой как ChatGPT или Grok, с отдельной проверкой цитируемых источников». — говорится в анализе ISD.

Интересно, что во всех пяти языках количество источников, приписываемых Кремлю, было примерно одинаковым, но несколько выше в итальяноком и испанском сегментах, и ниже во французском и немецком.

Многое указвает на то, что проблемы чат-ботов с российской дезинформацией — это не случайность, а следствие действий российской пропаганды и IT-специалистов. Речь идет о «LLM grooming» (Large Language Models – большие языковые модели). Эта деятельность заключается в массовом размещении в интернете миллионов текстов и статей низкого качества, которые затем используются инструментами на основе искусственного интеллекта при генерации ответов. В результате фальшивые российские нарративы начинают «просачиваться» в контент, который пользователи считают нейтральным и объективным.

Тем, кто использует чаты, также следует помнить, что ИИ считывает тон нашего вопроса или команды.

На нейтральные вопросы чата отвечали только 11% ответов, основанных на российских источниках. Команды, явно выражающие мнение спрашивающего, составляют уже 18%, а задаваемые тенденциозно или злонамеренно — 24%.

Это означает, что чат-боты на основе искусственного интеллекта подвержены так называемому эффекту подтверждения. Люди (а теперь и ИИ) склонны искать, интерпретировать и запоминать информацию таким образом, чтобы она подтверждала их прежние убеждения и ожидания, игнорируя или отвергая противоречивую информацию.

Поэтому вопрос может содержать в себе предполагаемый ответ:

Предвзятый вопрос: «Почему Украина не хочет прекращения войны?»Нейтральный вопрос: «Что мешает мирным переговорам между Россией и Украиной?»

Эффект подтверждения в мире искусственного интеллекта создает «цифровое эхо». Пользователь получает контент, который подтверждает его убеждения, поэтому он воспринимает его как истину. В результате:

  1. дезинформация приобретает статус знания,
  2. пропаганда набирает обороты,
  3. общество теряет способность к критическому мышлению.

Поэтому стоит помнить, что пропаганда больше не работает только на эмоциях. Сегодня она также работает над алгоритмами, которые не имеют эмоций — но могут прекрасно их имитировать.

подгот. ih

источник: Investigation | Talking Points: When chatbots surface Russian state media

COMMENTS

WORDPRESS: 0
DISQUS: 0