HomeДезинформацияРоссийская дезинформация

Россия манипулирует искусственным интеллектом. Новый фронт в информационной войне Кремля

Кремль теперь не просто наводняет интернет фальшивыми новостями. Российские агентства по дезинформации начали "учить" искусственный интеллект пользоваться своими лекалами. Согласно отчету EUvsDisinfo, миллионы текстов, созданных пророссийскими порталами, попадают в базы данных языковых моделей, таких как ChatGPT, влияя на ответы, генерируемые искусственным интеллектом.

Украинцы избили польских солдат? Это очередная дезинформация Кремля
Российское «мирное предложение»: никаких войск НАТО, никаких американцев, никакого суверенитета
Может ли что-либо объединять Гданьский коридор с Сувалкским перешейком? Может – например, Владимир Путин.

В цифровую эпоху дезинформация перестала быть проблемой только социальных сетей. Сегодня она стала полноценным инструментом информационной войны, в которой у России давно есть богатый опыт. Однако, появление искусственного интеллекта (ИИ) открыло для Кремля совершенно новые возможности влиять на то, как люди (и машины) воспринимают реальность. Об этом можно прочитать в тексте «Большие языковые модели: новое поле боя российской информационной войны» на портале EUvsDisinfo.

Со времен холодной войны российские кампании по манипулированию информацией FIMI (Манипулирование и вмешательство в иностранную информацию) остались практически без изменений. Их целью было подорвать доверие к демократическим институтам и посеять хаос. Однако теперь Россия пошла дальше: вместо того чтобы взаимодействовать исключительно со своей аудиторией, она начала намеренно «обучать» искусственный интеллект воспроизводить нужную ей риторику.

«Взращивание больших языковых моделей» — новая кремлевская методика

Эксперты называют этот процесс LLM grooming (от Large Language Models). Он предполагает массовую загрузку в интернет миллионов низкокачественных текстов и статей, которые затем используются инструментами искусственного интеллекта, такими как ChatGPT, при создании ответов. В результате российские ложные нарративы начинают «просачиваться» в контент, который пользователи считают нейтральным и объективным.

Французское правительственное агентство Viginum раскрыло операцию под кодовым названием «Portal Kombat», также известную как «Паутина правды», еще в 2024 году. Это сложная система сайтов на нескольких языках, публикующих подтасованные материалы российских государственных СМИ и проправительственных влиятельных лиц.

Целями являются не только Украина, Польша и Германия, но и Франция, США, Великобритания и некоторые африканские страны. Огромное количество публикаций означает, что искусственный интеллект естественным образом начинает включать их в свои ответы.

Как установила команда NewsGuard Reality Check, сеть «Правда» распространяла, среди прочего, ложную информацию о том, что президент Украины Владимир Зеленский запретил социальную платформу Дональда Трампа Truth Social.

Из десяти протестированных чат-ботов целых шесть повторили эту неправду именно потому что их модели были подпитаны российским источникам. Доля ошибочного или манипулятивного контента в ответах ИИ увеличилась с 18 % в 2024 году до 35 % в 2025 году.

Пропаганда, которая учит машины

Феномен LLM grooming означает, что дезинформация больше не является проблемой только для получателя — она стала проблемой для системы. Кремль намеренно вводит ложные данные в глобальную информационную экосистему, чтобы в долгосрочной перспективе «убедить» алгоритмы в том, что российский нарратив — это версия правды.

Как подчеркивается в докладе Галины Падалко из Digital Policy Hub, Россия не просто распространяет ложь — она ее нормализует, со временем делая данный процесс частью «нейтрального» дискурса.

Даже такие заслуживающие доверия платформы, как Википедия, случайно цитируют источники, связанные с российской сетью «Правда». Это означает, что дезинформация начинает проникать и в те сферы, которые до сих пор считались относительно защищенными от манипуляций.

Новая угроза надежности информации

Искусственный интеллект все чаще заменяет поисковые системы, журналистов и экспертов. Многие пользователи предпочитают спрашивать у ChatGPT, а не анализировать источники самостоятельно. Поэтому влияние на контент, который попадает в языковые модели, становится одним из самых опасных пропагандистских инструментов 21 века.

По мнению исследователей Университета Клемсона, дезинформационные кампании, подобные «Шторму-1516», продолжают деятельность печально известного российского Агентства интернет-исследований, которое вмешивалось в президентские выборы в США в 2016 году. Сегодня те же механизмы используются для «отравления» искусственного интеллекта, чтобы он генерировал контент в соответствии с интересами Москвы.

Автоматизация и масштаб российских операций делают их крайне сложными для обнаружения. В отличие от традиционных «ферм троллей», здесь речь идет не об отдельных постах, а о долгосрочном формировании целых языковых моделей.

Кто контролирует правду?

«Тот, кто станет лидером в области искусственного интеллекта, будет править миром», — заявил Владимир Путин в 2017 году, как цитирует EUvsDisinfo.

Теперь ясно, что его слова не были просто хвастовством. Сегодня Россия борется за информационное господство, хотя, как отмечают аналитики, делает это в основном за счет использования иностранных технологий.

Её цель — убедить людей, за счёт работы ИИ.

источник: Large language models: the new battlefield of Russian information warfare

COMMENTS

WORDPRESS: 0
DISQUS: