Кремль теперь не просто наводняет интернет фальшивыми новостями. Российские агентства по дезинформации начали "учить" искусственный интеллект пользоваться своими лекалами. Согласно отчету EUvsDisinfo, миллионы текстов, созданных пророссийскими порталами, попадают в базы данных языковых моделей, таких как ChatGPT, влияя на ответы, генерируемые искусственным интеллектом.
В цифровую эпоху дезинформация перестала быть проблемой только социальных сетей. Сегодня она стала полноценным инструментом информационной войны, в которой у России давно есть богатый опыт. Однако, появление искусственного интеллекта (ИИ) открыло для Кремля совершенно новые возможности влиять на то, как люди (и машины) воспринимают реальность. Об этом можно прочитать в тексте «Большие языковые модели: новое поле боя российской информационной войны» на портале EUvsDisinfo.
Со времен холодной войны российские кампании по манипулированию информацией FIMI (Манипулирование и вмешательство в иностранную информацию) остались практически без изменений. Их целью было подорвать доверие к демократическим институтам и посеять хаос. Однако теперь Россия пошла дальше: вместо того чтобы взаимодействовать исключительно со своей аудиторией, она начала намеренно «обучать» искусственный интеллект воспроизводить нужную ей риторику.
«Взращивание больших языковых моделей» — новая кремлевская методика
Эксперты называют этот процесс LLM grooming (от Large Language Models). Он предполагает массовую загрузку в интернет миллионов низкокачественных текстов и статей, которые затем используются инструментами искусственного интеллекта, такими как ChatGPT, при создании ответов. В результате российские ложные нарративы начинают «просачиваться» в контент, который пользователи считают нейтральным и объективным.
Французское правительственное агентство Viginum раскрыло операцию под кодовым названием «Portal Kombat», также известную как «Паутина правды», еще в 2024 году. Это сложная система сайтов на нескольких языках, публикующих подтасованные материалы российских государственных СМИ и проправительственных влиятельных лиц.
Целями являются не только Украина, Польша и Германия, но и Франция, США, Великобритания и некоторые африканские страны. Огромное количество публикаций означает, что искусственный интеллект естественным образом начинает включать их в свои ответы.
Как установила команда NewsGuard Reality Check, сеть «Правда» распространяла, среди прочего, ложную информацию о том, что президент Украины Владимир Зеленский запретил социальную платформу Дональда Трампа Truth Social.
Из десяти протестированных чат-ботов целых шесть повторили эту неправду именно потому что их модели были подпитаны российским источникам. Доля ошибочного или манипулятивного контента в ответах ИИ увеличилась с 18 % в 2024 году до 35 % в 2025 году.
Пропаганда, которая учит машины
Феномен LLM grooming означает, что дезинформация больше не является проблемой только для получателя — она стала проблемой для системы. Кремль намеренно вводит ложные данные в глобальную информационную экосистему, чтобы в долгосрочной перспективе «убедить» алгоритмы в том, что российский нарратив — это версия правды.
Как подчеркивается в докладе Галины Падалко из Digital Policy Hub, Россия не просто распространяет ложь — она ее нормализует, со временем делая данный процесс частью «нейтрального» дискурса.
Даже такие заслуживающие доверия платформы, как Википедия, случайно цитируют источники, связанные с российской сетью «Правда». Это означает, что дезинформация начинает проникать и в те сферы, которые до сих пор считались относительно защищенными от манипуляций.
Новая угроза надежности информации
Искусственный интеллект все чаще заменяет поисковые системы, журналистов и экспертов. Многие пользователи предпочитают спрашивать у ChatGPT, а не анализировать источники самостоятельно. Поэтому влияние на контент, который попадает в языковые модели, становится одним из самых опасных пропагандистских инструментов 21 века.
По мнению исследователей Университета Клемсона, дезинформационные кампании, подобные «Шторму-1516», продолжают деятельность печально известного российского Агентства интернет-исследований, которое вмешивалось в президентские выборы в США в 2016 году. Сегодня те же механизмы используются для «отравления» искусственного интеллекта, чтобы он генерировал контент в соответствии с интересами Москвы.
Автоматизация и масштаб российских операций делают их крайне сложными для обнаружения. В отличие от традиционных «ферм троллей», здесь речь идет не об отдельных постах, а о долгосрочном формировании целых языковых моделей.
Кто контролирует правду?
«Тот, кто станет лидером в области искусственного интеллекта, будет править миром», — заявил Владимир Путин в 2017 году, как цитирует EUvsDisinfo.
Теперь ясно, что его слова не были просто хвастовством. Сегодня Россия борется за информационное господство, хотя, как отмечают аналитики, делает это в основном за счет использования иностранных технологий.
Её цель — убедить людей, за счёт работы ИИ.
источник: Large language models: the new battlefield of Russian information warfare

COMMENTS