Как роспропаганда наводняет интернет фейками и уже влияет на работу ChatGPT и Gemini
Российская кампания по дезинформации все активнее наводняет интернет и теперь нацелена на искусственный интеллект. Как утверждает BR24 в рубрике Faktenfuchs, пропагандистские сети пытаются «подкормить» языковые модели массой однотипных материалов, из-за, например, ChatGPT и Gemini порой воспроизводят ложные нарративы в ответах пользователям.
Около половины интернет-пользователей вместо классического поиска в Google хотя бы раз отдавали предпочтение чат-ботам с искусственным интеллектом, таким как ChatGPT или Gemini, что сделало их привлекательной мишенью для манипуляций, например, со стороны России.
Журналисты BR24 в рубрике Faktenfuchs выпустили расследование о том, как российская сеть Pravda наводняет интернет контентом с прокремлевскими нарративами и влияет в том числе на работу ИИ-моделей. У Pravda сложная структура — это одна главная площадка и множество дочерних страниц на десятках языков в 49 странах. По данным BR24, к январю 2026 года сеть опубликовала более 6,7 млн материалов с тезисами роспропаганды. Эксперты, на которых ссылаются авторы статьи, отмечают «неестественно» высокую скорость публикаций — десятки текстов в час, что указывает на автоматизированную генерацию контента с помощью ИИ.
«Стиральная машина для кремлевской пропаганды»
В расследовании подчеркивается: Pravda не обязательно придумывает новые фейки, а в основном перепаковывает и многократно размножает материалы российских госмедиа, прокремлевских инфлюенсеров и официальных лиц. Цель в том, чтобы дальше эти сообщения подхватывали другие сайты и аккаунты, и ложь постепенно «отмывалась», выглядя как «везде обсуждаемая» и потому будто бы заслуживающая доверия. Один из экспертов назвал это «стиральной машиной для кремлевской пропаганды».
BR24 отмечает, что сеть Pravda нацелена не только на обычных онлайн-пользователей. По версии авторов расследования, часть материалов рассчитана на веб-краулеры — программы, которые индексируют сайты и собирают массивы текстов. Такой подход называется «LLM Grooming» — когда интернет намеренно «заливают» контентом, чтобы он попал в индексы и датасеты и стал «сырьем» для обучения и работы языковых моделей.
В качестве примера приводится фейковая история о том, что Владимир Зеленский якобы купил дом в Баварии, который ранее принадлежал Гитлеру, за несколько миллионов евро. BR24 подчеркивает, что объект по-прежнему принадлежит земле Бавария, а сама ложь построена по типичному для российской дезинформации шаблону — показать Украину коррумпированной и тем самым подорвать поддержку Киева на Западе. Происхождение этой истории связывают с российской пропагандистской группой Storm-1516, которая пользуется характерными приемами вроде поддельных документов и «свидетелей», призванных добавить правдоподобия.
Влияние на языковые модели ИИ
Исследования, на которые ссылается BR24, фиксируют, что чатботы действительно иногда повторяют подобные тезисы. В тестах NewsGuard в марте 2025 чатботы воспроизводили нарративы сети Pravda примерно в трети случаев — иногда даже со ссылкой на эти сайты. Другое исследование (ISD Global, октябрь 2025) оценивало долю воспроизведения в диапазоне 10–25% — в зависимости от модели и формулировок вопроса.
Причину авторы объясняют через так называемые «data voids» — информационные «пустоты». Если по выдуманному утверждению в интернете почти нет качественных опровержений и доминирует один поток публикаций, ИИ-модель может «опираться» именно на него. Дополнительный риск в том, что на сайты Pravda иногда ссылаются другие ресурсы, включая Википедию и различные медиа (в том числе даже Forbes, The Atlantic и Politico.), и тогда алгоритмы поисковиков и рекомендаций воспринимают такие ссылки как признак «значимости» — запускается самоподдерживающийся круг распространения.