В 2025 году поисковые системы деградируют в угоду маркетинговым стратегиям, создавая для пользователей информационные пузыри, выбраться из которых не так просто. Хорошо оптимизированные пропагандистские сайты попадают в поисковую выдачу, и аудитория начинает пользоваться их контентом. Языковые модели обучаются на недостоверной информации и на её основе формируют ответы для пользователей. При этом, из-за низкого уровня медиаграмотности растёт цифровое неравенство, и самые уязвимые группы населения оказываются в мире фейков, даже не подозревая, что всё вокруг — подделка.
Это не описание пост апокалиптического мира, а реальность 2025 года, которую во время презентации, посвящённой глобальным и региональным трендам дезинформации, представил редактор Provereno.Media Павел Банников.
«Новый репортёр» записал основные тезисы его выступления.
(Дез)информационная война: предыстория (2020–2022)
Пандемия COVID-19 и сопутствующая ей инфодемия изменили глобальный пропагандистский ландшафт. Три мощнейшие (хотя и по-разному устроенные) машины стали активно использовать партизанские технологии, не имея возможности контролировать последствия дезинформационных кампаний. Яркий пример — запущенная во время первого президентского срока Дональда Трампа секретная операция Пентагона по дискредитации китайской вакцины, затронувшая страны, которые не входили в план информационной атаки, в том числе, вероятно, негативно повлиявшая и на сами США.

Эта операция была описана в специальном расследовании Reuters в июне 2024 года. Например, один из нарративов этой информационной атаки был связан с публикациями о том, что в китайской вакцине против коронавируса содержится свиной желатин. Он был нацелен на страны с мусульманским населением, прежде всего, арабские, но оказался в том числе и в Центральной Азии.
Впрочем, не только государства взяли технологии на вооружение. Общество тоже включилось и радикально изменило по всему миру получило новые инструменты политического влияния, усилило возможности возмездия и помогло кооптировать на свою сторону уязвимые и маргинальные аудитории в глобальный супераппарат.
ИИ-наводнение. Роль техногигантов
Социальные платформы активно внедряют и поощряют использование ИИ для генерации контента. Это обеспечивает рост монетизации и вовлечённости пользователей, но одновременно создаёт благоприятную среду для распространения дезинформации.
Отсутствие строгого регулирования и прозрачных стандартов маркировки ИИ-контента дополнительно способствует снижению критического восприятия информации аудиторией.
В 2025 году каждый четвёртый пост в социальных сетях создаётся с помощью нейросетей, например, доля ИИ-контента среди длинных постов в ФБ составляет 41 %. Это серьёзно трансформирует информационное пространство и усложнит процесс выявления недостоверной информации.
При этом смена политики компании Meta в отношении недостоверного контента влияет и будет влиять на видимость вводящих в заблуждение текстов, фото и видео.
Между тем, под сменой политики Meta имеется в виду отказ от проверки фактов на платформах Facebook и Instagram, который был введён в США в январе 2025 года. Изначально программа сторонней проверки фактов третьими лицами была запущена корпорацией Meta в 2016 году на фоне растущего беспокойства о том, как дезинформация онлайн угрожает демократии и жизни людей. Отказ от этой практики осудили фактчекеры по всему миру.
Новые стратегии кибермошенников
До 50% всех попыток мошенничества с документами связаны с использованием ИИ. Нейросети генерируют высококачественные фальшивые удостоверения личности, паспорта и финансовые документы. ИИ-алгоритмы изучают цифровой след потенциальных жертв, адаптируют сценарии обмана и автоматизируют диалоги через чат-боты, делая атаки более убедительными и массовыми.
Искусственный интеллект трансформировал киберпреступность, позволяя масштабировать атаки и повышать их эффективность. Уровень входа снизился. Традиционные методы защиты становятся всё менее действенными против таких продвинутых угроз. Прогнозируемый ущерб от онлайн-мошенничества в период 2023–2028 годов превысит $362 млрд, что сопоставимо с ВВП средней европейской страны.
При этом, только в Казахстане за первые шесть месяцев 2025 года Интернет-мошенники украли у жителей 25 млрд тенге (почти $48 млн).
Фактчек в руках пропагандистов превращается в пропаганду
В 2025 году появилась инициатива Global Fact-Checking Network (GFCN), позиционирующаяся как международная организация по проверке фактов, но фактически являющаяся инструментом российской пропаганды.
GFCN игнорирует базовые принципы независимого фактчекинга: отсутствует прозрачность, присутствует государственное финансирование (через ТАСС и АНО «Диалог»), продвигаются прокремлёвские нарративы.
Агентство Sputnik под эгидой Россотрудничества проводит тренинги для журналистов в десятках стран Европы, Азии, Африки и Латинской Америки, продвигая российские нарративы под видом профессионального развития.
Подобная тактика использования фактчекинга в качестве инструмента пропаганды подрывает доверие к проверке фактов в целом и создаёт информационный хаос, в котором аудитории сложно понять, какие источники действительно заслуживают доверия.
Продолжаются информационные атаки на фактчекеров
В 2024 и 2025 годах фактчекеры по всему миру, включая страны СНГ, столкнулись с целенаправленными информационными атаками. Это не новость, атаки начались ещё во время пандемии. Но эти атаки стали более технологичными, масштабными и разнообразными, что подтверждается специализированными отчётами и аналитикой профильных организаций. По разным данным 78 % фактчекеров сталкиваются с преследованием, а более трети организаций подвергаются кибератакам.
Алгоритмическая киберрадикализация
Кроме мошенников, нейросети используют и различные радикальные организации для пропаганды и вербовки, и ИИ даёт им, как и всем, новые возможности.
Например, с помощью ИИ возможно автоматизировать производство контента, персонализировать идеологические сообщения и создавать симулированные отношения с уязвимыми людьми. Кроме того, радикальные медиаподразделения распространяют руководства по обходу защитных барьеров ИИ, что позволяет генерировать пропагандистские материалы или нарративы, разжигающие ненависть, избегая при этом автоматизированной модерации.
Хотя ИИ в руках террористов и кажется дистопией, технологии уже доступны, а наблюдаемые тенденции указывают на глубокую стратегическую мутацию современных методов радикализации.
Пессимизация основных поисковых систем
Все поисковые системы и алогоритмы деградируют в пользу маркетинговых стратегий и получения денег и формируют информационные пузыри и плюс вы заметили
С 2019 года наблюдается устойчивое снижение качества поиска в Google и Яндекс. Персонализированная выдача формирует «информационные пузыри», где пользователи получают результаты, соответствующие их предпочтениям и убеждениям.
Ответы, сгенерированные искусственным интеллектом в поисковой выдаче, часто содержат ошибки и опираются на ненадёжные источники, подрывая доверие к информации. А достоверные в самом конце и большинство через поиск ищут и это опасно для регионов с низким уровнем медиаграмотнсои они не переходят.
Ухудшение качества поисковых систем происходит параллельно с ростом их влияния на информационное потребление. Большинство пользователей по-прежнему получают информацию через поисковые сервисы, даже не осознавая снижения их надёжности.
Эта тенденция особенно опасна для регионов с низким уровнем медиаграмотности, где пользователи не имеют навыков критической оценки информации и полагаются на поисковые системы как на объективный источник знаний.
Новое цифровое неравенство: риски стран Центральной Азии
Большинство пользователей используют ИИ не по назначению или без должной критичности. Это проявляется в доверии к «галлюцинациям», нарушении политик, ошибках в работе и даже в создании новых рисков для бизнеса и общества.
Главные ошибки и злоупотребления при работе с ИИ
- 58% доверяют ИИ-ответам без перепроверки.
- 86% сталкивались с «галлюцинациями» ИИ.
- 77% были введены в заблуждение ИИ хотя бы раз.
- 46% загружали чувствительные данные в публичные ИИ-сервисы.
В 2025 году цифровое неравенство приобрело новое измерение — интеллектуальное. Люди, обладающие навыками работы с ИИ, получают значительные преимущества, в то время как остальные становятся уязвимыми перед манипуляциями.
Китай и ОАЭ уже внедряют обучение искусственному интеллекту в школьную программу с первого класса, что даёт их гражданам серьёзное конкурентное преимущество. Страны Центральной Азии существенно отстают в этом процессе из-за нехватки квалифицированных педагогов и ресурсов.
Основные риски:
- Интеллектуальное неравенство
- Образовательный разрыв
- Недостаток медиаграмотности
- Технологическая зависимость
Главное препятствие — отсутствие системных программ по медиаграмотности в образовательной системе. Школьников хотят учить логике работы с ИИ, но не объясняют, что такое обычная формальная логика. Это усугубляет информационную уязвимость региона.
Перспективы развития ситуации
Доля ИИ-контента и количество случаев мошенничества растут, в то время как медиаграмотность населения увеличивается гораздо медленнее. Этот разрыв создаёт благоприятные условия для распространения дезинформации.
Прогнозируется дальнейший рост объёма сгенерированного ИИ-контента и связанного с ним мошенничества. Разрыв между уровнем медиаграмотности и объёмом ИИ-контента увеличивается, что создаёт благоприятные условия для распространения дезинформации.
Внедрение обучения работе с ИИ в школьную программу становится необходимостью, особенно для стран Центральной Азии. Однако это требует значительных финансовых вложений и подготовки специалистов, что представляет серьёзный вызов для региона.
Вызовы и решения для информационной безопасности
Для эффективного противодействия дезинформации необходим комплексный подход обновление образовательных программ, поддержка независимых фактчекинговых организаций, а также разумное регулирование использования ИИ и международное сотрудничество в сфере информационной безопасности.
Государственно-частное партнёрство в этой сфере крайне необходимо при условии сохранения независимости экспертов.При общих целях у госорганов нет достаточной экспертизы, а у экспертного сообщества и НПО — нужного влияния.
Только системные меры позволяют снизить цифровое неравенство и снизить негативное влияние дезинформации на общество. Особенно важно развитие региональных инициатив, учитывающих специфику информационного пространства Центральной Азии.
Основные рекомендации:
- Внедрение базовых курсов медиаграмотности для журналистов и педагогов.
- Разработка методических материалов по выявлению дезинформации и работе с ИИ-инструментами. Наработки имеются и используются в вузах, однако масштабы недостаточны.
- Реинтеграция курса формальной логики, и интеграция курса медиаграмотности в обязательную школьную программу.
- Создание региональных центров цифровой грамотности в странах Центральной Азии.
- Формирование новой культуры информационного потребления с медиаграмотным мышлением и поведением в основе.
- Разработка региональных стандартов противодействия дезинформации.
Рекомендации для государственных органов и неправительственных организаций стран Центральной Азии:
- Разрабатывать и внедрять обязательные курсы медиаграмотности и формальной логики в школьную программу.
- Развивать региональную сеть независимых фактчекинговых организаций.
- Разрабатывать программы подготовки педагогов по медиаграмотности и разумной работе с ИИ.
- Участвовать в международных инициативах по борьбе с дезинформацией.
- Развивать полноценное партнёрство между госорганами и НПО.
Презентация Павла Банникова «Глобальные и региональные тренды дезинформации в 2025 году» состоялась в рамках регионального проекта «Повышение устойчивости аудитории через достоверные истории (CARAVAN)», финансируемого Европейским Союзом и реализуемого Internews.
Презентацию П. Банникова можно посмотреть здесь: