ИИ против всех: как дезинформация вышла на новый уровень, а Центральная Азия оказалась особенно уязвимой

0
52
Фото сгенерировано ChatGPT

В 2025 году поисковые системы деградируют в угоду маркетинговым стратегиям, создавая для пользователей информационные пузыри, выбраться из которых не так просто. Хорошо оптимизированные пропагандистские сайты попадают в поисковую выдачу, и аудитория начинает пользоваться их контентом. Языковые модели обучаются на недостоверной информации и на её основе формируют ответы для пользователей. При этом, из-за низкого уровня медиаграмотности растёт цифровое неравенство, и самые уязвимые группы населения оказываются в мире фейков, даже не подозревая, что всё вокруг — подделка.

Это не описание пост апокалиптического мира, а реальность 2025 года, которую во время презентации, посвящённой глобальным и региональным трендам дезинформации, представил редактор Provereno.Media Павел Банников.

«Новый репортёр» записал основные тезисы его выступления.

(Дез)информационная война: предыстория (2020–2022)

Пандемия COVID-19 и сопутствующая ей инфодемия изменили глобальный пропагандистский ландшафт. Три мощнейшие (хотя и по-разному устроенные) машины стали активно использовать партизанские технологии, не имея возможности контролировать последствия дезинформационных кампаний. Яркий пример — запущенная во время первого президентского срока Дональда Трампа секретная операция Пентагона по дискредитации китайской вакцины, затронувшая страны, которые не входили в план информационной атаки, в том числе, вероятно, негативно повлиявшая и на сами США.

Павел Банников, фото: Internews Tajikistan

Эта операция была описана в специальном расследовании Reuters в июне 2024 года. Например, один из нарративов этой информационной атаки был связан с публикациями о том, что в китайской вакцине против коронавируса содержится свиной желатин. Он был нацелен на страны с мусульманским населением, прежде всего, арабские, но оказался в том числе и в Центральной Азии.

Впрочем, не только государства взяли технологии на вооружение. Общество тоже включилось и радикально изменило по всему миру получило новые инструменты политического влияния, усилило возможности возмездия и помогло кооптировать на свою сторону уязвимые и маргинальные аудитории в глобальный супераппарат.

ИИ-наводнение. Роль техногигантов

Социальные платформы активно внедряют и поощряют использование ИИ для генерации контента. Это обеспечивает рост монетизации и вовлечённости пользователей, но одновременно создаёт благоприятную среду для распространения дезинформации.

Отсутствие строгого регулирования и прозрачных стандартов маркировки ИИ-контента дополнительно способствует снижению критического восприятия информации аудиторией.

В 2025 году каждый четвёртый пост в социальных сетях создаётся с помощью нейросетей, например, доля ИИ-контента среди длинных постов в ФБ составляет 41 %. Это серьёзно трансформирует информационное пространство и усложнит процесс выявления недостоверной информации.

При этом смена политики компании Meta в отношении недостоверного контента влияет и будет влиять на видимость вводящих в заблуждение текстов, фото и видео.

Между тем, под сменой политики Meta имеется в виду отказ от проверки фактов на платформах Facebook и Instagram, который был введён в США в январе 2025 года. Изначально программа сторонней проверки фактов третьими лицами была запущена корпорацией Meta в 2016 году на фоне растущего беспокойства о том, как дезинформация онлайн угрожает демократии и жизни людей. Отказ от этой практики осудили фактчекеры по всему миру.

Новые стратегии кибермошенников

До 50% всех попыток мошенничества с документами связаны с использованием ИИ. Нейросети генерируют высококачественные фальшивые удостоверения личности, паспорта и финансовые документы. ИИ-алгоритмы изучают цифровой след потенциальных жертв, адаптируют сценарии обмана и автоматизируют диалоги через чат-боты, делая атаки более убедительными и массовыми.

Искусственный интеллект трансформировал киберпреступность, позволяя масштабировать атаки и повышать их эффективность. Уровень входа снизился. Традиционные методы защиты становятся всё менее действенными против таких продвинутых угроз. Прогнозируемый ущерб от онлайн-мошенничества в период 2023–2028 годов превысит $362 млрд, что сопоставимо с ВВП средней европейской страны.

При этом, только в Казахстане за первые шесть месяцев 2025 года Интернет-мошенники украли у жителей 25 млрд тенге (почти $48 млн).

Фактчек в руках пропагандистов превращается в пропаганду

В 2025 году появилась инициатива Global Fact-Checking Network (GFCN), позиционирующаяся как международная организация по проверке фактов, но фактически являющаяся инструментом российской пропаганды.

GFCN игнорирует базовые принципы независимого фактчекинга: отсутствует прозрачность, присутствует государственное финансирование (через ТАСС и АНО «Диалог»), продвигаются прокремлёвские нарративы.

Агентство Sputnik под эгидой Россотрудничества проводит тренинги для журналистов в десятках стран Европы, Азии, Африки и Латинской Америки, продвигая российские нарративы под видом профессионального развития.

Подобная тактика использования фактчекинга в качестве инструмента пропаганды подрывает доверие к проверке фактов в целом и создаёт информационный хаос, в котором аудитории сложно понять, какие источники действительно заслуживают доверия.

Продолжаются информационные атаки на фактчекеров

В 2024 и 2025 годах фактчекеры по всему миру, включая страны СНГ, столкнулись с целенаправленными информационными атаками. Это не новость, атаки начались ещё во время пандемии. Но эти атаки стали более технологичными, масштабными и разнообразными, что подтверждается специализированными отчётами и аналитикой профильных организаций. По разным данным 78 % фактчекеров сталкиваются с преследованием, а более трети организаций подвергаются кибератакам.

Алгоритмическая киберрадикализация

Кроме мошенников, нейросети используют и различные радикальные организации для пропаганды и вербовки, и ИИ даёт им, как и всем, новые возможности.

Например, с помощью ИИ возможно автоматизировать производство контента, персонализировать идеологические сообщения и создавать симулированные отношения с уязвимыми людьми. Кроме того, радикальные медиаподразделения распространяют руководства по обходу защитных барьеров ИИ, что позволяет генерировать пропагандистские материалы или нарративы, разжигающие ненависть, избегая при этом автоматизированной модерации.

Хотя ИИ в руках террористов и кажется дистопией, технологии уже доступны, а наблюдаемые тенденции указывают на глубокую стратегическую мутацию современных методов радикализации.

Пессимизация основных поисковых систем

Все поисковые системы и алогоритмы деградируют в пользу маркетинговых стратегий и получения денег и формируют информационные пузыри и плюс вы заметили

С 2019 года наблюдается устойчивое снижение качества поиска в Google и Яндекс. Персонализированная выдача формирует «информационные пузыри», где пользователи получают результаты, соответствующие их предпочтениям и убеждениям.

Ответы, сгенерированные искусственным интеллектом в поисковой выдаче, часто содержат ошибки и опираются на ненадёжные источники, подрывая доверие к информации. А достоверные в самом конце и большинство через поиск ищут и это опасно для регионов с низким уровнем медиаграмотнсои они не переходят.

Ухудшение качества поисковых систем происходит параллельно с ростом их влияния на информационное потребление. Большинство пользователей по-прежнему получают информацию через поисковые сервисы, даже не осознавая снижения их надёжности.

Эта тенденция особенно опасна для регионов с низким уровнем медиаграмотности, где пользователи не имеют навыков критической оценки информации и полагаются на поисковые системы как на объективный источник знаний.

Новое цифровое неравенство: риски стран Центральной Азии

Большинство пользователей используют ИИ не по назначению или без должной критичности. Это проявляется в доверии к «галлюцинациям», нарушении политик, ошибках в работе и даже в создании новых рисков для бизнеса и общества.

Главные ошибки и злоупотребления при работе с ИИ

  • 58% доверяют ИИ-ответам без перепроверки.
  • 86% сталкивались с «галлюцинациями» ИИ.
  • 77% были введены в заблуждение ИИ хотя бы раз.
  • 46% загружали чувствительные данные в публичные ИИ-сервисы.

В 2025 году цифровое неравенство приобрело новое измерение — интеллектуальное. Люди, обладающие навыками работы с ИИ, получают значительные преимущества, в то время как остальные становятся уязвимыми перед манипуляциями.

Китай и ОАЭ уже внедряют обучение искусственному интеллекту в школьную программу с первого класса, что даёт их гражданам серьёзное конкурентное преимущество. Страны Центральной Азии существенно отстают в этом процессе из-за нехватки квалифицированных педагогов и ресурсов.

Основные риски:

  • Интеллектуальное неравенство
  • Образовательный разрыв
  • Недостаток медиаграмотности
  • Технологическая зависимость

Главное препятствие — отсутствие системных программ по медиаграмотности в образовательной системе. Школьников хотят учить логике работы с ИИ, но не объясняют, что такое обычная формальная логика. Это усугубляет информационную уязвимость региона.

Перспективы развития ситуации

Доля ИИ-контента и количество случаев мошенничества растут, в то время как медиаграмотность населения увеличивается гораздо медленнее. Этот разрыв создаёт благоприятные условия для распространения дезинформации.

Прогнозируется дальнейший рост объёма сгенерированного ИИ-контента и связанного с ним мошенничества. Разрыв между уровнем медиаграмотности и объёмом ИИ-контента увеличивается, что создаёт благоприятные условия для распространения дезинформации.

Внедрение обучения работе с ИИ в школьную программу становится необходимостью, особенно для стран Центральной Азии. Однако это требует значительных финансовых вложений и подготовки специалистов, что представляет серьёзный вызов для региона.

Вызовы и решения для информационной безопасности

Для эффективного противодействия дезинформации необходим комплексный подход обновление образовательных программ, поддержка независимых фактчекинговых организаций, а также разумное регулирование использования ИИ и международное сотрудничество в сфере информационной безопасности.

Государственно-частное партнёрство в этой сфере крайне необходимо при условии сохранения независимости экспертов.При общих целях у госорганов нет достаточной экспертизы, а у экспертного сообщества и НПО — нужного влияния.

Только системные меры позволяют снизить цифровое неравенство и снизить негативное влияние дезинформации на общество. Особенно важно развитие региональных инициатив, учитывающих специфику информационного пространства Центральной Азии.

Основные рекомендации:

  • Внедрение базовых курсов медиаграмотности для журналистов и педагогов.
  • Разработка методических материалов по выявлению дезинформации и работе с ИИ-инструментами. Наработки имеются и используются в вузах, однако масштабы недостаточны.
  • Реинтеграция курса формальной логики, и интеграция курса медиаграмотности в обязательную школьную программу.
  • Создание региональных центров цифровой грамотности в странах Центральной Азии.
  • Формирование новой культуры информационного потребления с медиаграмотным мышлением и поведением в основе.
  • Разработка региональных стандартов противодействия дезинформации.

Рекомендации для государственных органов и неправительственных организаций стран Центральной Азии:

  • Разрабатывать и внедрять обязательные курсы медиаграмотности и формальной логики в школьную программу.
  • Развивать региональную сеть независимых фактчекинговых организаций.
  • Разрабатывать программы подготовки педагогов по медиаграмотности и разумной работе с ИИ.
  • Участвовать в международных инициативах по борьбе с дезинформацией.
  • Развивать полноценное партнёрство между госорганами и НПО.

Презентация Павла Банникова «Глобальные и региональные тренды дезинформации в 2025 году» состоялась в рамках регионального проекта «Повышение устойчивости аудитории через достоверные истории (CARAVAN)», финансируемого Европейским Союзом и реализуемого Internews.

Презентацию П. Банникова можно посмотреть здесь:

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь