ДомойМедиаграмотностьДипфейки: оружие массовых иллюзий. Выступление Джеральда Голубовича

Дипфейки: оружие массовых иллюзий. Выступление Джеральда Голубовича

Для чего создавались дипфейки? Почему это серьёзный инструмент для дезинформации людей? Как не попасть на удочку создателей дипфейков? Джеральд Голубович, фотожурналист, продакт-менеджер, ответил на эти вопросы в рамках воркшопа на фестивале GoViral. Информационная кампания .Три.точки. Знай, что смотришь! подготовила конспект выступления эксперта.

Что же такое дипфейк?

Deepfake состоит из двух разных слов. Deep (англ. глубокий) — это глубокое обучение (deep learning), сфера искусственного интеллекта. В 50-е годы появилась работа Алана Тьюринга по созданию нейронных сетей, похожих на работу мозга. Сеть — это алгоритм, который объединяет отдельные элементы, чтобы создавать интеллект. Вот эти нейронные сети как раз и помогают формировать дипфейки. А deep learning используется в разных технологических аспектах, например — распознавании лиц, эмодзи, картинок. А fake — это ложный, поддельный, вводящий в заблуждение.

Технология способна отображать лицо любого человека. Это серьёзная проблема: как только звук увязывается с видеоматериалом, практически ничего не указывает на то, что вы смотрите на дипфейк, или что вы сможете его распознать.

Для чего они создаются?

Наш мозг не сконструирован так, чтобы автоматически выявлять ложное или настоящее. Мы понимаем и определяем окружающий мир через разные органы чувств. Если мозг не находит соответствующую информацию, он её как бы допридумывает, и мы можем видеть информацию там, где её нет. Яркий пример — оптические иллюзии.
В 2017 году на сайте Reddit группа людей анонимно просила человека с никнеймом Deepfake создать видеоролики и заменить в них лица порноактрис на изображения знаменитостей. Эта технология получила название по никнейму пользователя сайта.
Такие дипфейки могут стать большой проблемой, потому что в 90 % случаев такие порноролики быстро создаются и так же быстро распространяются. Это нарушает права многих женщин.

Дипфейки используются и для шантажа. Я говорил с несколькими американскими экспертами и журналистами, которым угрожали, что создадут с их участием фейковые видео.

Дипфейки используются и в политических целях — для дискредитации оппонентов. К примеру, в Габоне президент страны в телеэфире выступил с новогодней речью. До этого он некоторое время не появлялся на публике, и ходили слухи, что у него проблемы со здоровьем. Оппозиция назвала это видео дипфейком.

Также была история с выступлением американского политика из Демократической партии Нэнси Пелоси. Видео её выступления замедлили и изменили звук так, чтобы создать эффект «пьяной речи». Много дипфейков появляется и сейчас перед выборами в США, в основном это юмористические видео, в которых лица заменяют на изображения Дональда Трампа или Джо Байдена.

Но стоит помнить, что «качественные» дипфейки по-прежнему достаточно сложно создавать. Для этого необходим достаточно мощный компьютер, а само создание такого видео может занять от двух до пяти дней.

Вопрос — ответ

  • Является ли законной замена лиц в видео?

Пока это законно, но, может быть, со временем ситуация изменится.

  • Кто владеет авторским правом дипфейка?

Это до сих пор сложно определить — в США или в Европе. Сейчас идут дискуссии по этому поводу, кто же действительно является автором — создатель первоисточника видео, автор дипфейка или нейронная сеть. Это открытый вопрос.

  • Как можно контролировать распространение дипфейков?

Мы можем создавать программное обеспечение, которое будет выявлять дипфейки. Но оно не всегда доступно для широкого использования. Другое решение, которое может помочь, — это криптология. Если использовать основы технологии по шифрованию данных, можно узнать или идентифицировать авторов видео.

Но проблема с криптологией в том, что она слишком энергозатратна.

Есть ли плюсы?

Дипфейки можно применять и во благо. Например, во время программы защиты свидетелей или в производстве документальных фильмов. В недавно вышедшем фильме «Добро пожаловать в Чечню» эта технология использовалась, чтобы защитить героев фильма, представителей ЛГБТ-сообщества.

Также до сих пор существует проблема выявления авторов дипфейков. Это возможно, но технически достаточно сложно, поэтому людям нужно критически относиться к тому, что они видят, обращать внимание на содержание видео и перед тем, как делиться контентом, всё-таки проверять источник.

Команда .трёх.точек. Знай, что смотришь как-то тоже создала свой дипфейк. Вот что тогда получилось:

«Три точки» — информационная кампания по медиаграмотности. Её задача — повысить иммунитет нашей аудитории к манипуляциям и пропаганде, и чтобы людей с критическим мышлением стало больше. Все материалы «Нового репортёра» совместно с .три.точки. Знай, что смотришь! можно найти здесь.

Кампания создана и поддерживается в рамках проекта «Содействие стабильности и миру в Центральной Азии», реализуемого при финансовой поддержке Европейского Союза. Содержание публикаций на этой странице является предметом ответственности Internews и не отражает точку зрения Европейского Союза.

Ольга Королева
Ольга Королева
Журналист сайта Newreporter.org.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Последние публикации