Новый закон об ИИ в Казахстане: что надо знать журналистам?

0
52
Ольга Диденко

Казахстан первым в Центральной Азии принял новый закон «Об искусственном интеллекте», который напрямую затрагивает работу редакций. В нём закреплены требования, которые в ближайшее время могут изменить ежедневные процессы в медиа: обязательная маркировка ИИ-контента, новые правила об авторских правах на материалы, созданные с участием алгоритмов, ответственность за нарушения и правовое определение дипфейков. Эти положения уже становятся актуальными для редакций, которые активно используют ИИ для текстов, иллюстраций и другого контента — и теперь сталкиваются с новыми юридическими рисками.

Во время специального вебинара «Авторские права, маркировка, дипфейки. Что нужно знать редакциям СМИ о новом законе “Об искусственном интеллекте”?» юрист Internews – Ольга Диденко рассказала о том, что нужно знать редакциям о новых правилах.

Что собой представляет новый закон?

Новый закон об искусственном интеллекте отдалённо напоминает аналогичный европейский закон, который был тоже принят несколько лет назад. Например, также, как и в европейском аналоге, в новом казахстанском законе прописан запрет на системы искусственного интеллекта, которые могут быть манипулятивными, причинять вред, содержать запрещённую информацию, нарушать персональные данные и так далее.

«Я думаю, что через какое-то время появится реестр систем искусственного интеллекта, которые будут запрещены для использования на территории Казахстанв, поскольку у нас подобная практика действует во многих сферах. Закон классифицирует системы ИИ по режиму использования — открытый, закрытый, локальный — а также по уровням автономности. И, собственно говоря, это технические вещи, которые не так важны для СМИ, потому что СМИ могут использовать искусственный интеллект только локально — для создания контента, выполнения отдельных задач редакционной деятельности и так далее», — говорит Ольга Диденко.

Она отмечает, что планируется создание национальной платформы искусственного интеллекта и национального оператора, который будет отвечать за её функционирование, включая работу с библиотекой данных. По её словам, пока неясно, как именно будет построена эта система, однако, вероятно, новое Министерство искусственного интеллекта и цифрового развития Казахстана возьмёт эти задачи на себя в ближайшее время.

«За развитием этого процесса предстоит внимательно следить, поскольку речь идёт о значимом и прогрессивном шаге вперёд. Казахстан стал первой страной в Центральной Азии, которая разработала и приняла подобный закон. Документ является рамочным, в ряде аспектов достаточно удачным и во многом прогрессивным», — уточняет Диденко.

Как ИИ применим в деятельности редакций?

Редакции активно применяют ИИ, однако пришло время делать это несколько более осознанно и продумано. Диденко рекомендует редакциям определить, какой контент они могут создавать с помощью ИИ. Это могут быть:

  • текст, дайджесты, обзоры, компиляции, аннотации, резюме, заголовки и лиды:
  • фото, коллажи, иллюстрации, инфографика, визуализации, изображения, созданные с ИИ;
  • аудио — звуковые дорожки, синтез голоса, подкасты;
  • видео — ИИ-ведущие, монтаж, генерация субтитров и сценариев;
  • мультимедийные материалы, спецпроекты и интерактивы.

Далее редакциям также важно определить, какие редакционные процессы можно перепоручить ИИ. Это могут быть:

  • Корректура и редактура
  • Переводы  текстов на разные языки
  • Производство рекламных материалов
  • Подготовка интервью
  • Факт-чекинг
  • Аналитика
  • Анализ больших данных
  • Поддержка SMM
  • SEO-продвижение
  • Переупаковка контента под разные форматы

Следующим шагом рекомендуем определить приложения и ИИ-системы, которые редакция может использовать для достижения этих целей. ПРи этом, обучение редакционной модели ИИ на собственном контенте может быть следующим шагом на пути внедрения этих технологий в деятельность редакции.

Кто автор ИИ-контента и на что он может рассчитывать?

По словам Диденко, с момента появления технологий искусственного интеллекта юристы в Казахстане активно обсуждали вопрос авторских прав на подобный контент. Долгое время было неясно, кому эти права принадлежат: человеку, написавшему промпт, разработчику приложения или создателю финального продукта. Теперь закон однозначно устанавливает: произведения, созданные с использованием систем искусственного интеллекта, охраняются авторским правом только при наличии творческого вклада человека.

«Творческий вклад человека в их создание, означает написание уникального промпта. И промпт сам по себе является объектом авторского права, но не все, конечно. Простые текстовые команды отличаются от промптов, написание которых является творческим процессом и с их помощью человек создает уникальный творческий продукт.  В законе так и прописано: текстовые запросы, являющиеся результатом интеллектуальной творческой деятельности человека, признаются объектами авторского права», — уточняет Диденко.

Обучение ИИ на редакционном контенте

Диденко отмечает ещё два аспекта, связанных с авторскими правами, — обучение моделей и использование редакционного контента. По её словам, казахстанские редакции, начнут или уже начали обучать собственные модели искусственного интеллекта на материалах своих архивов, которых в каждой редакции накоплено огромное количество. Это может привести к появлению новых интересных продуктов, коллабораций, решений на основе архивных данных, аналитики и других возможностей.

При этом экспертка подчеркнула, что использование редакционного контента для обучения систем искусственного интеллекта, если речь идёт не о собственной модели редакции, не относится к случаям свободного использования. В таких ситуациях обязательно требуется согласие автора или правообладателя.

«Что сейчас рекомендуется сделать всем редакциям? В правилах использования своих материалов, которые у вас есть на сайтах, включить обязательный пункт о том, что вы как редакция, как правообладатель запрещаете использовать редакционный контент для обучения систем искусственного интеллекта, где бы это ни было, на каком бы это ни было языке», — рекомендует Диденко.

Она напоминает, что редакции СМИ являются правообладателями своего контента и должны внимательно отслеживать, как используются созданные их материалы и фотографии. Важно выявлять случаи незаконного использования такого контента и при необходимости поднимать вопрос о нарушении правил его использования.

«Крупные медиа в США сейчас судятся с OpenAI и Microsoft по поводу обучения их систем искусственного интеллекта на редакционном контенте. Поэтому мы посмотрим, что будет происходить у нас», — говорит юристка.

По словам Диденко редакции должны прямо запретить использование своего контента для обучения ИИ-систем. Это нужно указать в правилах использования материалов редакции.

«Кроме того, важно самим не брать фотографии из поисковой выдачи любых агрегаторов, публиковать этот контент без указания авторства или перерабатывать его с помощью ИИ-систем. И это правило нужно донести до своих коллег — контент-менеджеров, дизайнеров, СММ-специалистов, чтобы этого тоже не делали», — уточняет Диденко.

Переработки запрещены

В соответствии с новым законом, нельзя использовать ИИ для переработки, переписывания или имитации стиля редакции или автора, который вам нравится. А также нельзя публиковать сгенерированный контент без редакторской проверки и фактчекинга. Редакции должны рассматривать ИИ системы только как вспомогательный инструмент, и не пытаться заменить нейросетями работу редакции.

«Соответственно нельзя заниматься производством дипфейков даже на уровне какого-то порядочного контента. Дипфейки нельзя производить ни для рекламы, ни для анонимной информации, ни для чего-то ещё. Запрещено использовать изображение, голос, видео третьих лиц для производства дипфейков», — объясняет Диденко.

Пользовательский контент и комментарии

Кроме того, беспокойство у экспертов в вопросе соблюдения правил нового закона, вызывает даже не редакционный контент, который контролируется редакцией, а пользовательский контент и комментарии. Здесь появляться видео, аудио или другие материалы, сгенерированные искусственным интеллектом. Формально ответственность в первую очередь лежит на авторе комментария, однако на практике именно редакции чаще всего направляют жалобы, обращения в полицию, судебные иски — поскольку искать комментатора никому не хочется. Поэтому редакциям необходимо пересмотреть работу премодерации комментариев, а также внести в правила комментирования отдельный пункт о том, что размещение контента, сгенерированного с помощью ИИ влечёт немедленную блокировку и передачу материалов в правоохранительные органы.

Обязательная маркировка контента

Любой контент, созданный с помощью искусственного интеллекта — будь то иллюстрация, фотография, подкаст, видео или спецпроект — должен быть соответствующим образом маркирован. Форма маркировки может быть любой: машиночитаемой, текстовой, графической или визуальной; главное — предупредить аудиторию о том, что материал создан с применением ИИ.

Диденко говорит, что вокруг вопроса корректной маркировки ведётся много споров. На данный момент чётких правил нет — ни в законе, ни в подзаконных актах, поэтому ориентироваться приходится на собственное понимание и специфику местного регулирования.

«Учитывая отсутствие чётких правил, при маркировке нужно исходить не из того, в каком приложении вы создали контент, а из того, насколько частично или полностью вы использовали искусственный интеллект», — объясняет экспертка.

Кроме того, важно помнить, что маркировка должна размещаться не только на основном сайте, зарегистрированном как медиа, но и на всех связанных аккаунтах в социальных сетях. Если редакция зарегистрирована как СМИ, её соцсети юридически рассматриваются как часть этого СМИ — и министерством, и судами, и другими инстанциями. Поэтому маркировка должна присутствовать повсюду.

При этом, форма маркировки зависит от формата контента: в подкастах её необходимо произносить вслух, в изображениях и текстах — подписывать.

Право на удаление персональных данных в новом Цифровом кодексе РК

Кроме того, Ольга Диденко напомнила, что в другом документе – Цифровом кодексе, который в начале января 2026 года подписал президент Казахстана, тоже существуют важные пункты, на которые стоит обратить внимание медиа. Например, это статья 41, здесь появилась норма, которая даёт право на удаление персональных данных,

«Раньше мы говорили, что у нас нет права на забвение, сейчас ситуация поменялась, поменялась не в лучшую сторону, к сожалению. Появилось право требовать удаления, анонимизации или ограничения обработки своих персональных данных. И такие запросы были уже и будут ещё в большом количестве», — говорит Диденко.

По её словам, требование удалить персональные данные будет скорее появляться в случае публикации критических материалов про коррупцию, уголовные дела, криминальных авторитетов.

«Цифровой кодекс принят. И мы видим, что исключений для СМИ, к сожалению, нет. В статье 41 Кодекса указано, что требования об удалении персональных данных не применяются, только если речь идёт о защите интересов третьих лиц или наличии публичного интереса. Но что такое публичный интерес, мы не знаем. Он прямо не прописан в законе Казахстана о масс-медиа», — уточняет Диденко.

Она отмечает, что в случаях, когда публикации касаются насилия или имеют значительный общественный резонанс, суд, вероятнее всего, будет склоняться в пользу СМИ и не потребует удаления персональных данных. Однако такие споры всё равно остаются в зоне высокого риска.

Этот вебинар состоялся в рамках регионального проекта «Повышение устойчивости аудитории через достоверные истории (CARAVAN)», финансируемого Европейским Союзом и реализуемого Internews.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь