• +7 (3952) 79-88-99
  • prolaw38@mail.ru

МАРКИРОВКА РЕЗУЛЬТАТОВ, АВТОНОМНО СОЗДАВАЕМЫХ ГЕНЕРАТИВНЫМ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ

004.8:346.544.2

Пролог: журнал о праве. – 2025. – № 2. – С. 57 – 67.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.2.5.57-67
Дата поступления 10.05.2025, дата принятия к печати 12.06.2025,
дата онлайн-размещения 19.06.2025.

В статье рассматривается проблема маркировки контента, созданного генеративным искусственным интеллектом (ИИ), с целью обеспечения прозрачности и предотвращения возможных правовых и этических рисков. Автор анализирует сложность разграничения произведений, созданных человеком, и результатов, сгенерированных с помощью технологий искусственного интеллекта, а также приводит примеры спорных случаев, таких как проект по генерации изображений Николая Иронова и дипфейки, например, использование синтезированного голоса актрисы Алены Андроновой. В статье изучаются и международные подходы к регулированию этой области, включая законодательные инициативы Европейского Союза, Китая, США и Италии. Особое внимание уделено юридическим рискам, связанным с использованием результатов, созданных при помощи технологий искусственного интеллекта, и таким вопросам маркировки, как информирование пользователей о процессе создания контента (process-based) и предотвращение введения общественности в заблуждение (impact-based) для снижения рисков нарушения интеллектуальных прав третьих лиц. Подчеркивается необходимость внедрения маркировки (в том числе метаданных и водяных знаков) не только для изображений, но и для аудио- и видеоконтента, чтобы минимизировать риски дезинформации и мошенничества. Кроме того, автор обращает внимание на важность разработки соответствующего правового регулирования в Российской Федерации, предлагая закрепить общее правило о маркировке результатов, создаваемых с использованием технологий искусственного интеллекта, и внедрить его в различные сферы применения технологий ИИ. В качестве примера предлагается аналогия с подходом видеохостинга YouTube, где пользователь обязан отмечать факт создания контента с использованием ИИ. Предлагается закрепить обязанность по маркировке за пользователем или разработчиком системы ИИ в случае отсутствия автоматической маркировки. В статье также приводятся конкретные предложения по разработке нормативных положений для включения в проект Федерального закона «О регулировании систем искусственного интеллекта».

Генеративный искусственный интеллект, маркировка контента, метаданные, водяные знаки, дипфейк, синтетический контент, органический контент, закон об искусственном интеллекте, ответственность пользователей, дезинформация.

Самарцева В. М. Маркировка результатов, автономно создаваемых генеративным искусственным интеллектом // Пролог: журнал о праве. – 2025. – № 2. – С. 57 – 67. – DOI: 10.21639/2313-6715.2025.2.5.57-67.

УДК
004.8:346.544.2
Информация о статье

Пролог: журнал о праве. – 2025. – № 2. – С. 57 – 67.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.2.5.57-67
Дата поступления 10.05.2025, дата принятия к печати 12.06.2025,
дата онлайн-размещения 19.06.2025.

Аннотация

В статье рассматривается проблема маркировки контента, созданного генеративным искусственным интеллектом (ИИ), с целью обеспечения прозрачности и предотвращения возможных правовых и этических рисков. Автор анализирует сложность разграничения произведений, созданных человеком, и результатов, сгенерированных с помощью технологий искусственного интеллекта, а также приводит примеры спорных случаев, таких как проект по генерации изображений Николая Иронова и дипфейки, например, использование синтезированного голоса актрисы Алены Андроновой. В статье изучаются и международные подходы к регулированию этой области, включая законодательные инициативы Европейского Союза, Китая, США и Италии. Особое внимание уделено юридическим рискам, связанным с использованием результатов, созданных при помощи технологий искусственного интеллекта, и таким вопросам маркировки, как информирование пользователей о процессе создания контента (process-based) и предотвращение введения общественности в заблуждение (impact-based) для снижения рисков нарушения интеллектуальных прав третьих лиц. Подчеркивается необходимость внедрения маркировки (в том числе метаданных и водяных знаков) не только для изображений, но и для аудио- и видеоконтента, чтобы минимизировать риски дезинформации и мошенничества. Кроме того, автор обращает внимание на важность разработки соответствующего правового регулирования в Российской Федерации, предлагая закрепить общее правило о маркировке результатов, создаваемых с использованием технологий искусственного интеллекта, и внедрить его в различные сферы применения технологий ИИ. В качестве примера предлагается аналогия с подходом видеохостинга YouTube, где пользователь обязан отмечать факт создания контента с использованием ИИ. Предлагается закрепить обязанность по маркировке за пользователем или разработчиком системы ИИ в случае отсутствия автоматической маркировки. В статье также приводятся конкретные предложения по разработке нормативных положений для включения в проект Федерального закона «О регулировании систем искусственного интеллекта».

Ключевые слова

Генеративный искусственный интеллект, маркировка контента, метаданные, водяные знаки, дипфейк, синтетический контент, органический контент, закон об искусственном интеллекте, ответственность пользователей, дезинформация.

Для цитирования

Самарцева В. М. Маркировка результатов, автономно создаваемых генеративным искусственным интеллектом // Пролог: журнал о праве. – 2025. – № 2. – С. 57 – 67. – DOI: 10.21639/2313-6715.2025.2.5.57-67.

Финансирование

About article in English

UDC
004.8:346.544.2
Publication data

Prologue: Law Journal, 2025, no. 2, pp. 57 – 67.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.2.5.57-67
Received 10.05.2025, accepted 12.06.2025, available online 19.06.2025.

Abstract

The article examines the problem of labeling content created by generative artificial intelligence (AI) in order to ensure transparency and prevent possible legal and ethical risks. The author analyzes the complexity of distinguishing between human-made works and results generated using artificial intelligence technologies, and also provides examples of controversial cases, such as the Nikolai Ironov image generation project and deepfakes, for example, the use of the synthesized voice of actress Alena Andronova. The article also examines international approaches to regulating this area, including legislative initiatives of the European Union, China, the USA and Italy. Special attention is paid to the legal risks associated with the use of results created using artificial intelligence technologies, and labeling issues such as informing users about the content creation process (process-based) and preventing public deception (impact-based) to reduce the risks of intellectual property infringement by third parties. It highlights the need to introduce labeling (including metadata and watermarks) not only for images, but also for audio and video content in order to minimize the risks of misinformation and fraud. In addition, the author draws attention to the importance of developing appropriate legal regulation in the Russian Federation, suggesting that a general rule on labeling results created using artificial intelligence technologies should be established and implemented in various fields of application of AI technologies. As an example, an analogy is proposed with the YouTube video hosting approach, where the user is required to mark the fact of creating content using AI. It is proposed to assign the labeling obligation to the user or developer of the AI system in the absence of automatic labeling. The article also provides specific proposals for the development of regulations for inclusion in the draft Federal Law "On the Regulation of Artificial Intelligence Systems".

Keywords

Generative artificial intelligence, content labeling, metadata, watermarks, deepfake, synthetic content, organic content, artificial intelligence law, user responsibility, disinformation.

For citation

Samartseva M. V. Labeling of Results Generated Authonomously by Generative Artificial Intelligence. Prologue: Law Journal, 2025, no. 2, pp. 57 – 67. (In Russian). DOI: 10.21639/2313-6715.2025.2.5.57-67.

Acknowledgements

Практика показывает, что различить авторское произведение и результат, сгенерированный искусственным интеллектом[1], зачастую довольно сложно, а иногда невозможно, если речь идет, к примеру, о сопоставлении результата «работы» генератора изображений и художественного произведения, созданного человеком с помощью графического редактора. В целях определения источника используются различные технические средства, например, анализ метаданных файла, содержащие название приложения, в котором был создан такой результат, или специальное программное обеспечение.

Обозначенная сложность может быть недобросовестно использована, что применительно к частноправовой сфере способно повлечь нарушение субъективных прав граждан и юридических лиц.

Примером этого может стать широко известный случай Николая Иронова[2] – основанного на ИИ генератора изображений, который выдавался студией Артемия Лебедева за дизайнера-человека (для чего было специально придумано «человеческое» имя, создана страница с портфолио). Студия вела этот проект в условиях строгой секретности и только через год после «работы» генератора изображений тайна была раскрыта.

В описании генератора изображений указывалось, что он создает изображения логотипов на основе текстового описания, причем можно ограничиться указанием названия компании и ссылкой на веб-страницу, где содержится описание этой компании [4]. После генерации ИИ-изображения с помощью ряда алгоритмов результат масштабируется, упрощается дизайн (для целей использования изображения именно в качестве логотипа), создаются различные цветовые варианты и шрифты. Формат «экспресс-дизайна», в котором «работал» генератор изображений, допускает возможность доработки и внесение правок заказчиком (пользователем), хотя, по утверждению самих пользователей, эта возможность крайне ограничена – серьезную «доработку» избранного пользователем варианта изображения осуществляет, по сути, сам ИИ. На момент разоблачения Николай Иронов сгенерировал 17 коммерческих проектов по заказам пользователей.

Проведя правовой анализ уже после раскрытия того факта, что Николай Иронов не является дизайнером-человеком, Е. Попонина пришла к выводу о существовании множества юридических рисков при использовании этого генератора изображений для создания логотипов [6]. Прежде всего автор отметила неопределенность в части того, кто становится правообладателем изображения. Этот вопрос вовсе не получает ответа, хотя заказчику (пользователю генератора изображений) предлагается исключительная лицензия на весь срок правовой охраны изображения, созданного Николаем Ироновым, с запретом на передачу права использования другим лицам, причем, как подчеркивает Е. Попонина, заказать создание изображения логотипа может только физическое лицо: «Вы не сможете выдать лицензию, заключить договор франшизы или иным способом предоставить право использования логотипа другому лицу. Договор отчуждения тоже не заключите» [6]. Но особо примечателен, на взгляд Е. Попониной, раздел, посвященный ответственности, проанализированный ею подробнее. В этом разделе, в частности, закреплялось отсутствие гарантий в отношении того, что при использовании логотипа не будут нарушены интеллектуальные права третьих лиц – это, по мнению Е. Попониной, свидетельствует о вероятности предоставления пользователю-заказчику результатов, созданных неизвестным автором (а не генеративным ИИ), что ставит вопрос о необходимости согласования переработки предложенного результата непосредственно с его автором-создателем. Кроме того, в разделе об ответственности указывается, что созданный Николаем Ироновым логотип может содержать элементы логотипа, который Иронов сгенерировал для другого лица, и не гарантируется возможность использования сгенерированного логотипа в качестве средства индивидуализации – это, на взгляд Е. Попониной, подтверждает сложности использования сгенерированного объекта в качестве логотипа ввиду отсутствия информации относительно источника происхождения (получения) изобразительной части, что влечет серьезный риск оспаривания в случае его регистрации в качестве товарного знака. В заключении раздела об ответственности указывалось, что студия не возмещает ущерб и убытки.

Обозначенные вопросы дополнительно свидетельствуют в пользу актуальности проблематики проводимого нами исследования, подтверждая при этом и потребность в разрешении практического вопроса маркировки результатов, автономно сгенерированных ИИ.

Необходимость маркировки не только изображений, создаваемых ИИ, но и аудио- и видеоконтента, генерируемого ИИ, актализирует все большее распространение так называемых дипфейков (англ. deepfakes), представляющих собой «преднамеренно искаженные аудио, видео или иные файлы с использованием технологии глубокого обучения (определение, производное от словосочетания «deep learning» – глубокое обучение, «fake» – подделка), которые изображают что-то вымышленное или ложное, что позволяет злоумышленникам использовать новый и сложный инструмент социальной инженерии» [1, с. 74–77]. Так, например, яркими примерами дипфейков с широким охватом аудитории на международном уровне стали публикации в сети поддельных фотографий папы Римского[3] и взрыва у Пентагона[4] весной 2023 года.

Важно заметить, что один и тот же термин «дипфейк» употребляется для обозначения как самой этой технологии ИИ (основанная на ИИ технология синтеза изображения или голоса, которая может использоваться в добросовестных, общественно полезных целях, например, при «возвращении» голоса людям, его потерявшим, или производстве кинофильмов [8, p. 12–17]), так и вводящего в заблуждение (то есть собственно фейкового) контента, который производится с помощью такой технологии, что нуждается в изменении. В целях настоящего исследования далее данное понятие будет рассматриваться во втором своем значении.

Применительно к дипфейкам в литературе также довольно часто озвучивается потребность в маркировке контента, создаваемого ИИ или с помощью ИИ. Например, Е. М. Корних обращает внимание на необходимость разработки и тестирования механизмов для создания алгоритма, который будет отслеживать и верифицировать контент, сформированный при использовании дипфейк-технологий, в первую очередь для противодействия созданию и распространению дипфейков. Он отмечает, что «верификация материалов, которые размещаются в сети, на предмет нахождения в них дипфейков, также является одним из возможных решений» среди мер по противодействию вредоносным дипфейк-технологиям» [3, c. 62–67].

Значимость маркировки аудио- и видеоконтента, генерируемого ИИ, проявляется на примере следующего, получившего широкий резонанс в России, дела актрисы дубляжа Алены Андроновой, которая по договору предоставила образцы своего голоса для обучения цифрового помощника и работы колл-центра «Т-Банк» (ранее – «Тинькофф Банк»). Впоследствии актриса обнаружила, что названный банк на своем сайте предлагает всем желающим «цифровой клон» для озвучивания ее голосом любого текста – это выяснилось после того, как ее голосом был озвучен ряд порнографических и иных неблаговидных видеоматериалов в интернете. Актриса не давала письменного согласия на синтезирование ее голоса, вследствие чего предоставление банком возможности неопределенному кругу лиц использовать синтезированный голос актрисы не охватывалось договором. При этом использование голоса актрисы в упомянутых аудио- и видеозаписях нанесли ущерб ее чести, достоинству и деловой репутации, а также повлекли для нее финансовый ущерб. Возложение на банк обязанности маркировать все генерации ИИ по синтезированию голоса, по всей видимости, серьезно снизило бы вероятность подобного случая.

«В основе необходимости маркировки такого контента лежат два концептуальных различия. Первое основано на процессе создания контента и второе – на предупреждении последствий», – отмечает Д. Каспарьянц [2].

В аналитическом обзоре «Маркировка контента, созданного с помощью искусственного интеллекта: эффект, опасности и будущие направления» [9] (Labeling AIGenerated Content: Promises, Perils, and Future Direction, далее – Отчет), выпущенном Массачусетским технологическим институтом (MIT) в 2023 году, отмечалось, что маркировка – это часто предлагаемая стратегия снижения рисков генеративного ИИ, которая предполагает применение видимых предупреждений пользователей о присутствии в сети контента, сгенерированного ИИ (например, в социальных сетях, на новостных сайтах или в поисковых системах) [9, p. 1]. Здесь надо подчеркнуть, что базовыми инструментами для маркировки стали метаданные (англ. metadata) и водяные знаки (англ. watermarks), которые давно используются для фиксации информации об авторе изображений и фотографий.

В Отчете подчеркивается, что несмотря на малочисленность прямых доказательств эффективности маркировки контента, сгенерированного ИИ, обширная научная литература свидетельствует в пользу того, что предупреждающие надписи могут существенно снизить доверие общественности к контенту, развенчанное профессиональной проверкой фактов. При этом в Отчете подчеркивается, что у маркировки, связанной с генеративным ИИ, может быть две цели, которые служат мотивацией.

Первая цель – это цель, которая сфокусирована исключительно на технических процессах (англ. process-based), с помощью которых контент был создан и (или) изменен. С этой точки зрения, основная функция маркировки –информирование пользователей о том, как был создан тот или иной контент: с использованием или без использования инструментов генеративного ИИ. В связи с этим подчеркивается: «Для достижения этой цели процесс маркировки может быть направлен на идентификацию и маркировку любого контента, который был создан или отредактирован с помощью технологии генеративного ИИ, независимо от его формата (например, видео, аудио или изображение), области (например, политика, искусство или наука) или возможного влияния на убеждения и поведение зрителей» [9, p. 3].

Вторая цель, напротив, основана на воздействии (англ. impact-based) контента и сосредоточена на потенциальном вреде, который он может причинить. Для достижения этой цели необходимо уменьшение вероятности того, что созданный ИИ контент вводит общественность в заблуждение или обманывает ее (здесь даже не столь значимо, создан контент с использованием ИИ или без него). Причем опасения по поводу обмана могут относится к очень широкому круг областей: это не только политическая сфера, но и «обычное» мошенничество и аферы, создание сексуальных образов без согласия потерпевших и проч. В связи с этим усилия по маркировке должны быть нацелены на определение степени вероятности того, что контент может ввести публику в заблуждение – именно обеспокоенность дезинформацией обычно лежит в основе призывов к маркировке созданного ИИ контента.

Хотя эти две цели не являются взаимоисключающими, они четко различимы. Причем, как подчеркивается в Отчете, сегодня предпочтение отдается первому подходу, основанному на process-based. Это объясняется, в частности, тем, что в практическом ключе может быть довольно сложно определить, является ли контент истинным или ложным – платформам гораздо проще и надежнее оценить процесс, с помощью которого контент был создан (с использованием или без использования инструментов генеративного ИИ).

Надо признать, что в большинстве юрисдикций сегодня активно обсуждается, а зачастую и разрешается вопрос введения маркировки результатов, созданных ИИ, причем нередко – для достижения обеих обозначенных целей. С другой стороны, важно понимать, что наилучшим подходом в решении любой задачи будет сбалансированный подход.  Применительно к маркировке контента важно определение того, нужна ли маркировка контенту, созданному с помощью ИИ вообще, а если нужна, то необходимо выбрать наиболее эффективные способов маркировки. В связи с растущей обеспокоенностью от масштабов фейкового контента было отмечено, что «предупреждающие метки более эффективны, когда они имеют больший охват и конкретность, более заметны для пользователей и исходят из источников с высоким уровнем доверия, таких как эксперты» [7].

Для настоящего исследования значимостью обладает разработка законодательства, посвященного первой цели. Причем необходимо подчеркнуть, что несмотря на простоту и логичность отделения контента, сгенерированного ИИ (его принято обозначать термином «синтетический»), от созданного человеком контента (для которого используется термин «органический»), технически – это сложно реализуемая задача [5].

Довольно удачное решение обозначенной проблеме разграничения синтетического и органического контента предложено в законодательстве ЕС. В ст. 50 Закона ЕС об ИИ[5] предусмотрен ряд правил, которые возлагают на производителей и разработчиков систем ИИ обязанности, нацеленные на обеспечение прозрачности для (определенных) систем ИИ.

Среди прочего производители должны гарантировать, что системы ИИ, предназначенные для непосредственного взаимодействия с физическими лицами, спроектированы и разработаны таким образом, чтобы соответствующие физические лица были проинформированы о том, что они взаимодействуют с системой ИИ, если только это не очевидно с точки зрения физического лица, которое достаточно хорошо информировано, наблюдательно и осмотрительно, принимая во внимание обстоятельства и контекст использования (п. 1 ст. 50 Закона ЕС об ИИ). При этом производители ИИ, генерирующего синтетический контент (аудио-, графические, видео- или текстовые объекты), должны обеспечить добавление в этот контент машиночитаемых меток о том, что контент сгенерирован ИИ (контент сгенерирован ИИ или обработан ИИ). Эта обязанность не распространяется на случаи, когда ИИ выполняют вспомогательную функцию стандартного редактирования или существенно не изменяют входные данные, предоставленные пользователем (или случаи, когда это разрешено законом для обнаружения, предотвращения, расследования или преследования уголовных преступлений) (п. 2 ст. 50 Закона ЕС об ИИ).

Разработчики системы ИИ, которая генерирует или манипулирует изображением, аудио- или видеоконтентом, представляющим собой дипфейк, должны раскрыть, что контент был искусственно создан или сфальсифицирован. Разработчики системы ИИ, которая генерирует или манипулирует текстом, опубликованным с целью информирования общественности по вопросам, представляющим общественный интерес, должны раскрыть, что текст был искусственно сгенерирован. Обозначенные обязанности не распространяются, в частности, на случаи, когда использование разрешено законом для обнаружения, предотвращения, расследования или преследования уголовного преступления (п. 4 ст. 50 Закона ЕС об ИИ).

Примечательно, что в силу п. 5 ст. 50 Закона ЕС об ИИ обозначенная выше информация должна быть предоставлена заинтересованным физическим лицам (пользователям) в ясной и различимой форме не позднее, чем в момент первого взаимодействия или воздействия на них, причем она должна соответствовать применимым требованиям доступности.

Названные положения находят отражения в национальных законодательствах стран-членов ЕС.

В частности, внести схожие положения планируется в итальянское законодательство. Так, Законопроектом XIX Законодательного Собрания № 1146, посвященным вопросам ИИ[6], представленным в Сенат 20 мая 2024 г. председателем Совета Министров (Мелони) и министром юстиции (НОРДИО), планируется включить положения об идентификации текстового, фотографического, аудиовизуального и радиоконтента, созданного системами ИИ. При этом в «Сводном законе о предоставлении аудиовизуальных медиауслуг» предусмотрены меры, направленные на содействие идентификации и распознаванию ИИ при создании текстового, фотографического, аудиовизуального и радиоконтента: контент, который был полностью или частично создан, модифицирован или изменен ИИ таким образом, чтобы представлять как реальные данные, факты и информацию, которые таковыми не являются, должен иметь идентифицирующий элемент или признак, включая водяной знак или маркировку, включенную с аббревиатурой «ИИ» или, в случае аудио, посредством звуковых объявлений или с помощью технологий, подходящих для обеспечения возможности распознавания. Исключением из этой маркировки являются явно творческие, сатирические, художественные или вымышленные произведения или программы, без ущерба для защиты прав и свобод третьих лиц. Меры по реализации определяются конкретными правилами AGCOM (итал. LAutorità per le Garanzie nelle Comunicazioni – независимый орган регулирования связи, созданный в соответствии с Законом 249 от 1997 года). Помимо указанного, предусматривается дополнение Закона об авторском праве[7] специальными правилами для произведений, созданных с помощью ИИ, которые обеспечат идентификацию произведений и других материалов, использование которых прямо не защищено.

Важно отметить различия в подходах к правовому регулированию ИИ, которое демонстрируют ЕС и некоторые страны-члены ЕС, такие как, например, Франция, Германия, Италия. Обращая внимание на то обстоятельство, что Закон об ИИ изначально предполагался обязательным только для крупных поставщиков ИИ (происходящих в основном из США), названные страны предостерегают от создания явного конкурентного преимущества по сравнению с мелкими поставщиками ИИ, действующими в Европе, что в итоге может привести к снижению уверенности в безопасности услуг мелких игроков на рынке и, следовательно, к уменьшению числа их клиентов. Исходя из позиции, что правила поведения и прозрачность должны быть обязательными для всех, Германия, Италия и Франция выступили против регулирования базовых моделей, поддержав «обязательное саморегулирование через кодексы поведения», подчеркнув, что «неотъемлемые риски заключаются в применении систем ИИ, а не в самой технологии»[8].

В феврале 2021 года в целях борьбы с дезинформацией и фейками в Интернете была создана Коалиция по проверке подлинности и достоверности контента (C2PA)[9]. Коалиция C2PA представляет собой объединение вокруг инициативы Adobe под названием Content Authenticity Initiative (CAI), которая фокусируется на системах обеспечения подлинности цифровых медиа, и Project Origin, проекта под руководством Microsoft и BBC, который был разработан для борьбы с дезинформацией в экосистеме цифровых новостей. Так, C2PA борется с распространением вводящей в заблуждение информации в Интернете путем разработки технических стандартов для сертификации источника и истории (или происхождения) медиаконтента.

В марте текущего года в Китае была обнародована Директива о маркировке материалов, созданных или составленных с помощью ИИ, которая вступит в действие с сентября 2025 года[10]. Директива предусматривает маркировку созданного ИИ онлайн-контента на всех этапах его производства и распространения, предъявляя требование, чтобы поставщики ИИ-услуг добавляли «видимые знаки к своему контенту в соответствующих местах». При этом закрепляется, что ни одна организация или частное лицо не вправе удалять, изменять, фальсифицировать или скрывать предусмотренные директивой идентификационные метки.

С 10 января 2023 г. в Китае «Положением о глубоком интегрированном управлении информационными интернет-услугами» была введена обязательность маркировки любых цифровых продуктов, созданных ИИ, с целью нивелировать распространение незаконной информации, клеветы и подмены личностей[11], что в первую очередь связывалось с производством дипфейков (первые правила о необходимости маркировать фейковые новости и дипфейки, были введены в Китае еще в 2019 году). При этом компании, предоставляющие синтезированный с помощью ИИ контент, обязаны вносить информацию о таком контенте в специальный реестр.

30 октября 2023 г. президентом США был подписал указ, предписывающий разработку эффективных механизмов для обеспечения происхождения контента, чтобы можно было определять, «когда контент создается с использованием ИИ, а когда нет. Эти действия обеспечат жизненно важную основу для подхода, который устраняет риски ИИ, не уменьшая его преимущества»[12].

В ноябре 2024 г. в США был представлен законопроект «О защите и целостности контента от редактированных и дипфейк медиа»[13] (S. 4674 – Content Origin Protection and Integrity from Edited and Deepfaked Media Act of 2024 или COPED Act), направленный на борьбу с дезинформацией и манипуляциями в цифровом пространстве. Он устанавливает общий запрет на использование в коммерческих целях контента, происхождение которого неизвестно другим лицам, и предлагает обязательную маркировку ИИ-контента (раздел 6.6). Согласно его положениям платформы обязаны внедрять технологии, позволяющие автоматически определять и маркировать редактированные или дипфейк материалы; социальные сети и другие онлайн-сервисы должны разработать и внедрить политику, касающуюся управления контентом, а также создать инструменты для пользователей, позволяющие проверять подлинность информации; а пользователи могут сообщать о подозрительном контенте. В качестве мер ответственности законопроект предусматривает значительные штрафы, а также меры судебного характера (раздел 7.7).

Примечательно, что почти одновременно Гильдия авторов США (US Authors Guild) вышла с инициативой сертифицировать книги, написанные людьми, а не ИИ (за исключением минимальных, тривиальных случаев использования, таких как приложения ИИ, проверяющие орфографию и грамматику, или для мозгового штурма или исследований)[14]. Гильдия планирует вносить такие книги в свою базу данных, доступ к которой получит любой желающий. Этот проект сертификации работ, созданных творческим трудом человека (и получивший название Human Authored Certification), нацелен на то, чтобы предоставить авторам возможность «выделить свою работу на все более насыщенном рынке ИИ».

В мае 2025 г. в Казахстане был принят закон «Об искусственном интеллекте»[15], закрепляющий право граждан на защиту персональных данных, на информирование о работе ИИ, а также возможность оспаривать автоматизированные решения. Кроме того, он предусматривает обязанность владельца систем ИИ осуществлять, среди прочего, управление рисками систем ИИ, принимать меры для обеспечения безопасности и надежности систем ИИ, квалифицируемых по степени риска (от минимальной до высокой), а также по уровню автономности (помощники, полуавтономные и полностью автономные). Статья 22 указанного закона предусматривает информирование пользователей «путем предоставления четкой, доступной и однозначной предупреждающей информации, без применения методов, затрудняющих восприятие пользователем указанной информации», запрет на автоматическую генерацию дипфейков, а также ответственность владельцев систем ИИ за нарушения.

В России вопрос о введении обязательной маркировки контента поднимался не единожды.

Так, в 2023 г. Российский технологический университет (РТУ МИРЭА) обратился с письмом[16] к главе Министерства цифрового развития РФ М. И. Шадаеву с просьбой ввести обязательную маркировку контента, созданного с помощью нейросетей, а также подготовить программу защиты критически важной инфраструктуры от возможных кибератак с использованием таких систем. В 2024 г. прошла информация, что в Государственной думе «уже ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей, в частности, изучается законодательный опыт других стран, идут консультации с экспертами, работа над формулировками базовых дефиниций»[17]. При этом подчеркивалось, что маркировка контента должна стать первым шагом в законодательном регулировании этой сферы[18], что объяснялось следующим: «Наверное, не менее половины аудиовизуального контента в социальных сетях на сегодняшний день является продуктом нейросетевой генерации, практически неотличимой от фотографий, аудио или видео, созданного людьми»[19]. В мае 2025 года к премьер-министру РФ М. В. Мишустину обратился директор Института социально-экономического анализа и программ развития (ИСАПР) с предложением «обязать физические и юридические лица маркировать контент, созданный с использованием технологий ИИ при его размещении в сети Интернет»[20].

Изложенное позволяет поддерживать инициативы по разработке в Российской Федерации правового регулирования маркировки результатов, автономно создаваемых ИИ. Вместе с тем, мы склоняемся к тому, что вначале необходимо закрепить общее (рамочное) правило о маркировке таких результатов, которое будет более подробно раскрываться в законодательстве или подзаконных нормативных актах, относящихся к разным сферам применения ИИ (изменения могут коснуться Закона об информации, законодательства о рекламе, о средствах массовой информации, о персональных данных и иных законов, в зависимости от избранной политики в отношении ИИ). Представляется, что маркировка контента может служить двум целям: первая – указать, что контент был создан с использованием ИИ, вторая – показать, что контент может ввести в заблуждение, независимо от того, создан он ИИ или нет.

Применительно к результатам, автономно создаваемым ИИ по запросу пользователя, представляется абсолютно правильной идея маркировки создаваемого генеративным ИИ контента по аналогии с той, что применяет видеохостинг YouTube: при генерации ИИ нового контента пользователь должен отмечать факт его создания[21]. Учитывая, что именно пользователю принадлежит волевой элемент начала генерации ИИ, именно он и должен осуществлять маркировку контента, если она не проставляется автоматически.

Следует отметить, что до перехода в область права, тема маркировки объектов, создаваемых ИИ, затрагивалась во многих документах этического характера.

Так, в США в «Blueprint for an AI Bill of Rights»[22] нашло закрепление следующее указание: «Проектировщики, разработчики и разработчики автоматизированных систем должны предоставлять общедоступную документацию на простом языке, включая четкие описания общего функционирования системы и роли, которую играет автоматизация, уведомления об использовании таких систем, лица или организации, ответственных за систему, и объяснения результатов, которые являются ясными, своевременными и доступными. Такое уведомление должно обновляться, и люди, на которых влияет система, должны быть уведомлены о существенных вариантах использования или ключевых изменениях функциональности».

В Китае были представлены «Пекинские принципы искусственного интеллекта»[23], в пункте 30 которых содержались следующие предложения: «Скорректировать существующие или принять новые нормативно-правовые рамки для обеспечения ответственной разработки и использования инструментов на основе ИИ в области образования и обучения. Содействовать проведению исследований, связанных с этикой ИИ, конфиденциальностью и безопасностью данных, а также с обеспокоенностью по поводу негативного воздействия ИИ на права человека и гендерное равенство».

В России был принят «Кодекс этики в сфере искусственного интеллекта» (далее – Кодекс), в пункте 2.5 раздела 2 которого специально предусмотрено: «Акторам ИИ рекомендуется осуществлять добросовестное информирование пользователей об их взаимодействии с ИИ, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию пользователя»[24]. На момент подготовки настоящего исследования к Кодексу присоединилось 935 участников, среди которых участники из 51 иностранного государства, что свидетельствует о приверженности большого количества организаций и государств высоким этическим стандартам, обеспечению и защиты прав человека, безопасности, а также прозрачности в сфере ИИ.

В целях практической реализации обозначенных в настоящем исследовании выводов в рамках участия в рабочей группе по разработке проекта[25] Федерального закона «О регулировании систем искусственного интеллекта» автором были сформулированы и предложены следующие нормативные положения, носящие рамочный характер:

«3. При использовании систем генеративного искусственного интеллекта в целях создания новых результатов, включая текст, изображения, аудио или видео:

1) такие результаты должны содержать маркировку, указывающую на использование генеративного искусственного интеллекта;

2) при отсутствии автоматически предустановленной маркировки результатов, создаваемых генеративным искусственным интеллектом, обязанность по их маркировке лежит на пользователе системы искусственного интеллекта или на лице, осуществляющем использование таких результатов».

Сноски

Нажмите на активную сноску снова, чтобы вернуться к чтению текста.

[1] Далее также – ИИ.

[2] URL: https://ironov.artlebedev.ru/.

[3] Fake photos of Pope Francis in a puffer jacket go viral, highlighting the power and peril of AI // CBS News. 2023. 28 March. URL: https://www.cbsnews.com/news/pope-francis-puffer-jacket-fake-photos-deepfake-power-peril-of-ai/.

[4] Как дипфейк взрыва у Пентагона повлиял на фондовый рынок // Новости технологий, обзоры цифровой техники. 2023. 24 мая. URL: https://www.ferra.ru/news/techlife/kak-dipfeik-vzryva-u-pentagona-povliyal-na-fondovyi-rynok-24-05-2023.html.

[5] Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) // European Union. Access to European Union law. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689.

[6] Законопроект XIX Законодательного Собрания № 1146 в области искусственного интеллекта. URL: https://www.governo.it/it/articolo/comunicato-stampa-del-consiglio-dei-ministri-n-78/25501.

[7] Закон № 633 от 22 апреля 1941 г. «Об охране авторских и смежных прав» (с изменениями в соответствии с Декретом-законом № 142 от 21 сентября 2022 г.), Италия. URL: https://www.wipo.int/wipolex/ru/legislation/details/21564.

[8] Exclusive: Germany, France and Italy reach agreement on future AI regulation // Reuters. 2023. Nov. 21. URL: https://www.reuters.com/technology/germany-france-italy-reach-agreement-future-ai-regulation-2023-11-18/.

[9] An open technical standard providing publishers, creators, and consumers the ability to trace the origin of different types of media. URL: https://c2pa.org/.

[10] Власти Китая выпустили директиву по маркировке созданного искусственным интеллектом онлайн-контента // ИА Синьхуа. 2025. 15 марта. URL: https://russian.news.cn/20250315/eb4a7f669a42476f9462e7ed3f5c8042/c.html.

[11] Cyberspace Administration of China. URL: https://www.cac.gov.cn/2022-12/11/c_1672221949318230.htm.

[12] Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence: A Presidential Document by the Executive Office of the President on 11/01/2023. URL: https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence.

[13] S.4674 – Content Origin Protection and Integrity from Edited and Deepfaked Media Act of 2024. URL: https://www.congress.gov/bill/118th-congress/senate-bill/4674.

[14] Human Authored Certification. Distinguish human creativity in an increasingly AI world // US Authors Guild. URL: https://authorsguild.org/human-authored/.

[15] Досье на проект Закона Республики Казахстан «Об искусственном интеллекте» (январь 2025 года). URL: https://online.zakon.kz/Document/?doc_id=34868071&pos=5;-88#pos=5;-88.

[16] Минцифры предложили ввести маркировку контента, созданного с помощью нейросетей // ТАСС. 2023. 15 мая. URL: https://tass.ru/ekonomika/17746919 ; см. также: Российские ученые предложили маркировать произведения нейросетей // Единая Россия. Пермский край. URL: https://permkrai.er.ru/activity/news/rossijskie-uchenye-predlozhili-markirovat-proizvedeniya-nejrosetej.

[17] В Госдуме разрабатывают закон о маркировке контента, созданного нейросетями // РИА Новости. 2024. 14 мая. URL: https://ria.ru/20240514/markirovka-1945757794.html.

[18] Круглый стол фракции «Новые люди» на тему «Мировая ИИ-гонка: стратегия России» // Государственная Дума Федерального Собрания Российской Федерации : офиц. сайт. URL: http://duma.gov.ru/multimedia/video/events/113384/.

[19] В России призвали внедрить единые правила маркирования нейросетевого контента // RT. 2025. 8 апр. URL: https://russian.rt.com/russia/news/1460391-markirovka-pravila-neirosetevoi-kontent.

[20] Правительство попросили обязать юрлица в РФ маркировать созданный ИИ контент // Известия. 2025. 27 мая. URL: https://iz.ru/1892961/2025-05-27/pravitelstvo-poprosili-obazat-urlica-v-rf-markirovat-sozdannyi-ii-kontent.

[21] Российские сервисы могут обязать маркировать ИИ-контент // Российская газета. 2024. 27 марта. URL: https://rg.ru/2024/03/27/rossijskie-servisy-mogut-obiazat-markirovat-ii-kontent.html.

[22] Blueprint for an AI Bill of Rights, The White House (Washington) Office of Science and Technology Policy. 2022. p. 40. URL: https://bidenwhitehouse.archives.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf.

[23] Beijing Consensus on Artificial Intelligence and Education. UNESCO. 2019. p. 39. URL: https://unesdoc.unesco.org/ark:/48223/pf0000368303.

[24] Кодекс этики в сфере искусственного интеллекта (от 26 окт. 2021 г.) // Гарант : информ.-правовая система. URL: https://base.garant.ru/406862712/.

[25] Проект закона об ИИ: маркировка вместо защиты авторов // Российский центр оборота прав на результаты творческой деятельности : сайт. URL: https://xn--h1apes.xn--p1ai/about/press/proekt-zakona-ob-ii-markirovka-vmesto-zashity-avtorov.

Список источников

  1. Игнатенков Г. К. Технология дипфейк как угроза информационной безопасности // Наука. Исследования. Практика : сб. избр. статей по материалам Междунар. науч. конф. (Санкт-Петербург, 2022). – Санкт-Петербург : Гуманитарный национальный исследовательский институт «Нацразвитие», 2022. – С. 74–77.
  2. Каспарьянц Д. Маркировка контента, сгенерированного искусственным интеллектом. Обзор// Научно-технический центр ФГУП «ГРЧЦ». – URL: https://rdc.grfc.ru/2025/04/ai_content/.
  3. Корних Е. М. Deepfakes как угроза информационной безопасности // Бюллетень II международной молодежной конференции по информационной безопасности. 24 октября 2024 г. (сб. тезисов). – Москва : Дипломатическая академия МИД России, 2025. – С. 62–67.
  4. Липанова Л. Бесконечный диапазон логотипов за секунды: «Студия Артемия Лебедева» рассказала, как работает нейросеть «Николай Иронов» // vc.ru.– 2020. – 18 июля. – URL: https://vc.ru/design/143096-beskonechnyi-diapazon-logotipov-za-sekundy-studiya-artemiya-lebedeva-rasskazala-kak-rabotaet-neiroset-nikolai-ironov.
  5. Маслова О. Мировой бум маркировки контента придет ли в Россию? // vc.ru. – 2023. – 16 нояб. – URL: https://vc.ru/legal/918032-mirovoi-bum-markirovki-kontenta-pridet-li-v-rossiyu#A-chto-v-Rossii-Day-spisat-.
  6. Попонина Е. О чем стоит подумать, если вы покупаете логотип в «Студии Артемия Лебедева» // vc.ru. – 2022. – 17апр. – URL: https://vc.ru/legal/404397-o-chem-stoit-podumat-esli-vy-pokupaete-logotip-v-studii-artemiya-lebedeva.
  7. Cameron Martel, Rand David G. Misinformation warning labels are widely effective: A review of warning effects and their moderating features // Current Opinion in Psychology. – 2023. – Vol. 54. – DOI:1016/j.copsyc.2023.101710.
  8. Lalla Vejay, Mitrani Adine, Harned Zach. Artificial intelligence: deepfakes in the entertainment industry // WIPO Magazine. – 2022. – № 2. – P. 12–17. – URL: https://www.wipo.int/ru/web/wipo-magazine/articles/artificial-intelligence-deepfakes-in-the-entertainment-industry-42620.
  9. Wittenberg Chloe, Epstein Ziv, Berinsky Adam J., Rand David G. Labeling AI-Generated Content: Promises, Perils, and Future Directions. – MIT : Schwarzman College of Computing, 2023.– 14 p. – URL: https://computing.mit.edu/wp-content/uploads/2023/11/AI-Policy_Labeling.pdf.
  10. Zhong Wei, Sanderson Zeve, Tucker Joshua A. The Effect of AI Labeling on Perceptions of Images. – MIT. – 2024. – URL: https://osf.io/zjhd4.

References

  1. Ignatenkov G. K. Deepfake Technology as a Threat to Information Security. Issledovaniya. Praktika. Materialy Mezhdunarodnoi nauchnoi konferentsii, Saint Petersburg, 2022 [Science. Research. Practice. Themed Collection of Papers from the International Scientific Conferences, Saint Petersburg, 2022]. Saint Petersburg, HNRI National development Publ., 2022, pp. 74–77. (In Russian).
  2. Kasparyants D. Labeling of Content Generated by Artificial Intelligence. Review. URL: https://rdc.grfc.ru/2025/04/ai_content/. (In Russian).
  3. Kornikh E. M. Deepfakes as a threat to information security. Byulleten 2-i mezhdunarodnoi molodezhnoi konferentsii po informatsionnoi bezopasnosti, 24 oktyabrya 2024. (sbornik tezisov) [Bulletin of the 2nd International Youth Conference on Information Security, October 24, 2024 (Collection of Abstracts)]. Moscow, The Diplomatic Academy of the Russian Foreign Ministry, 2025, pp. 62–67. (In Russian).
  4. Lipanova L. An Endless Range of Logos in Seconds: Artemy Lebedev Studio Explains How The Nikolay Ironov Neural Network Works. vc.ru. 2020. 18 July. URL: https://vc.ru/design/143096-beskonechnyi-diapazon-logotipov-za-sekundy-studiya-artemiya-lebedeva-rasskazala-kak-rabotaet-neiroset-nikolai-ironov. (In Russian).
  5. Maslova O. Will the Global Boom in Content Labeling Come to Russia? vc.ru. 2023. 16 Nov. URL: https://vc.ru/legal/918032-mirovoi-bum-markirovki-kontenta-pridet-li-v-rossiyu#A-chto-v-Rossii-Day-spisat-.(In Russian).
  6. Poponina E. What Should You Think About if You Buy a Logo from Artemy Lebedev Studio. ru. 2022. 17 Apr. URL: https://vc.ru/legal/404397-o-chem-stoit-podumat-esli-vy-pokupaete-logotip-v-studii-artemiya-lebedeva. (In Russian).
  7. Cameron Martel, Rand David G. Misinformation warning labels are widely effective: A review of warning effects and their moderating features. Current Opinion in Psychology, 2023, vol. 54. DOI:1016/j.copsyc.2023.101710.
  8. Lalla Vejay, Mitrani Adine, Harned Zach. Artificial intelligence: deepfakes in the entertainment industry. WIPO Magazine, 2022, no. 2, pp. 12–17. URL: https://www.wipo.int/ru/web/wipo-magazine/articles/artificial-intelligence-deepfakes-in-the-entertainment-industry-42620.
  9. Wittenberg Chloe, Epstein Ziv, Berinsky Adam J., Rand David G. Labeling AI-Generated Content: Promises, Perils, and Future Directions. MIT, Schwarzman College of Computing, 2023. 14 p. URL: https://computing.mit.edu/wp-content/uploads/2023/11/AI-Policy_Labeling.pdf.
  10. Zhong Wei, Sanderson Zeve, Tucker Joshua A. The Effect of AI Labeling on Perceptions of Images. MIT, 2024. URL: https://osf.io/zjhd4.