Практика показывает, что различить авторское произведение и результат, сгенерированный искусственным интеллектом[1], зачастую довольно сложно, а иногда невозможно, если речь идет, к примеру, о сопоставлении результата «работы» генератора изображений и художественного произведения, созданного человеком с помощью графического редактора. В целях определения источника используются различные технические средства, например, анализ метаданных файла, содержащие название приложения, в котором был создан такой результат, или специальное программное обеспечение.
Обозначенная сложность может быть недобросовестно использована, что применительно к частноправовой сфере способно повлечь нарушение субъективных прав граждан и юридических лиц.
Примером этого может стать широко известный случай Николая Иронова[2] – основанного на ИИ генератора изображений, который выдавался студией Артемия Лебедева за дизайнера-человека (для чего было специально придумано «человеческое» имя, создана страница с портфолио). Студия вела этот проект в условиях строгой секретности и только через год после «работы» генератора изображений тайна была раскрыта.
В описании генератора изображений указывалось, что он создает изображения логотипов на основе текстового описания, причем можно ограничиться указанием названия компании и ссылкой на веб-страницу, где содержится описание этой компании [4]. После генерации ИИ-изображения с помощью ряда алгоритмов результат масштабируется, упрощается дизайн (для целей использования изображения именно в качестве логотипа), создаются различные цветовые варианты и шрифты. Формат «экспресс-дизайна», в котором «работал» генератор изображений, допускает возможность доработки и внесение правок заказчиком (пользователем), хотя, по утверждению самих пользователей, эта возможность крайне ограничена – серьезную «доработку» избранного пользователем варианта изображения осуществляет, по сути, сам ИИ. На момент разоблачения Николай Иронов сгенерировал 17 коммерческих проектов по заказам пользователей.
Проведя правовой анализ уже после раскрытия того факта, что Николай Иронов не является дизайнером-человеком, Е. Попонина пришла к выводу о существовании множества юридических рисков при использовании этого генератора изображений для создания логотипов [6]. Прежде всего автор отметила неопределенность в части того, кто становится правообладателем изображения. Этот вопрос вовсе не получает ответа, хотя заказчику (пользователю генератора изображений) предлагается исключительная лицензия на весь срок правовой охраны изображения, созданного Николаем Ироновым, с запретом на передачу права использования другим лицам, причем, как подчеркивает Е. Попонина, заказать создание изображения логотипа может только физическое лицо: «Вы не сможете выдать лицензию, заключить договор франшизы или иным способом предоставить право использования логотипа другому лицу. Договор отчуждения тоже не заключите» [6]. Но особо примечателен, на взгляд Е. Попониной, раздел, посвященный ответственности, проанализированный ею подробнее. В этом разделе, в частности, закреплялось отсутствие гарантий в отношении того, что при использовании логотипа не будут нарушены интеллектуальные права третьих лиц – это, по мнению Е. Попониной, свидетельствует о вероятности предоставления пользователю-заказчику результатов, созданных неизвестным автором (а не генеративным ИИ), что ставит вопрос о необходимости согласования переработки предложенного результата непосредственно с его автором-создателем. Кроме того, в разделе об ответственности указывается, что созданный Николаем Ироновым логотип может содержать элементы логотипа, который Иронов сгенерировал для другого лица, и не гарантируется возможность использования сгенерированного логотипа в качестве средства индивидуализации – это, на взгляд Е. Попониной, подтверждает сложности использования сгенерированного объекта в качестве логотипа ввиду отсутствия информации относительно источника происхождения (получения) изобразительной части, что влечет серьезный риск оспаривания в случае его регистрации в качестве товарного знака. В заключении раздела об ответственности указывалось, что студия не возмещает ущерб и убытки.
Обозначенные вопросы дополнительно свидетельствуют в пользу актуальности проблематики проводимого нами исследования, подтверждая при этом и потребность в разрешении практического вопроса маркировки результатов, автономно сгенерированных ИИ.
Необходимость маркировки не только изображений, создаваемых ИИ, но и аудио- и видеоконтента, генерируемого ИИ, актализирует все большее распространение так называемых дипфейков (англ. deepfakes), представляющих собой «преднамеренно искаженные аудио, видео или иные файлы с использованием технологии глубокого обучения (определение, производное от словосочетания «deep learning» – глубокое обучение, «fake» – подделка), которые изображают что-то вымышленное или ложное, что позволяет злоумышленникам использовать новый и сложный инструмент социальной инженерии» [1, с. 74–77]. Так, например, яркими примерами дипфейков с широким охватом аудитории на международном уровне стали публикации в сети поддельных фотографий папы Римского[3] и взрыва у Пентагона[4] весной 2023 года.
Важно заметить, что один и тот же термин «дипфейк» употребляется для обозначения как самой этой технологии ИИ (основанная на ИИ технология синтеза изображения или голоса, которая может использоваться в добросовестных, общественно полезных целях, например, при «возвращении» голоса людям, его потерявшим, или производстве кинофильмов [8, p. 12–17]), так и вводящего в заблуждение (то есть собственно фейкового) контента, который производится с помощью такой технологии, что нуждается в изменении. В целях настоящего исследования далее данное понятие будет рассматриваться во втором своем значении.
Применительно к дипфейкам в литературе также довольно часто озвучивается потребность в маркировке контента, создаваемого ИИ или с помощью ИИ. Например, Е. М. Корних обращает внимание на необходимость разработки и тестирования механизмов для создания алгоритма, который будет отслеживать и верифицировать контент, сформированный при использовании дипфейк-технологий, в первую очередь для противодействия созданию и распространению дипфейков. Он отмечает, что «верификация материалов, которые размещаются в сети, на предмет нахождения в них дипфейков, также является одним из возможных решений» среди мер по противодействию вредоносным дипфейк-технологиям» [3, c. 62–67].
Значимость маркировки аудио- и видеоконтента, генерируемого ИИ, проявляется на примере следующего, получившего широкий резонанс в России, дела актрисы дубляжа Алены Андроновой, которая по договору предоставила образцы своего голоса для обучения цифрового помощника и работы колл-центра «Т-Банк» (ранее – «Тинькофф Банк»). Впоследствии актриса обнаружила, что названный банк на своем сайте предлагает всем желающим «цифровой клон» для озвучивания ее голосом любого текста – это выяснилось после того, как ее голосом был озвучен ряд порнографических и иных неблаговидных видеоматериалов в интернете. Актриса не давала письменного согласия на синтезирование ее голоса, вследствие чего предоставление банком возможности неопределенному кругу лиц использовать синтезированный голос актрисы не охватывалось договором. При этом использование голоса актрисы в упомянутых аудио- и видеозаписях нанесли ущерб ее чести, достоинству и деловой репутации, а также повлекли для нее финансовый ущерб. Возложение на банк обязанности маркировать все генерации ИИ по синтезированию голоса, по всей видимости, серьезно снизило бы вероятность подобного случая.
«В основе необходимости маркировки такого контента лежат два концептуальных различия. Первое основано на процессе создания контента и второе – на предупреждении последствий», – отмечает Д. Каспарьянц [2].
В аналитическом обзоре «Маркировка контента, созданного с помощью искусственного интеллекта: эффект, опасности и будущие направления» [9] (Labeling AI—Generated Content: Promises, Perils, and Future Direction, далее – Отчет), выпущенном Массачусетским технологическим институтом (MIT) в 2023 году, отмечалось, что маркировка – это часто предлагаемая стратегия снижения рисков генеративного ИИ, которая предполагает применение видимых предупреждений пользователей о присутствии в сети контента, сгенерированного ИИ (например, в социальных сетях, на новостных сайтах или в поисковых системах) [9, p. 1]. Здесь надо подчеркнуть, что базовыми инструментами для маркировки стали метаданные (англ. metadata) и водяные знаки (англ. watermarks), которые давно используются для фиксации информации об авторе изображений и фотографий.
В Отчете подчеркивается, что несмотря на малочисленность прямых доказательств эффективности маркировки контента, сгенерированного ИИ, обширная научная литература свидетельствует в пользу того, что предупреждающие надписи могут существенно снизить доверие общественности к контенту, развенчанное профессиональной проверкой фактов. При этом в Отчете подчеркивается, что у маркировки, связанной с генеративным ИИ, может быть две цели, которые служат мотивацией.
Первая цель – это цель, которая сфокусирована исключительно на технических процессах (англ. process-based), с помощью которых контент был создан и (или) изменен. С этой точки зрения, основная функция маркировки –информирование пользователей о том, как был создан тот или иной контент: с использованием или без использования инструментов генеративного ИИ. В связи с этим подчеркивается: «Для достижения этой цели процесс маркировки может быть направлен на идентификацию и маркировку любого контента, который был создан или отредактирован с помощью технологии генеративного ИИ, независимо от его формата (например, видео, аудио или изображение), области (например, политика, искусство или наука) или возможного влияния на убеждения и поведение зрителей» [9, p. 3].
Вторая цель, напротив, основана на воздействии (англ. impact-based) контента и сосредоточена на потенциальном вреде, который он может причинить. Для достижения этой цели необходимо уменьшение вероятности того, что созданный ИИ контент вводит общественность в заблуждение или обманывает ее (здесь даже не столь значимо, создан контент с использованием ИИ или без него). Причем опасения по поводу обмана могут относится к очень широкому круг областей: это не только политическая сфера, но и «обычное» мошенничество и аферы, создание сексуальных образов без согласия потерпевших и проч. В связи с этим усилия по маркировке должны быть нацелены на определение степени вероятности того, что контент может ввести публику в заблуждение – именно обеспокоенность дезинформацией обычно лежит в основе призывов к маркировке созданного ИИ контента.
Хотя эти две цели не являются взаимоисключающими, они четко различимы. Причем, как подчеркивается в Отчете, сегодня предпочтение отдается первому подходу, основанному на process-based. Это объясняется, в частности, тем, что в практическом ключе может быть довольно сложно определить, является ли контент истинным или ложным – платформам гораздо проще и надежнее оценить процесс, с помощью которого контент был создан (с использованием или без использования инструментов генеративного ИИ).
Надо признать, что в большинстве юрисдикций сегодня активно обсуждается, а зачастую и разрешается вопрос введения маркировки результатов, созданных ИИ, причем нередко – для достижения обеих обозначенных целей. С другой стороны, важно понимать, что наилучшим подходом в решении любой задачи будет сбалансированный подход. Применительно к маркировке контента важно определение того, нужна ли маркировка контенту, созданному с помощью ИИ вообще, а если нужна, то необходимо выбрать наиболее эффективные способов маркировки. В связи с растущей обеспокоенностью от масштабов фейкового контента было отмечено, что «предупреждающие метки более эффективны, когда они имеют больший охват и конкретность, более заметны для пользователей и исходят из источников с высоким уровнем доверия, таких как эксперты» [7].
Для настоящего исследования значимостью обладает разработка законодательства, посвященного первой цели. Причем необходимо подчеркнуть, что несмотря на простоту и логичность отделения контента, сгенерированного ИИ (его принято обозначать термином «синтетический»), от созданного человеком контента (для которого используется термин «органический»), технически – это сложно реализуемая задача [5].
Довольно удачное решение обозначенной проблеме разграничения синтетического и органического контента предложено в законодательстве ЕС. В ст. 50 Закона ЕС об ИИ[5] предусмотрен ряд правил, которые возлагают на производителей и разработчиков систем ИИ обязанности, нацеленные на обеспечение прозрачности для (определенных) систем ИИ.
Среди прочего производители должны гарантировать, что системы ИИ, предназначенные для непосредственного взаимодействия с физическими лицами, спроектированы и разработаны таким образом, чтобы соответствующие физические лица были проинформированы о том, что они взаимодействуют с системой ИИ, если только это не очевидно с точки зрения физического лица, которое достаточно хорошо информировано, наблюдательно и осмотрительно, принимая во внимание обстоятельства и контекст использования (п. 1 ст. 50 Закона ЕС об ИИ). При этом производители ИИ, генерирующего синтетический контент (аудио-, графические, видео- или текстовые объекты), должны обеспечить добавление в этот контент машиночитаемых меток о том, что контент сгенерирован ИИ (контент сгенерирован ИИ или обработан ИИ). Эта обязанность не распространяется на случаи, когда ИИ выполняют вспомогательную функцию стандартного редактирования или существенно не изменяют входные данные, предоставленные пользователем (или случаи, когда это разрешено законом для обнаружения, предотвращения, расследования или преследования уголовных преступлений) (п. 2 ст. 50 Закона ЕС об ИИ).
Разработчики системы ИИ, которая генерирует или манипулирует изображением, аудио- или видеоконтентом, представляющим собой дипфейк, должны раскрыть, что контент был искусственно создан или сфальсифицирован. Разработчики системы ИИ, которая генерирует или манипулирует текстом, опубликованным с целью информирования общественности по вопросам, представляющим общественный интерес, должны раскрыть, что текст был искусственно сгенерирован. Обозначенные обязанности не распространяются, в частности, на случаи, когда использование разрешено законом для обнаружения, предотвращения, расследования или преследования уголовного преступления (п. 4 ст. 50 Закона ЕС об ИИ).
Примечательно, что в силу п. 5 ст. 50 Закона ЕС об ИИ обозначенная выше информация должна быть предоставлена заинтересованным физическим лицам (пользователям) в ясной и различимой форме не позднее, чем в момент первого взаимодействия или воздействия на них, причем она должна соответствовать применимым требованиям доступности.
Названные положения находят отражения в национальных законодательствах стран-членов ЕС.
В частности, внести схожие положения планируется в итальянское законодательство. Так, Законопроектом XIX Законодательного Собрания № 1146, посвященным вопросам ИИ[6], представленным в Сенат 20 мая 2024 г. председателем Совета Министров (Мелони) и министром юстиции (НОРДИО), планируется включить положения об идентификации текстового, фотографического, аудиовизуального и радиоконтента, созданного системами ИИ. При этом в «Сводном законе о предоставлении аудиовизуальных медиауслуг» предусмотрены меры, направленные на содействие идентификации и распознаванию ИИ при создании текстового, фотографического, аудиовизуального и радиоконтента: контент, который был полностью или частично создан, модифицирован или изменен ИИ таким образом, чтобы представлять как реальные данные, факты и информацию, которые таковыми не являются, должен иметь идентифицирующий элемент или признак, включая водяной знак или маркировку, включенную с аббревиатурой «ИИ» или, в случае аудио, посредством звуковых объявлений или с помощью технологий, подходящих для обеспечения возможности распознавания. Исключением из этой маркировки являются явно творческие, сатирические, художественные или вымышленные произведения или программы, без ущерба для защиты прав и свобод третьих лиц. Меры по реализации определяются конкретными правилами AGCOM (итал. L‘Autorità per le Garanzie nelle Comunicazioni – независимый орган регулирования связи, созданный в соответствии с Законом 249 от 1997 года). Помимо указанного, предусматривается дополнение Закона об авторском праве[7] специальными правилами для произведений, созданных с помощью ИИ, которые обеспечат идентификацию произведений и других материалов, использование которых прямо не защищено.
Важно отметить различия в подходах к правовому регулированию ИИ, которое демонстрируют ЕС и некоторые страны-члены ЕС, такие как, например, Франция, Германия, Италия. Обращая внимание на то обстоятельство, что Закон об ИИ изначально предполагался обязательным только для крупных поставщиков ИИ (происходящих в основном из США), названные страны предостерегают от создания явного конкурентного преимущества по сравнению с мелкими поставщиками ИИ, действующими в Европе, что в итоге может привести к снижению уверенности в безопасности услуг мелких игроков на рынке и, следовательно, к уменьшению числа их клиентов. Исходя из позиции, что правила поведения и прозрачность должны быть обязательными для всех, Германия, Италия и Франция выступили против регулирования базовых моделей, поддержав «обязательное саморегулирование через кодексы поведения», подчеркнув, что «неотъемлемые риски заключаются в применении систем ИИ, а не в самой технологии»[8].
В феврале 2021 года в целях борьбы с дезинформацией и фейками в Интернете была создана Коалиция по проверке подлинности и достоверности контента (C2PA)[9]. Коалиция C2PA представляет собой объединение вокруг инициативы Adobe под названием Content Authenticity Initiative (CAI), которая фокусируется на системах обеспечения подлинности цифровых медиа, и Project Origin, проекта под руководством Microsoft и BBC, который был разработан для борьбы с дезинформацией в экосистеме цифровых новостей. Так, C2PA борется с распространением вводящей в заблуждение информации в Интернете путем разработки технических стандартов для сертификации источника и истории (или происхождения) медиаконтента.
В марте текущего года в Китае была обнародована Директива о маркировке материалов, созданных или составленных с помощью ИИ, которая вступит в действие с сентября 2025 года[10]. Директива предусматривает маркировку созданного ИИ онлайн-контента на всех этапах его производства и распространения, предъявляя требование, чтобы поставщики ИИ-услуг добавляли «видимые знаки к своему контенту в соответствующих местах». При этом закрепляется, что ни одна организация или частное лицо не вправе удалять, изменять, фальсифицировать или скрывать предусмотренные директивой идентификационные метки.
С 10 января 2023 г. в Китае «Положением о глубоком интегрированном управлении информационными интернет-услугами» была введена обязательность маркировки любых цифровых продуктов, созданных ИИ, с целью нивелировать распространение незаконной информации, клеветы и подмены личностей[11], что в первую очередь связывалось с производством дипфейков (первые правила о необходимости маркировать фейковые новости и дипфейки, были введены в Китае еще в 2019 году). При этом компании, предоставляющие синтезированный с помощью ИИ контент, обязаны вносить информацию о таком контенте в специальный реестр.
30 октября 2023 г. президентом США был подписал указ, предписывающий разработку эффективных механизмов для обеспечения происхождения контента, чтобы можно было определять, «когда контент создается с использованием ИИ, а когда нет. Эти действия обеспечат жизненно важную основу для подхода, который устраняет риски ИИ, не уменьшая его преимущества»[12].
В ноябре 2024 г. в США был представлен законопроект «О защите и целостности контента от редактированных и дипфейк медиа»[13] (S. 4674 – Content Origin Protection and Integrity from Edited and Deepfaked Media Act of 2024 или COPED Act), направленный на борьбу с дезинформацией и манипуляциями в цифровом пространстве. Он устанавливает общий запрет на использование в коммерческих целях контента, происхождение которого неизвестно другим лицам, и предлагает обязательную маркировку ИИ-контента (раздел 6.6). Согласно его положениям платформы обязаны внедрять технологии, позволяющие автоматически определять и маркировать редактированные или дипфейк материалы; социальные сети и другие онлайн-сервисы должны разработать и внедрить политику, касающуюся управления контентом, а также создать инструменты для пользователей, позволяющие проверять подлинность информации; а пользователи могут сообщать о подозрительном контенте. В качестве мер ответственности законопроект предусматривает значительные штрафы, а также меры судебного характера (раздел 7.7).
Примечательно, что почти одновременно Гильдия авторов США (US Authors Guild) вышла с инициативой сертифицировать книги, написанные людьми, а не ИИ (за исключением минимальных, тривиальных случаев использования, таких как приложения ИИ, проверяющие орфографию и грамматику, или для мозгового штурма или исследований)[14]. Гильдия планирует вносить такие книги в свою базу данных, доступ к которой получит любой желающий. Этот проект сертификации работ, созданных творческим трудом человека (и получивший название Human Authored Certification), нацелен на то, чтобы предоставить авторам возможность «выделить свою работу на все более насыщенном рынке ИИ».
В мае 2025 г. в Казахстане был принят закон «Об искусственном интеллекте»[15], закрепляющий право граждан на защиту персональных данных, на информирование о работе ИИ, а также возможность оспаривать автоматизированные решения. Кроме того, он предусматривает обязанность владельца систем ИИ осуществлять, среди прочего, управление рисками систем ИИ, принимать меры для обеспечения безопасности и надежности систем ИИ, квалифицируемых по степени риска (от минимальной до высокой), а также по уровню автономности (помощники, полуавтономные и полностью автономные). Статья 22 указанного закона предусматривает информирование пользователей «путем предоставления четкой, доступной и однозначной предупреждающей информации, без применения методов, затрудняющих восприятие пользователем указанной информации», запрет на автоматическую генерацию дипфейков, а также ответственность владельцев систем ИИ за нарушения.
В России вопрос о введении обязательной маркировки контента поднимался не единожды.
Так, в 2023 г. Российский технологический университет (РТУ МИРЭА) обратился с письмом[16] к главе Министерства цифрового развития РФ М. И. Шадаеву с просьбой ввести обязательную маркировку контента, созданного с помощью нейросетей, а также подготовить программу защиты критически важной инфраструктуры от возможных кибератак с использованием таких систем. В 2024 г. прошла информация, что в Государственной думе «уже ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей, в частности, изучается законодательный опыт других стран, идут консультации с экспертами, работа над формулировками базовых дефиниций»[17]. При этом подчеркивалось, что маркировка контента должна стать первым шагом в законодательном регулировании этой сферы[18], что объяснялось следующим: «Наверное, не менее половины аудиовизуального контента в социальных сетях на сегодняшний день является продуктом нейросетевой генерации, практически неотличимой от фотографий, аудио или видео, созданного людьми»[19]. В мае 2025 года к премьер-министру РФ М. В. Мишустину обратился директор Института социально-экономического анализа и программ развития (ИСАПР) с предложением «обязать физические и юридические лица маркировать контент, созданный с использованием технологий ИИ при его размещении в сети Интернет»[20].
Изложенное позволяет поддерживать инициативы по разработке в Российской Федерации правового регулирования маркировки результатов, автономно создаваемых ИИ. Вместе с тем, мы склоняемся к тому, что вначале необходимо закрепить общее (рамочное) правило о маркировке таких результатов, которое будет более подробно раскрываться в законодательстве или подзаконных нормативных актах, относящихся к разным сферам применения ИИ (изменения могут коснуться Закона об информации, законодательства о рекламе, о средствах массовой информации, о персональных данных и иных законов, в зависимости от избранной политики в отношении ИИ). Представляется, что маркировка контента может служить двум целям: первая – указать, что контент был создан с использованием ИИ, вторая – показать, что контент может ввести в заблуждение, независимо от того, создан он ИИ или нет.
Применительно к результатам, автономно создаваемым ИИ по запросу пользователя, представляется абсолютно правильной идея маркировки создаваемого генеративным ИИ контента по аналогии с той, что применяет видеохостинг YouTube: при генерации ИИ нового контента пользователь должен отмечать факт его создания[21]. Учитывая, что именно пользователю принадлежит волевой элемент начала генерации ИИ, именно он и должен осуществлять маркировку контента, если она не проставляется автоматически.
Следует отметить, что до перехода в область права, тема маркировки объектов, создаваемых ИИ, затрагивалась во многих документах этического характера.
Так, в США в «Blueprint for an AI Bill of Rights»[22] нашло закрепление следующее указание: «Проектировщики, разработчики и разработчики автоматизированных систем должны предоставлять общедоступную документацию на простом языке, включая четкие описания общего функционирования системы и роли, которую играет автоматизация, уведомления об использовании таких систем, лица или организации, ответственных за систему, и объяснения результатов, которые являются ясными, своевременными и доступными. Такое уведомление должно обновляться, и люди, на которых влияет система, должны быть уведомлены о существенных вариантах использования или ключевых изменениях функциональности».
В Китае были представлены «Пекинские принципы искусственного интеллекта»[23], в пункте 30 которых содержались следующие предложения: «Скорректировать существующие или принять новые нормативно-правовые рамки для обеспечения ответственной разработки и использования инструментов на основе ИИ в области образования и обучения. Содействовать проведению исследований, связанных с этикой ИИ, конфиденциальностью и безопасностью данных, а также с обеспокоенностью по поводу негативного воздействия ИИ на права человека и гендерное равенство».
В России был принят «Кодекс этики в сфере искусственного интеллекта» (далее – Кодекс), в пункте 2.5 раздела 2 которого специально предусмотрено: «Акторам ИИ рекомендуется осуществлять добросовестное информирование пользователей об их взаимодействии с ИИ, когда это затрагивает вопросы прав человека и критических сфер его жизни, и обеспечивать возможность прекратить такое взаимодействие по желанию пользователя»[24]. На момент подготовки настоящего исследования к Кодексу присоединилось 935 участников, среди которых участники из 51 иностранного государства, что свидетельствует о приверженности большого количества организаций и государств высоким этическим стандартам, обеспечению и защиты прав человека, безопасности, а также прозрачности в сфере ИИ.
В целях практической реализации обозначенных в настоящем исследовании выводов в рамках участия в рабочей группе по разработке проекта[25] Федерального закона «О регулировании систем искусственного интеллекта» автором были сформулированы и предложены следующие нормативные положения, носящие рамочный характер:
«3. При использовании систем генеративного искусственного интеллекта в целях создания новых результатов, включая текст, изображения, аудио или видео:
1) такие результаты должны содержать маркировку, указывающую на использование генеративного искусственного интеллекта;
2) при отсутствии автоматически предустановленной маркировки результатов, создаваемых генеративным искусственным интеллектом, обязанность по их маркировке лежит на пользователе системы искусственного интеллекта или на лице, осуществляющем использование таких результатов».