• +7 (3952) 79-88-99
  • prolaw38@mail.ru

ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КИТАЙСКОЙ НАРОДНОЙ РЕСПУБЛИКЕ: СОСТОЯНИЕ, ПЕРСПЕКТИВЫ, СРАВНИТЕЛЬНЫЙ АНАЛИЗ ЗАКОНОПРОЕКТНЫХ ПРЕДЛОЖЕНИЙ (ЧАСТЬ 1)

004.8:346.544.2(510)

Пролог: журнал о праве. – 2025. – № 1. – С. 38 – 54.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.1.4.
Дата поступления 03.02.2025, дата принятия к печати 18.03.2025,
дата онлайн-размещения 25.03.2025.

В статье обозначена возросшая конкуренция государств не только за лидерство в развитии технологии искусственного интеллекта, но и в сфере нормативного правового регулирования. Отмечается, что Китайская Народная Республика, уступающая по темпам развития отрасли лишь США, в то же время является лидером по стандартизации искусственного интеллекта не только внутри страны, но и в международных организациях, а также демонстрирует оперативность правового реагирования в ответ на проблемы, возникающие в связи с развитием рекомендательных алгоритмов, технологий глубокого синтеза (дипфейков) и генеративного искусственного интеллекта. Автор описывает этапы регулирования технологии, текущее состояние нормативной правовой базы, а также впервые развернуто анализирует положения двух законопроектов, последовательно представленных в КНР в 2023 и 2024 годах, озаглавленных соответственно «Закон об искусственном интеллекте (Типовой закон) 1.0 (проект, рекомендованный экспертами)» и «Закон Китайской Народной Республики об искусственном интеллекте (проект, предложенный учеными)». Тексты данных проектов являются образцами комплексного регулирования сферы искусственного интеллекта и в качестве таковых представляют ценность для законотворческой деятельности и научных исследований в нашей стране. В первой части статьи представлен сравнительный анализ данных проектов по разделам, посвященным общим положениям, целям и принципам регулирования, поддержке, развитию и продвижению ИИ, вопросам управления и контрольно-надзорной деятельности, обеспечения безопасности систем ИИ, сформулированы промежуточные выводы.

Искусственный интеллект; правовое регулирование искусственного интеллекта в КНР; китайские законопроекты об искусственном интеллекте; комплексное регулирование искусственного интеллекта; сравнительно-правовое исследование.

Шейкин А. Г. Правовое регулирование искусственного интеллекта в Китайской Народной Республике: состояние, перспективы, сравнительный анализ законопроектных предложений (часть 1) // Пролог: журнал о праве. – 2025. – № 1. – С. 38 – 54. – DOI: 10.21639/2313-6715.2025.1.4.

УДК
004.8:346.544.2(510)
Информация о статье

Пролог: журнал о праве. – 2025. – № 1. – С. 38 – 54.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.1.4.
Дата поступления 03.02.2025, дата принятия к печати 18.03.2025,
дата онлайн-размещения 25.03.2025.

Аннотация

В статье обозначена возросшая конкуренция государств не только за лидерство в развитии технологии искусственного интеллекта, но и в сфере нормативного правового регулирования. Отмечается, что Китайская Народная Республика, уступающая по темпам развития отрасли лишь США, в то же время является лидером по стандартизации искусственного интеллекта не только внутри страны, но и в международных организациях, а также демонстрирует оперативность правового реагирования в ответ на проблемы, возникающие в связи с развитием рекомендательных алгоритмов, технологий глубокого синтеза (дипфейков) и генеративного искусственного интеллекта. Автор описывает этапы регулирования технологии, текущее состояние нормативной правовой базы, а также впервые развернуто анализирует положения двух законопроектов, последовательно представленных в КНР в 2023 и 2024 годах, озаглавленных соответственно «Закон об искусственном интеллекте (Типовой закон) 1.0 (проект, рекомендованный экспертами)» и «Закон Китайской Народной Республики об искусственном интеллекте (проект, предложенный учеными)». Тексты данных проектов являются образцами комплексного регулирования сферы искусственного интеллекта и в качестве таковых представляют ценность для законотворческой деятельности и научных исследований в нашей стране. В первой части статьи представлен сравнительный анализ данных проектов по разделам, посвященным общим положениям, целям и принципам регулирования, поддержке, развитию и продвижению ИИ, вопросам управления и контрольно-надзорной деятельности, обеспечения безопасности систем ИИ, сформулированы промежуточные выводы.

Ключевые слова

Искусственный интеллект; правовое регулирование искусственного интеллекта в КНР; китайские законопроекты об искусственном интеллекте; комплексное регулирование искусственного интеллекта; сравнительно-правовое исследование.

Для цитирования

Шейкин А. Г. Правовое регулирование искусственного интеллекта в Китайской Народной Республике: состояние, перспективы, сравнительный анализ законопроектных предложений (часть 1) // Пролог: журнал о праве. – 2025. – № 1. – С. 38 – 54. – DOI: 10.21639/2313-6715.2025.1.4.

Финансирование

About article in English

UDC
004.8:346.544.2(510)
Publication data

Prologue: Law Journal, 2025, no. 1, pp. 38 – 54.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.1.4.
Received 03.02.2025, accepted 18.03.2025, available online 25.03.2025.

Abstract

The paper highlights the increased competition of states not only for leadership in the development of artificial intelligence technology, but also in the field of regulatory regulation. It is noted that the People's Republic of China, which is second only to the United States in terms of industry development, is at the same time a leader in the standardization of artificial intelligence not only domestically but also in international organizations, and also demonstrates the efficiency of legal response to problems arising from the development of recommendation algorithms and deep synthesis technologies (deepfakes) and generative artificial intelligence. The author describes the stages of technology regulation, the current state of the regulatory legal framework, and also analyzes in detail for the first time the provisions of two draft laws successively submitted to the PRC in 2023 and 2024, entitled, respectively, "Law on Artificial Intelligence (Model Law). 1.0 (draft recommended by experts)" and "Law of the People's Republic of China on Artificial Intelligence (draft proposed by scientists)". The texts of these projects are examples of comprehensive regulation of the field of artificial intelligence and, as such, are valuable for legislative activity and scientific research in our country. The first part of the paper presents a comparative analysis of these projects in sections devoted to the general provisions, goals and principles of regulation, support, development and promotion of artificial intelligence, management and control and supervisory activities, ensuring the security of AI systems, and interim conclusions.

Keywords

Artificial intelligence; legal regulation of artificial intelligence in PRC; сhinese draft laws on artificial intelligence; comprehensive regulation of artificial intelligence; comparative legal research.

For citation

Sheikin A. G. Legal Regulation of Artificial Intelligence in the People's Republic of China: Status, Prospects, Comparative Analysis of Legislative Proposals (Part 1). Prologue: Law Journal, 2025, no. 1, pp. 38 – 54. (In Russian). DOI: 10.21639/2313-6715.2025.1.4.

Acknowledgements

Введение

В настоящее время мы является свидетелями научно-технологической гонки за лидерство в сфере разработки и внедрения систем искусственного интеллекта[1]. «Однако есть и более тихая – и, возможно, более сложная – гонка, чем технологическая: гонка за влияние и контроль над регулированием ИИ. Соединённые Штаты, Европейский союз и Китай участвуют в глобальной игре, в которой стимулы, стандарты и жёсткое регулирование переплетаются с геополитическими, технологическими и ценностными интересами», – отмечают авторы доклада «Стандартизация, доверие и демократические принципы: глобальная гонка за регулированием искусственного интеллекта»[2].

И. А. Филипова обращает внимание на три важных показателя, по которым соперничают разные государства и их объединения в сфере искусственного интеллекта: уровень развития ИИ, темпы его развития и уровень развития правового регулирования ИИ. Обоснованно указывая, что Китай устойчиво занимает вторую позицию по уровню развития ИИ, уступая лишь США, по темпам развития Китай, напротив, опережает США за счет преимущества в объемах данных, доступных для алгоритмического анализа, она заключает: «По третьему показателю – уровню развития правового регулирования – Китай претендует на лидерство, конкурируя в этом с Европейским союзом…» [9, с. 48].

В этой публикации будут проанализированы как уже принятые нормативные правовые акты, регулирующие сферу искусственного интеллекта в КНР, так и два законопроекта, разработанные ведущими учеными-правоведами этой страны.

Литературный обзор

В российской научной печати к настоящему моменту имеется не так много работ, посвященных вопросам правового регулирования искусственного интеллекта в КНР. Среди них, безусловно, стоит отметить процитированную выше публикацию доцента Национального исследовательского Нижегородского государственного университета имени Н. И. Лобачевского, руководителя Центрально-Азиатского исследовательского центра регулирования искусственного интеллекта при Самаркандском государственном университете кандидата юридических наук И. А. Филиповой, а также работу заместителя начальника отдела международного сотрудничества Научно-исследовательского института радио, эксперта Национального комитета по исследованию  БРИКС кандидата технических наук Е. В. Тонких [8]. Всесторонний сравнительный анализ регуляторного опыта различных юрисдикций в сфере искусственного интеллекта (включая КНР) на протяжении трех лет проводит авторский коллектив под руководством управляющего директора Центра человекоцентричного AI Сбербанка, председателя Комиссии по этике в сфере ИИ, научного руководителя и куратора Дальневосточного центра ИИ Сбербанка и Дальневосточного федерального университета кандидата юридических наук А. В. Незнамова [1, с. 197–207; 2, с. 287–310; 3, с. 43–60].

Кроме того, на русском языке опубликована статья аспирантки Института сравнительного правоведения при Китайском политико-правовом университете, посвященная нормативному правовому регулированию генеративного ИИ в Великобритании, США, Европейском союзе и Китае Ли Яо [5].

Гораздо больше внимания процессу формирования нормативно-правовой базы для регулирования ИИ в Китае уделяется в зарубежной литературе. Отметим здесь как работы, непосредственно посвященные КНР: коллективную монографию «Китайский подход к искусственному интеллекту: анализ политики, этики и регулирования» [14], статьи «Правила искусственного интеллекта в Китае и как они создаются» [12], «Перспективы и опасности регулирования искусственного интеллекта в Китае» [16], так и публикации, где опыт КНР изучается в сравнении с другими странами: «Искусственный интеллект: от этики к праву» [11], «Регулирование искусственного интеллекта» [15], «От “гонки за ИИ”» к “гонке за регулированием ИИ”: регуляторная конкуренция за искусственный интеллект» [13].

Не умаляя ценность этих и других работ, посвященных анализу правотворческих процессов в сфере ИИ в Китайской Народной Республике, вместе с тем отметим, что ученые-правоведы этой страны разработали два серьезных законопроекта, представляющих собой прообразы примеров комплексного регулирования этой технологически сложной отрасли. Об этих законопроектах лишь упоминается в специальной литературе, но целостный анализ данных документов отсутствует, хотя представляет большую ценность для государственных деятелей, политиков и ученых, ищущих лучшие решения для внедрения. Задача данной статьи – помочь восполнить этот пробел.

Материалы и методы

Помимо уже действующих в КНР нормативных правовых актов, регулирующих отдельные сферы использования ИИ, в работе используются тексты двух законопроектов, последовательно представленных в КНР в 2023 и 2024 годах, озаглавленных соответственно «Закон об искусственном интеллекте (Типовой закон) 1.0 (проект, рекомендованный экспертами)» (далее – Проект-2023) и «Закон Китайской Народной Республики об искусственном интеллекте» (проект, предложенный учеными)» (далее – Проект-2024).

Проект-2023 разработан под руководством профессора Китайской академии общественных наук и заместителя директора исследовательского отдела сетевого и информационного права Института права Китайской Академии общественных наук Чжоу Хуэя. Этот выдающийся ученый-правовед также возглавлял экспертную группу крупного национального проекта «Исследования по созданию системы этического контроля и надзора за искусственным интеллектом в Китае»[3].

Проект-2024 был представлен на Форуме по управлению искусственным интеллектом в Пекине в марте 2024 г. группой ведущих китайских ученых, которую возглавил эксперт Консультативной группы ООН по искусственному интеллекту высокого уровня профессором Института данных и верховенства права Китайского университета политических наук и права Чжан Линхань[4].

Основу исследования составили общенаучные и частнонаучные методы научного познания, включая формально-логический метод, сравнительно-правовой анализ и синтез.

Развитие правового регулирования искусственного интеллекта в Китае:

от стратегического планирования до введенных в действие нормативных правовых актов

Е. В. Тонких выделяет следующие этапы развития регулирования ИИ в Китае: 1) стратегическое планирование и самодисциплина отрасли (2017–2020 гг.); 2) добровольные стандарты и начало нормативного надзора (2020–2022 гг.); 3) прямой надзор за технологиями ИИ (с 2022 г. по настоящее время) [8].

Действительно, в 2017 г. в Китае был принят «План развития технологий искусственного интеллекта нового поколения», содержащий промежуточные нормативы, ограниченные временным интервалом. Если к 2020 г. Планом ставилась задача вывести технологии и применение ИИ на передовой мировой уровень, а к 2025 году искусственный интеллект должен был стать основой достижения КНР уровня ведущего мирового производителя с использованием данной технологии в модернизации промышленности и экономических трансформациях, то к 2023 году КНР должна занять ведущие позиции на мировом рынке как крупнейший в мире инновационный центр ИИ. Создание политики и законодательства в этой сфере обозначено как одна из ключевых перемен, наряду с появлением ведущих центов разработки ИИ, повсеместным внедрением ИИ, созданием ИИ нового поколения и объемом рынка, превышающим 1 трлн юаней[5].

А. В. Незнамов выявил три динамических правовых регуляторных модели:

1) модель стратегического планирования, в которой документы стратегического планирования играют основную роль, а нормы непосредственного действия имеют минимальный вес;

2) модель создания норм непосредственного действия, регулирующих общественные отношения, связанные с использованием ИИ, в которой акты непосредственного действия играют более значимую роль по сравнению с первой моделью;

3) смешанная модель – своеобразная комбинация векторов стратегического планирования и непосредственного регулирования [см.: 6, c. 86–163].

Разрабатывая эти модели в рамках монографии 2019 г., А. В. Незнамов рассматривал Китай (наряду с Францией) в качестве иллюстрации модели стратегического планирования, что соответствовало реалиям того времени, однако сегодня можно с уверенность сказать, что КНР представляет собой смешанный тип регулирования.

Заложив стратегические основы развития технологии искусственного интеллекта, руководство КНР в лице Управления по стандартам перешло к решению вопросов стандартизации технологии. В 2018 г. была опубликована «Белая книга по стандартизации искусственного интеллекта», представляющая собой результат совместной работы более 30 академических и отраслевых организаций, работающих под надзором Китайского института стандартов электроники (подразделение Министерства промышленности и информационных технологий)[6].

Исследователи Стэндфордского университета, публикующиеся на специализированном ресурсе, посвященном анализу развития технологической политики Китая, приходят к выводу, что КНР подходит к стандартизации технологий ИИ как к инструменту национальной политики, так и с позиции влияния на международные отношения. Ориентируясь на внутреннюю политику, КНР использует стандарты как форму регулирования технологии в секторах, управляемых ИИ: это касается не только функциональной совместимости, но и вопросов этики и безопасности. Фокусируясь в продвижении стандартов за пределами страны, Китай, во-первых, преследует экономические интересы, повышая коммерческую конкурентоспособность китайских компаний, продукция которых активно выходит на мировые рынки; во-вторых, политические интересы, так как КНР, являясь мощной технологической державой, демонстрирует амбиции в определении «правил игры» по глобальным вопросам развития технологии ИИ. КНР активно включился в эту работу в рамках Подкомитета 42, «входящего в состав Объединенного технического комитета 1 (JTC 1), в свою очередь состоящего из двух широко уважаемых органов по стандартизации: Международной организации по стандартизации (ISO) и Международной электротехнической комиссии (IEC)». Если формирующиеся международные стандарты будут воспроизводить действующие китайские стандарты, то Китай одержит своего рода реванш за то, что не смог участвовать в установлении правил игры для глобального интернета[7].

Разработка стандартов технологии искусственного интеллекта стала стимулом для обсуждения этических основ ИИ, что, в свою очередь, является предпосылкой для формирования правового регулирования. Примечательно, что именно правительство КНР выступило инициатором создания этических принципов в сфере ИИ, поручив эту работу Китайской ассоциации искусственного интеллекта. В результате при участии крупных научных организаций (в том числе Китайской академии наук, Пекинской академии искусственного интеллекта и др.), а также национальных лидеров IT-индустрии были сформулированы «Пекинские принципы искусственного интеллекта» (май, 2019 г.)[8].

В развитие данных принципов в 2021 году Министерство науки и технологий КНР выпустило «Кодекс этики искусственного интеллекта нового поколения», который выдвигает шесть этических требований (повышение благосостояния людей, содействие честности и справедливости; защита частной жизни и безопасности; обеспечение контролируемости и надежности; усиление ответственности и повышение этической грамотности), а также предлагает 18 конкретных правил для управления ИИ, исследований и разработок, поставок и использования данной технологии. Целями данного Кодекса заявлены «интеграция этики и морали в весь жизненный цикл ИИ, содействие честности, справедливости, гармонии и безопасности, а также предотвращение таких проблем как предрассудки, дискриминация, неприкосновенность частной жизни и утечка информации»[9].

В следующем –2022 году – после того, как 20 сентября Координационный совет руководителей системы Организации Объединенных Наций одобрил Принципы этичного использования искусственного интеллекта[10], Китай выступил с политическим заявлением, выпустив 17 ноября того же года «Позиционный документ Китайской Народной Республики об укреплении этического управления искусственным интеллектом», в котором обозначил ряд призывов к национальным правительствам относительно регулирования, исследований и разработок, использования искусственного интеллекта и международного сотрудничества в этой сфере[11].

Сформулировав основные этические требования к ИИ и правила, которым рекомендуется следовать, чтобы добиться их выполнения, КНР логично перешла к следующему этапу – формированию правовых норм[12].

При этом, как верно пишет И. А. Филипова, в китайском подходе присутствует «вертикальность» регулирования: «отдельными законодательными актами решаются достаточно узкие проблемы, что свидетельствует не просто о секторальности регулирования, а о его фрагментарности» [9, с. 56].

Речь, прежде всего, идет о следующих документах[13]:

Административные положения о рекомендательных алгоритмах для информационных интернет-услуг, вступившие в силу 1 марта 2022 г.

Положение об управлении глубоким синтезом в информационной службе Интернет, вступившее в силу 10 января 2023 года;

Временное положение об управлении услугами генеративного искусственного интеллекта, вступившее в силу 15 августа 2023 года;

Пробные меры по этическому обзору научно-технической деятельности, опубликованные 14 апреля 2023 г. для консультаций с общественностью, которые завершились 3 мая 2023 г.

Изложенные в этих документах правила налагают обязательства на поставщиков услуг и службы технической поддержки пользователей, а также на некоторые другие организации, включая онлайн-платформы. Они преследуют цель устранения рисков, связанных с контентом, генерируемым искусственным интеллектом, и – в конечном итоге – защиту государственной и общественной безопасности.

Предметом регулирования являются технологии рекомендательных алгоритмов: генерация и синтез (в том числе продукты и услуги, связанные с AIGC[14]); технологии синтеза, использующие генеративные и синтетические алгоритмы; технологии генеративного ИИ[15] и научно-техническая деятельность, связанная с высокими этическими рисками в данной сфере.

Регуляции подлежит деятельность поставщиков соответствующих услуг, технической поддержки, пользователей, онлайн-платформ, а проект мер по этической экспертизе возлагает обязанность ее проведения на любые университеты, научно-исследовательские учреждения, медицинские учреждения и учреждения здравоохранения, а также предприятия, занимающиеся научно-технической деятельностью в сфере ИИ.

С точки зрения юрисдикции, исследуемые документы не ограничивают их применение физическими и юридическими лицами КНР и распространяются на иностранных физических или юридических лиц, если они участвуют в использовании технологий ИИ для предоставления услуг или научных исследованиях этих технологий в КНР.

Все рассматриваемые нормативные правовые акты содержат подробные протоколы и правила, которые можно условно разделить на несколько блоков.

Первый блок норм касается запуска новых продуктов, услуг или приложений на основе искусственного интеллекта (порядок регистрации соответствующих алгоритмов); оценки защищенности продуктов, услуг и приложений как генеративного, так и негенеративного ИИ; процедуры проверки платформами распространения приложений (в основном это касается генеративного ИИ); этической экспертизы НИОКР, связанных с ИИ.

Второй блок регуляторных норм определяет общие обязательства, регламентирующие ежедневную работу с продуктами, услугами или приложениями на основе ИИ: соблюдение законов, общественной морали и этики; запрет на манипуляции и недобросовестную конкуренцию с использованием рекомендательных алгоритмов; правила получения информации для обучающих данных и собственно их обучения, а также сотрудничества с регулирующими органами для разъяснения относительно используемых данных.

Третий блок норм регулирует отношения поставщиков услуг с пользователями: проверка личности; получение согласий на изменение биометрической информации; защита конфиденциальности вводимых пользователями данных; соблюдение прав пользователей (право не подвергаться нападкам на основании их личных характеристик; право на отключение услуг алгоритмических рекомендаций; право на удаление пользовательских тегов для сервисов рекомендаций алгоритмов; право не подвергаться «дифференцированному обращению»). Здесь же содержатся требования о том, что предоставляемые услуги не должны вызывать зависимость или чрезмерное потребление, а также обеспечивать защиту интересов несовершеннолетних, пожилых лиц и трудовых прав работников.

Четвертый блок обязывает поставщиков услуг модерировать контент, произведенный ИИ: предоставление информации в соответствии с «основными ценностными ориентациями», запрет на фейковые новости; создание «библиотеки признаков» для проверки на незаконность или вредоносность контента.

Пятый блок предусматривает обязательность маркировки контента, произведенного ИИ или при участии этой технологии, причем физические лица и организации не могут использовать технические средства для удаления, редактирования или сокрытия таких меток.

Шестой блок включает требования относительно периодического пересмотра алгоритмов как генеративного, так и негенеративного ИИ, этической экспертизы, предоставление возможностей для надзора и инспекции со стороны регулирующих органов, создания «механизма развеивания слухов» и обработки жалоб.

Ли Яо считает, что Китай ясно дал понять: в регулировании и управлении ИИ, «развитию и безопасности» и также «инновациям и управлению» должны придаваться одинаковые значения, вследствие чего она называет такой подход «нейтральным регулированием» [5, с. 255]. Вместе с тем представляется интересным вывод Анжелы Чжан (Angela H. Zhang), которая полагает, что вопреки распространенному мнению о том, что китайское регулирование ограничивает развитие ИИ, важно обратить внимание «на влиятельную силу законов, способствующих росту отрасли». «Китайское правительство применило двунаправленный подход к регулированию технологий искусственного интеллекта. С одной стороны, оно активно внедряет контроль над контентом, созданным искусственным интеллектом. С другой стороны, это сигнализирует рынку и регулирующим органам о мягком и осторожном подходе к регулированию искусственного интеллекта, одновременно координируя различные заинтересованные стороны для продвижения вперед в разработке искусственного интеллекта. На практике китайские регулирующие органы отдают приоритет развитию, а не строгому информационному контролю, занимая благоприятную для отрасли позицию, которая дает китайским фирмам конкурентное преимущество перед их американскими и европейскими коллегами. Однако такой разрешительный регулятивный подход сопряжен с рисками. Учитывая слабые рыночные условия Китая, слабые правовые институты и хронический дефицит информации в иерархической системе регулирования, слабая регулятивная среда способствует авариям и даже катастрофам с использованием искусственного интеллекта» [16, p. 157]. Риторика статьи А. Чжан ведет к тому, что ИИ в руках Китая может быть опасен не только внутри страны, но и за ее пределами (что отвечает общему духу проамериканских настроений), однако в самой КНР задолго до ее статьи обозначили возможные риски ИИ (прежде всего – для национальной безопасности) и сформулировали их в Белой книге по безопасности ИИ[16].

Безусловно, эти риски учитывают и политические круги Китайской Народной Республики, влияние которых, как представляется, запустило процесс работы над созданием соответствующих законопроектов, предметом которых является комплексное правовое регулирование искусственного интеллекта. По мнению И. А. Филиповой, это свидетельствует о том, что КНР движется в направлении так называемого «горизонтального регулирования», отражающего юридический подход к созданию правовых норм, когда положения одного закона распространяются на широкий круг вопросов в регулируемой им области [9, с. 56].

Изучение Проекта-2023 и Проекта-2024 позволяет получить представление о том, как влиятельные представители юридической науки КНР подходят к вопросам комплексного правового регулирования искусственного интеллекта.

 

 

Общие положения. Цели и принципы

регулирования искусственного интеллекта

Оба проекта логично открываются главой «Общие положения» и статьями о целях соответствующего регулирования. При этом цели Проекта-2024 сформулированы более широко: так, в нем сделан акцент на содействие технологическим инновациям в области искусственного интеллекта, говорится о защите национальной безопасности и общественных интересов (в Проекте-2023 – только о национальном суверенитете), а также об управлении продуктами ИИ и надзоре за ними (табл.).

Таблица

Сравнительный анализ проектируемых целей

Проект-2023 Проект-2024
содействие технологическим инновациям в области ИИ
регулирование исследований и разработок, предоставления и использования услуг ИИ

 

регулирование разработки, предоставления, использования, а также управление продуктами и услугами ИИ и надзор за ними
защита национального суверенитета, интересов развития и безопасности защита национальной безопасности и общественных интересов
содействие безопасному развитию ИИ и защите отдельных лиц и организаций в соответствии с Конституцией защита законных прав и интересов граждан и организаций в соответствии с Конституцией

В каждом законопроекте содержится практически идентичная статья о сфере применения проектируемого акта: он будет регулировать деятельность, связанную с разработкой, предоставлением, использованием ИИ и контролем над ним не только на территории КНР, но также и за пределами территории КНР, если это может затрагивать национальную безопасность КНР, общественные интересы или законные права и интересы отдельных лиц и организаций.

При этом имеются различия в терминологии. Проект-2023 определяет искусственный интеллект как «автоматизированную систему, которая работает с определенной степенью автономии, служит определенным целям и может влиять на физическую или виртуальную среду посредством прогнозирования, рекомендаций или принятия решений, включая данные, функции, модели, интерфейсы предоставления услуг и встроенное терминальное оборудование»[17] (ст. 71). Проект-2024 трактует искусственный интеллект менее детализировано: как «технологию, которая использует компьютеры для моделирования интеллектуального поведения человека в таких целях, как прогнозирование, консультирование, принятие решений или создание контента для специальных или общих целей» (ст. 94), в то же время, как мы видим, учитывая и возможности генеративного ИИ.

Существенное внимание проекты уделяют принципам ИИ. При этом Проект-2023 начинает с «принципов управления», подчеркивая ведущую роль государства: «Государство осуществляет общую координацию развития и безопасности [искусственного интеллекта], настаивает на содействии сочетанию инноваций и государственного управления в соответствии с законом и осуществляет всеобъемлющий и разумный надзор» (ст. 3). Разработчики Проекта-2024 не включили подобную норму, зато в ст. 13 содержится более гибкое положение о плюралистическом совместном управлении: «Государство создает и совершенствует систему управления искусственным интеллектом с участием правительства, социального партнерства и общественности, а также формирует модель управления искусственным интеллектом с множественным совместным управлением».

Роль государства раскрывается также в ст. 10 Проекта-2024 («Развитие инфраструктуры»): «Государство усиливает создание инфраструктуры искусственного интеллекта, рационально управляет распределением и поставкой вычислительных ресурсов по всей стране, а также способствует взаимосвязи и совместимости различных вычислительных ресурсов. Государство поддерживает создание открытых платформ общедоступных данных, необходимых для развития индустрии искусственного интеллекта, и поощряет регионы и ведомства активно исследовать возможности открытия и использования общедоступных данных». Это же положение о доступе к вычислительным мощностям и открытым данным было сформулировано в статье 10 Проекта-2023 как принцип содействия развитию и инновациям. Проект-2024 также содержит определение «принципы инновационного развития», но раскрывает их несколько иным образом: «Государство осуществляет инклюзивный и взвешенный надзор, поощряет и поддерживает инновационное развитие индустрии искусственного интеллекта, а также обеспечивает безопасность искусственного интеллекта» (статья 4). Таким образом, обеспечение безопасности ИИ со стороны государства авторы законопроекта рассматривают как корреспондирующую инновациям основополагающую идею.

Разделы «Общие положения» не обходят своим вниманием и вопросы интеллектуальной собственности относительно ИИ. Так, согласно ч. 2 ст. 10 Проекта-2023 государство поощряет исследования, разработки и применение ИИ, защищает права интеллектуальной собственности в области ИИ в соответствии с законом и инновационно исследует систему интеллектуальной собственности, адаптированную к развитию искусственного интеллекта. В статье 11 Проекта-2024 также поднимаются вопросы «защиты интеллектуальной собственности и стандартизации в сфере искусственного интеллекта» со стороны государства.

В статье 3 Проекта-2024 в сферу законодательства планируется ввести обязанность соблюдения этических принципов: «Развитие искусственного интеллекта должно соответствовать подходу, ориентированному на людей, уважать личную свободу и человеческое достоинство, повышать благосостояние людей, защищать общественные интересы, а также направлять и регулировать здоровое и упорядоченное развитие индустрии искусственного интеллекта. Разработчики, поставщики и пользователи искусственного интеллекта должны предотвращать и контролировать возможные этические риски искусственного интеллекта в соответствии с законодательством». В Проекте-2023 присутствует часть этого более широкого правила, сформулированная в виде принципа ориентирования на людей: «Деятельность, связанная с исследованиями и разработками, предоставлением и использованием искусственного интеллекта, должна быть ориентированной на людей, разумной и полезной, чтобы гарантировать, что люди всегда могут контролировать искусственный интеллект и всегда способствовать благополучию людей как конечной цели».

Отдельно сформулирован также принцип подотчетности в сфере безопасности, согласно которому разработчики, поставщики и пользователи ИИ должны принять необходимые технические средства и меры управления в соответствии с законом для обеспечения безопасности и надежности продуктов и услуг искусственного интеллекта, а также несут соответствующую юридическую ответственность за деятельность по разработке, предоставлению и использованию ИИ в соответствии с законом (ст. 7 Проекта-2024, ст. 5 и 7 Проекта-2023).

Статья 5 Проекта-2024 раскрывает принципы честности и справедливости: «Разработчики, поставщики и пользователи искусственного интеллекта должны обеспечивать честность и справедливость, а также законные права и интересы отдельных лиц и организаций и не должны применять необоснованное дифференцированное обращение». Этот же принцип заложен в Проекте-2023, но дополнен требованием о том, что «деятельность, связанная с исследованиями и разработками, предоставлением и использованием искусственного интеллекта, должна в полной мере учитывать потребности особых групп, таких как несовершеннолетние, пожилые люди и инвалиды» (статья 8 Проекта-2023).

Статья 6 Проекта-2024 вводит принцип прозрачности и объяснимости: «Разработчики, поставщики и пользователи искусственного интеллекта должны придерживаться принципа прозрачности и объяснимости, а также предоставлять и объяснять основную информацию, цели и основные механизмы работы продуктов и услуг искусственного интеллекта надлежащим образом в соответствии с законом» (в аналогичной статье Проекта-2023 этот принцип сконструирован схожим образом).

Принцип добросовестного использования обязывает разработчиков, поставщиков и пользователей ИИ соблюдать законы и правила, уважать общественную мораль и этику, соблюдать деловую и профессиональную этику, быть честными и заслуживающими доверия, выполнять свои обязательства по защите искусственного интеллекта, брать на себя социальную ответственность и не подвергать опасности национальную безопасность или общественные интересы, не допускать причинения вреда законным правам и интересам отдельных лиц и организаций. В соответствии с этим принципом разработчикам ИИ также рекомендуется встраивать ограничения на использование в дизайн продуктов, чтобы пользователи не могли использовать ИИ для участия в незаконной деятельности (ст. 8 Проекта-2024).

Статья 9 Проекта-2024 предполагает зафиксировать принцип «ручного вмешательства» (иными словами – контроля со стороны человека): «Разработчики и поставщики искусственного интеллекта должны оценивать и объяснять риски безопасности продуктов искусственного интеллекта, а также создавать механизмы ручного контроля и проверки в соответствии с законом».

Проект-2023 в качестве отдельного принципа вводит принцип экологичности: «Государство поощряет научные исследования и разработки, направленные на создание и использование искусственного интеллекта с применением энергосберегающих технологий, эффективным использованием ресурсов и защиту окружающей среды». Это же положение воспринято и Проектом-2024 (ст. 12 «Зеленое развитие»).

Поддержка, развитие и продвижение искусственного интеллекта

Вторые главы и Проекта-2023, и Проекта-2024 посвящены вопросам поддержки, развития и продвижения искусственного интеллекта. Предлагается закрепить следующие меры:

  1. Планирование развития искусственного интеллекта на государственном уровне и наличие соответствующих планов на всех уровнях исполнительной власти (ст. 15 Проекта-2023, ст. 14 Проекта-2024).
  2. Развертывание инфраструктуры вычислительных мощностей (ст. 16 Проекта-2023, ст. 15 Проекта-2024) и информационной сети (ст. 22 Проекта-2024). Причем, Проект-2024 включает также статью об использовании вычислительных ресурсов, в которой говорится не только о гарантированной поддержке государства, но также и о том, что в случае возникновения серьезных рисков в работе вычислительной инфраструктуры или потере операционной организацией своих эксплуатационных возможностей, «органы управления искусственным интеллектом на уровне провинций и выше имеют право назначить другие операционные организации для размещения или принятия на себя операций по обеспечению стабильной работы вычислительной мощности инфраструктуры» (ст. 16).
  3. Государственная поддержка разработки алгоритмов ИИ и базовых моделей, ориентированных на ИИ, а также ключевых технологических инноваций (ст. 17, 19 Проекта-2023, ст. 17, 18 Проекта 2024).
  4. Предоставление наборов и баз данных, поощрение совместной с государством разработки больших данных, профессиональных инструментов и стандартов для аннотирования данных[18] (ст. 18 Проекта-2023, ст. 20, 21 Проекта-2024).
  5. Подготовка кадров (ст. 20 Проекта-2023, ст. 30 Проекта-2024), интеграция промышленности, университетов и научно-исследовательских организаций (ст. 27 Проекта-2024), содействие цифровой грамотности населения (ст. 31 Проекта-2024).
  6. Создание экосистемы с открытым исходным кодом (ст. 19 Проекта-2024).
  7. Обязательство по формированию и совершенствованию правил защиты прав интеллектуальной собственности на продукты и услуги ИИ (ст. 23 Проекта-2024); определение критериев добросовестного использования данных, защищенных авторским правом и обеспечение справедливого использования таких данных (ст. 24 Проекта-2024).
  8. Государственная поддержка разработки и применения технологий безопасности в сфере ИИ (ст. 22 Проекта-2023, ст. 25 Проекта-2024), а также предоставление льготных условий страхования продуктов и услуг ИИ (ст. 26 Проекта-2024).
  9. Активная роль государства во внедрении и использовании ключевых технологий ИИ (ст. 19 Проекта-2023, ст. 28 Проекта-2024).
  10. Финансовая государственная поддержка фундаментальных и прикладных исследований в области ИИ, развитие инновационных предприятий в области технологий искусственного интеллекта и их достижений, предоставление налоговых льгот предприятиям, развивающим ключевые проекты в сфере ИИ (ст. 29 Проекта-2024), а также поощрение инвестиций в развитие ИИ (ст. 21 Проекта-2023).

Управление сферой искусственного интеллекта

Проект-2024 раскрывает содержание «координационного механизма» планирования, развития и управления искусственным интеллектом. Органы управления искусственным интеллектом координируются для того, чтобы: (1) исследовать, формулировать и направлять реализацию национальных стратегий и планов в области искусственного интеллекта; (2) создать и внедрить механизм надзора и управления рисками искусственного интеллекта; (3) сформулировать конкретные правила и стандарты этической экспертизы технологий искусственного интеллекта, аннотации данных, ключевые аннотации искусственных данных, ключевой безопасности искусственного интеллекта, классификации и лицензирования; (4) содействовать созданию системы социальных услуг для оценки искусственного интеллекта и оказывать поддержку соответствующим учреждениям в проведении обучения искусственному интеллекту и смежной работе; (5) исполнять другие обязанности, предусмотренные законами и административными правилами (ст. 58).

Определены компетентные органы управления искусственным интеллектом, называемые также «департаменты, отвечающие за искусственный интеллект»: это (1) департаменты Государственного совета в соответствующих отраслях и областях и (2) департаменты местных органов власти на уровне уезда и выше (ст. 59), очерчен круг их обязанностей в сфере надзора (ст. 60).

Этот подход Проекта-2024 является аналогией отраслевого подхода Великобритании, где регулирование ИИ исходит из необходимости разработки специфических правил и норм для различных отраслей, учитывая их особенности и потребности[19]. Так, финансовая служба осуществляет надзор в финансовом секторе, включая использование ИИ при оказании финансовых услуг. Офис комиссаров по информации занимается защитой данных и приватности, разрабатывает правила о прозрачности и ответственности при использовании ИИ. Офис по защите конкуренции и рыночной власти следит за соблюдением законодательства о конкуренции и уполномочен принимать меры против компании, использующих ИИ для монополизации рынка[20].

Подход Проекта-2023 принципиально иной. Статья 12 предполагает создание Национального управления по искусственному интеллекту как компетентного органа в области разработки и управления искусственным интеллектом. Другие соответствующие правительственные ведомства и соответствующие военные ведомства должны, в соответствии с разделением обязанностей, тесно сотрудничать, укреплять координацию и выполнять соответствующую работу в соответствии с законом.

Провинции, автономные районы, муниципалитеты, непосредственно подчиняющиеся Центральному правительству, города, в которых расположены народные правительства провинций и автономных районов, города, в которых расположены особые экономические зоны, а также более крупные муниципальные органы ИИ и другие соответствующие ведомства, утвержденные Государственным советом в соответствии с соответствующими национальными нормативными актами, несут ответственность за разработку и управление ИИ в пределах своей юрисдикции.

«Цель введения такого органа состоит в том, – считает М. Ши, – чтобы предотвратить потенциальный хаос в регулировании, который часто сравнивают с мифическим понятием «九龙治水» (цзюлунчжишуй, “девять драконов, управляющих водой”), когда несколько регулирующих органов претендуют на административную власть в одной и той же сфере»[21]. Это подтверждается комментарием разработчиков Проекта-2023, которые, объясняя свой выбор между отраслевым подходом в пользу централизованного органа, пояснили, что «вопрос управления искусственным интеллектом следует рассматривать в более широком аспекте, чтобы избежать дилеммы “контроля за водой в Коулуне”[22] в таких вопросах, как управление интернет-платформой».

В общем виде Проект-2024 предлагает зафиксировать иерархическую систему классификации ИИ, исходя из важности искусственного интеллекта в экономическом и социальном развитии и степени вреда, который он может нанести национальной безопасности, общественным интересам или законным правам и интересам отдельных лиц и организаций. Обозначено, что «государство осуществляет иерархический и классифицированный надзор и управление, а также регулирует ключевые функции искусственного интеллекта в соответствии с законом», а «компетентный отдел искусственного интеллекта должен создать механизм классификации, сформулировать и динамически корректировать стандарты и содержание классификации искусственного интеллекта на основе таких факторов, как технологическое развитие, области промышленности и сценарии применения, а также своевременно обновлять руководящие принципы классификации искусственного интеллекта» (ст. 61). Здесь необходимо подчеркнуть, что авторы законопроекта предлагают воспроизвести европейскую концепцию иерархии рисков систем ИИ, но ее содержательное наполнение делегировать органам исполнительной, а не законодательной власти. Однако при этом законопроект включает и чувствительные «специальные сценарии применения искусственного интеллекта» (гл. 6 Проекта-2024).

Контрольно-надзорная деятельность

Оба законопроекта предпринимают попытки сформулировать правила надзора за сферой искусственного интеллекта. Проект-2023 г. предлагает усеченное управление со стороны государства посредством формирования так называемого негативного списка (负面清单)[23] и обязательного лицензирования включенных в него продуктов и услуг ИИ (ст. 23, 24)[24]. Исходя из текста проектируемой нормы, как и в случае с предложением классификации Проектом-2024, негативный список строится исходя из важности ИИ для развития экономики и общества, степени ущерба, причиняемого национальной безопасности, общественным интересам, законным правам и интересам отдельных лиц и организаций, а также экономическому порядку в случае его атаки, реорганизации, уничтожения или незаконного приобретения либо использования. Проект-2023 определяет порядок получения лицензии на исследования и разработки в области ИИ, включенного в негативный список (ст. 25, 26), процедуру лицензирования (ст. 27), отзыва лицензии (ст. 28), повторного получения лицензии (ст. 29).

Разработчики Проекта-2023 также рассматривали возможность использования идей Регламента Европейского союза, в котором регулирование ИИ построено на классификации рисков, но ввиду того, что европейская модель представляется чрезмерно бюрократизированной, было принято решение «сосредоточиться на ключевых моментах». Преимущества такого подхода видятся авторам законопроекта в том, что в дополнение к введению механизма предварительного контроля за деятельностью, включенной в негативный список, он предоставляет большую автономию деятельности, не включенной в него, а также использует методы предварительной регистрации и последующего приведения в соответствие с правилами в целях снижения административной нагрузки. Эта система также подразумевает своевременное составление и обновление негативных списков и освобождения от ответственности. К примеру, компаниям, занимающимся исследованиями и разработками в области ИИ, будет предоставлено достаточное пространство для разработок и максимальные возможности для проб и ошибок. Проект-2023 также уполномочивает компетентные национальные органы по ИИ составлять перечень административных наказаний, которые не должны налагаться в соответствии с законом, и использовать встречи, собеседования и другие средства для устранения незначительных нарушений, которые не соответствуют стандартам, чтобы избежать чрезмерного влияния на технологические инновации.

Проект-2024 не оперирует категорией «негативный список», предлагая использовать более удачное, на наш взгляд, понятие «критически важный искусственный интеллект», а также закрепляя в отдельной главе 6 «специальные сценарии применения искусственного интеллекта»[25]. По ст. 51 Проекта-2024 критический искусственный интеллект включает в себя следующие типы: (1) искусственный интеллект, применяемый в критической информационной инфраструктуре; (2) искусственный интеллект, оказывающий существенное влияние на права и интересы личности, такие как личная жизнь, свобода, личное достоинство и т. д.; (3) базовая модель, достигающая определенного уровня с точки зрения вычислительной мощности, параметров, масштаба использования и т. д.; (4) другие обстоятельства, предусмотренные законами и административными правилами (таким образом, перечень является открытым).

В ст. 51 Проекта-2024 перечислены основные меры по защите безопасности критически важного искусственного интеллекта, обращенные к различным субъектам. Так, разработчики и поставщики критически важного ИИ должны установить меры защиты безопасности и планировать, создавать и использовать их одновременно с такого рода ИИ. Разработчики, поставщики и пользователи критически важного ИИ должны уделять приоритетное внимание приобретению безопасного и заслуживающего доверия оборудования и информационных услуг. Разработчики ИИ, которые проводят деятельность по аннотированию данных, должны сформулировать соответствующие законам и правилам нормы, в соответствии с правилами аннотаций данных. Регулирующими органами, в свою очередь создается механизм проверки аннотаций данных.

Предусматривается, что разработчики и поставщики критически важного ИИ должны будут создавать специальные агентства по управлению безопасностью, а также назначать лицо, ответственное за защиту, надзор и управление деятельностью по разработке и предоставлению ИИ (ст. 52).

Ключевые поставщики критически важного ИИ должны зарегистрироваться через национальную платформу надзора за искусственным интеллектом и завершить процедуру подачи заявок в течение 7 рабочих дней с даты получения уведомления о сертификации (ст. 53) и проводить оценку риска безопасности критически важного ИИ не реже одного раза в год или поручить стороннему агентству проводить своевременное устранение обнаруженных проблем безопасности и сообщать об этом в орган управления искусственным интеллектом (ст. 54).

Ключевые разработчики и поставщики ИИ должны создать механизм раскрытия рисков безопасности ИИ и усилить мониторинг рисков безопасности во всех аспектах ИИ. При обнаружении угроз безопасности они должны незамедлительно выполнять обязательства по уведомлению в соответствии с законом и раскрывать риски безопасности пользователям, а также – что немаловажно – предоставить соответствующие методы взаимодействия человека с компьютером, чтобы пользователи могли осуществлять эффективный ручной контроль во время использования продуктов и услуг (ст. 55).

У ключевых разработчиков и поставщиков должен быть план реагирования на чрезвычайные ситуации в области безопасности, и они обязаны немедленно инициировать его, обобщить информацию о рисках, принять соответствующие меры по исправлению положения и своевременно сообщить об этом органу управления ИИ. Им также предоставлено право принимать экстренные меры для прерывания операций, когда это необходимо, своевременно возобновляя их после устранения угроз безопасности (ст. 56).

Ст. 57 Проекта-2024 содержит обязательство разработчиков и поставщиков критически важного ИИ незамедлительно сообщать о любом слиянии, разделении или роспуске компетентному отделу искусственного интеллекта и распоряжаться критически важным ИИ в соответствии с требованиями этого отдела. Ст. 62 раскрывает задачи государства по специальному надзору и управлению разработкой, обеспечением и использованием критически важного искусственного интеллекта.

Предусмотрен механизм мониторинга рисков и чрезвычайных ситуаций: разработка системы раннего предупреждения и информационного оповещения; совершенствование механизма работы ИИ в чрезвычайных ситуациях, организация регулярных учений. План действий в чрезвычайных ситуациях должен классифицировать инциденты, связанные с безопасностью ИИ, в соответствии с такими факторами, как степень опасности и масштаб влияния, и предусматривать соответствующие меры реагирования на чрезвычайные ситуации (ст. 63).

Обеспечение безопасности систем искусственного интеллекта

В целом и Проект-2023, и Проект-2024 серьезным образом подходят к обязательствам по обеспечению безопасности. Разработчики и поставщики должны проводить оценку рисков безопасности прежде, чем предоставлять продукты и услуги (ст. 33 Проекта-2023, ст. 42 Проекта-2024). Проект-2024 дополнительно указывает на содержание данной оценки: (1) существует ли потенциальная предвзятость или дискриминация; (2) влияние на общественные интересы, личные права и интересы, а также риски безопасности; (3) проводится ли проверка на соответствие этическим нормам в соответствии с законом; (4) являются ли защитные меры законными, эффективными и соразмерными уровню риска.

Ст. 64 Проекта-2024 посвящена развитию оценки безопасности ИИ, сертификации и т. п. Заявлена поддержка соответствующих профессиональных учреждений для осуществления сервисной деятельности в соответствии с законом; содействие взаимному признанию результатов оценки безопасности ИИ; координация создания платформы оценки ИИ, а также создание единой, авторитетной и динамически обновляемой  структуры оценки ИИ, наборов данных и стандартов оценки в целях обеспечения функционирования такой открытой платформы для оценки предприятий.

Регламентируются процедурные вопросы контрольно-надзорной деятельности и сотрудничества с заинтересованными сторонами (ст. 65).

Статья 43 Проекта-2024 вводит правило сообщать компетентному органу управления искусственным интеллектом об инцидентах, связанных с безопасностью, ст. 44 регулирует вопросы взаимодействия разработчиков и поставщиков ИИ со страховщиками.

Предусмотрена работа в режиме «регуляторной песочницы», обозначенная как «пилотный проект по надзору и управлению» (ст. 66). Соответствующая норма устанавливает, что «для разработчиков и поставщиков искусственного интеллекта, вступающих в пилотный проект по надзору и управлению, органы управления искусственным интеллектом должны предоставить соответствующие удобства, стимулы или снижение ответственности с точки зрения условий доступа, оценки рисков, аудита, юридической ответственности и т. д. в соответствии с законом».

Ст. 56 Проекта-2023 говорит о «надзорной песочнице», подразумевая, что Национальное управление по искусственному интеллекту устанавливает надзор за искусственным интеллектом для реализации экспериментального режима и должно издать конкретные правила и руководящие принципы по следующим вопросам: (1) условия участия в нормативных испытаниях; (2) рабочий механизм контрольного испытания; (3) обязательства и механизмы смягчения ответственности разработчиков и поставщиков искусственного интеллекта.

Предлагается закрепить положение о поощрении создания отраслевых организаций ИИ и других форм многостороннего сотрудничества (ст. 67) и учреждении экспертного комитета по искусственному интеллекту «для предоставления консультаций, оценки, презентаций и прочей профессиональной поддержки в области безопасности работы с искусственным интеллектом» (ст. 68).

Промежуточные выводы

  1. Процесс развития искусственного интеллекта достиг такого уровня, когда параллельно конкурированию в сфере технологий возникает и конкуренция в сфере нормативного правового регулирования, и государства ищут баланс между необходимостью поддерживать отрасль, с одной стороны, и обеспечивать безопасность и соблюдение прав человека, с другой стороны. Поскольку недоверие к технологии со стороны общества может негативно сказываться и на технологическом секторе, вплоть до социальных протестов, в сбалансированном регулировании заинтересованы все участники общественных отношений.
  2. Китайская Народная Республика миновала этапы стратегического планирования и самодисциплины отрасли, добровольной стандартизации и первоначального периода внедрения нормативного надзора и в настоящий момент находится на пороге формирования комплексного законодательства, регулирующего ИИ.
  3. Китайская типовая регуляторная модель может быть охарактеризована как «смешанная», то есть комбинирующая векторы стратегического планирования и непосредственного регулирования.
  4. Разработка стандартов технологии искусственного интеллекта изначально стала стимулом для обсуждения этических основ ИИ, что позволило КНР заложить фундамент для формирования правового регулирования. Стандарты, в свою очередь, должны базироваться на ценностях, отраженных в системе комплексного законодательного регулирования ИИ, примеры которого уже имеются в Европейском союзе (как принятый Закон) и предлагаются в Китае (как законопроекты).
  5. Введенные в действие нормы, направленные на регулирование рекомендательных алгоритмов, технологии глубокого синтеза и генеративного искусственного интеллекта являются примером оперативного реагирования в ответ на появление новых технологических решений, демонстрирующим готовность учитывать не только интересы отрасли, но и личности, общества и государства.
  6. В 2023 и 2024 г. в КНР были последовательно представлены два законопроекта, являющиеся примерами комплексного регулирования сферы искусственного интеллекта и в качестве таковых представляющие ценность для законотворческой деятельности и научных исследований в нашей стране. Группы ученых, работавших над проектами, включают разный состав участников, вследствие чего нельзя утверждать, что Проект-2024 – это обновленный Проект-2023. Вместе с тем, нельзя не отметить, что Проект-2024 логично учитывает и развивает многие положения Проекта-2023 и является более проработанным документом.
  7. Проекты по-разному расставляют акценты относительно роли государства в управлении искусственным интеллектом: Проект-2024 предлагает более гибкую совместную плюралистическую модель управления, тогда как Проект-2023 сосредоточен на приоритетном участии государства в управлении и надзоре.
  8. Предполагается перевод принципов деятельности, связанной с ИИ, из сферы этики в сферу права.
  9. По-разному проектируется управление сферой искусственного интеллекта: создание Национального управления по искусственному интеллекту по Проекту-2023 (идея соответствует реально сложившейся в Китае с 2017 г. политике) либо формирование департаментов, отвечающих за ИИ в своей отрасли по Проекту-2024 (по аналогии с подходом Великобритании, приоритетным в этой стране до февраля 2024 г.).
  10. Отталкиваясь от ключевой составляющей Закона ЕС об ИИ – классификации рисков, разработчики законопроектов также сосредоточены на необходимости формирования классификаций и перечней: («негативный список», «критически важный ИИ»). Однако проектируемые нормы относительно того, какие органы власти будут выпускать эти списки либо сформулированы неопределенно (Проект-2023), либо передают эту функцию отраслевым департаментам соответствующих ведомств (Проект-2024), что представляется спорным, но в некоторой степени компенсируется нормами относительно «специальных сценариев применения искусственного интеллекта».
  11. Заслуживают внимания проектируемые нормы проектов, направленные на обеспечение безопасности ИИ, сконструированные таким образом, чтобы максимально учесть интересы всех участников процесса: пользователей, разработчиков и поставщиков систем ИИ.

Сноски

Нажмите на активную сноску снова, чтобы вернуться к чтению текста.

[1] Далее также – ИИ.

[2] Bello y Villarino, José-Miguel et al. Standardisation, trust and democratic principles: The global race to regulate artificial intelligence : Report / United States Studies Centre at the University of Sydney, July 2023. URL: https://www.ussc.edu.au/standardisation-trust-and-democratic-principles-the-global-race-to-regulate-artificial-intelligence.

[3] URL: https://mp.weixin.qq.com/s/XbFNnBQzoouz_q__D9Aj2g.

[4] URL: http://www.fxcxw.org.cn/dyna/content.php?id=26910. Составители «Глобального атласа регулирования искусственного интеллекта. Вектор БРИКС» пишут, что в 2023 году инициативная группа ученых из Китайской академии социальных наук выпустила первый проект потенциального закона об ИИ для Китая, а «…в марте 2024 г. был обнародован обновленный проект предложенного учеными закона об ИИ» (курсив наш – А. Ш.) [3, с. 47], однако, исходя из проведенного анализа состава разработчиков и содержания документов, уточним: Проект-2024 был представлен впервые, и речь идет о разных законопроектах, хотя, безусловно, авторы более позднего законопроекта не могли не учитывать вариант предшественников.

[5] URL: https://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.

[6] URL: https://www.jiqizhixin.com/articles/ai-report-2018. Также отметим, что с целью упорядочивания развития отрасли ИИ в 2024 году в Китае анонсировали план по разработке 50 стандартов в сфере ИИ к 2026 году [3, с. 57].

[7] См.: Ding J., Sacks S., Triolo P. Chinese Interests Take a Big Seat at the AI Governance Table / DigiChina Project. June 20, 2018. URL: https://digichina.stanford.edu/work/chinese-interests-take-a-big-seat-at-the-ai-governance-table/.

[8] URL: https://ai-ethics-and-governance.institute/beijing-artificial-intelligence-principles/.

[9] URL: 《新一代人工智能伦理规范》发布 -中华人民共和国科学技术部.

[10] URL: Principles-Ethical-Use-AI-UN-System.pdf.

[11] URL: https://www.fmprc.gov.cn/eng/zy/wjzc/202405/t20240531_11367525.html.

[12] Безусловно, следует учитывать, что как разновидность цифровой технологии ИИ уже частично регулируется нормативными правовыми актами: Законом КНР о безопасности данных от 10 июня 2021 г., Законом КНР о защите личной информации от 20 августа 2021 г., Регламентом о защите безопасности критической информационной инфраструктуры от 17 августа 2021 г.

[13] См.: China’s New AI Regulations, Latham&Watkins, 2023. URL: https://ai.gov.ru/knowledgebase/normativnoe-regulirovanieii/2023_novye_pravila_v_oblasti_iskusstvennogo_intellekta_v_kitae_china_s_new_ai_regulations_latham_watkins_/.

[14] AIGC (AI-Generated Content) – это технология генерации контента с помощью моделей искусственного интеллекта. Сгенерированный AIGC контент может включать в себя изображения (фотографии, оригинальные произведения искусства), аудио (голос, музыка), текст (программный код, копирайтинг, литературные произведения), видео, 3D-модели (персонажи, здания) и многое другое. URL: https://paperswithcode.com/paper/a-comprehensive-survey-of-ai-generated.

[15] Подробнее см.: [5].

[16] URL: https://teleco.com.br/huawei/releases/AI_Security_White_Paper.pdf.

[17] Терминальное оборудование для передачи данных – конечный прибор, который преобразует информацию пользователя в сигналы для передачи или преобразует полученные сигналы в информацию пользователя.

[18] Аннотирование данных – это процесс присвоения данным соответствующих тегов, чтобы компьютерам было проще их понимать и интерпретировать (данные могут быть в виде изображений, текста, аудио- или видеозаписей, и аннотаторам данных необходимо как можно точнее присваивать им теги). Аннотирование данных может выполняться вручную человеком или автоматически с использованием алгоритмов и инструментов машинного обучения. ГОСТ Р 71476-2024 Искусственный интеллект. Концепции и терминология искусственного интеллекта, введенный в действие 1 января 2025 г. определяет «аннотирование данных; разметку данных (data annotation)» как «процесс присоединения к данным описательной информации без внесения каких-либо изменений в сами данные». URL: https://normadocs.ru/gost_r_71476-2024.

[19] URL: A pro-innovation approach to AI regulation — GOV.UK.

[20] См.: URL: https://incfine.com/podhod-soedinennogo-korolevstva-k-regulirovaniyu-ii/. Необходимо учесть, что это положение имело место в период разработки Проекта-2024, однако уже в феврале 2024 г. в составе Департамента науки, инноваций и технологий Правительства Соединенного Королевства было создано Управление по искусственному интеллекту. URL: Office for Artificial Intelligence — GOV.UK.

[21] Forum: Analyzing an Expert Proposal for China’s Artificial Intelligence Law. URL: https://digichina.stanford.edu/work/forum-analyzing-an-expert-proposal-for-chinas-artificial-intelligence-law/. По сути в КНР уже давно реализован именно этот подход: в сентябре 2017 г. Государственный совет формализовал роли и обязанности по развитию ИИ, создав Управление по реализации плана развития ИИ нового поколения. Это подразделение подчиняется Министерству науки и технологий и координирует 15 других ведомств. В его обязанности входит межведомственная координация реализации Плана развития ИИ, а также взаимодействие с крупными игроками частного сектора. См.: [1, с. 45]. В Российской Федерации аналогичные задачи возложены на Национальный центр развития искусственного интеллекта при Правительстве РФ. URL: https://aicentre.hse.ru/.

[22] Город-крепость Коулон – долгое время неуправляемый анклав в Британском Гонконге, где на 2,5 гектарах к 1980 г. проживало 35 000 человек. Говоря о дилемме «контроля за водой в Коулоне», разработчики, очевидно, подразумевают ситуацию, когда жители города в отсутствие централизованного водоснабжения вырыли десятки колодцев, вода из которых с помощью насосов подавалась на крыши зданий и оттуда – потребителям. Город оставался территорией империи Цин внутри Гонконга, отошедшего Великобритании в 1842 году, следовательно, осуществление контроля за оказанием коммунальных услуг было затруднительным.

[23] Это выражение также может иметь смысл «черный список», что отражает неудачный выбор формулировки, так как не в полной мере соответствует подразумеваемому содержанию. Скорее, речь идет об аналоге систем ИИ высокого и ограниченного риска в понимании Закона Европейского союза об искусственном интеллекте. Название «негативный список» может вызывать некорректные ассоциации с системами ИИ неприемлемого риска, разработка и использование которых в ЕС запрещены. URL: https://artificialintelligenceact.eu/the-act/. Подробнее см. [10].

[24] В статье 23 Проекта-2023 говорится «государство создает…», но не уточняется, возлагается эта задача на правительство либо на законодательный орган власти, что потенциально создает ситуацию правовой неопределенности. В этой части проект не доработан. Проект-2024 также содержит формулировку «Государство установило иерархическую систему классификации ИИ», но конкретизирует, что за классификацию ИИ отвечает «компетентный орган управления искусственным интеллектом», то есть эта задача возлагается на департаменты, курирующие ИИ в своих отраслях (в отличие от похода Евросоюза, где классификация утверждена Законом об ИИ).

[25] Эти сценарии будут подробно рассмотрены в части 2 данного исследования наряду с проектируемыми нормами о защите прав и интересов пользователей ИИ, юридической ответственности и международном сотрудничестве.

Список источников

  1. Глобальный атлас регулирования искусственного интеллекта: Восточный вектор / А. Р. Безотосова, Д. В. Валитова, Е. Е. Власов [и др.]; под ред. А. В. Незнамова. – Москва : Альпина ПРО, 2022. – 288 с.
  2. Глобальный атлас регулирования искусственного интеллекта / ред.: А. В. Незнамов (гл. ред.), Э. Г.Чаче, Р. И. Дремлюга. – Москва, 2023. – 452 с.
  3. Глобальный атлас регулирования искусственного интеллекта. Вектор БРИКС / ред.: А. В. Незнамов (гл. ред.), Э. Г.Чаче, Д. Ю. Чурилова. – 3-е изд., перераб. и доп. – Москва : Профсувенир, 2024. – 377 с.
  4. Зильберман Н. Н., Стефанцова М. А. Социальный робот: подходы к определению понятия // Современные исследования социальных проблем (электронный научный журнал). – 2016. – № 11-1. – С. 297–312. – DOI: 10.12731/2218-7405-2016-11-297-312.
  5. Ли Яо. Особенности нормативно-правового регулирования генеративного искусственного интеллекта в Великобритании, США, Евросоюзе и Китае // Право. Журнал Высшей школы экономики. – 2023. – Т. 16, № 3. – С. 245–267. – DOI:10.17323/2072-8166.2023.3.245.267.
  6. Модели правового регулирования создания, использования и распространения роботов и систем с искусственным интеллектом / Г. Г. Камалова, М. В. Мосин, В. Б. Наумов [и др.]. – Санкт-Петербург : Институт государства и права РАН, 2019. – 252 с.
  7. Побережная О. Е., Притульчик Е. И. Социально-правовая защита личного пространства граждан и системы социального рейтинга // Конституционно-правовые основы развития Республики Беларусь как социального государства в современных условиях : материалы междунар. науч.-практ. конф. (Минск, 3–4 окт. 2019 г.). – Минск: Белорусский государственный университет, 2019. – С. 246–251.
  8. Тонких Е. Опыт Китая в регулировании ИИ: между Сциллой и Харибдой // РСМД (Российский Совет по международным делам) : сайт. – URL: https://russiancouncil.ru/analytics-and-comments/analytics/opyt-kitaya-v-regulirovanii-ii-mezhdu-stsilloy-i-kharibdoy/.
  9. Филипова И. А. Правовое регулирование искусственного интеллекта: опыт Китая // Journal of Digital Technologies and Law. – 2024. – Т. 2, № 1. – С. 46–73. – DOI: 10.21202/jdtl.2024.4.
  10. Шейкин А. Г. Запрещенные действия в области искусственного интеллекта в законодательстве Европейского союза // Правопорядок: история, теория, практика. – 2024. – № 3 (42). – С. 107–112. – DOI: 10.47475/2311-696X-2024-42-3-107-112.
  11. Carrillo M. R. Artificial intelligence: From ethics to law // Telecommunications Policy. – 2020. – Vol. 44, iss. 6. – URL: DOI: 1016/j.telpol.2020.101937.
  12. Sheehan M. China’s AI Regulations and How They Get Made // Horizons: Journal of International Relations and Sustainable Development. – 2023. – № 24. – P. 108–25. – URL: https://www.jstor.org/stable/48761167.
  13. Smuha N. A. From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence // Law, Innovation and Technology. – 2021. – Vol. 13, iss. 1. – P. 57–84. – DOI: 10.1080/17579961.2021.1898300.
  14. The Chinese Approach to Artificial Intelligence: An Analysis of Policy, Ethics, and Regulation / H. Roberts, J. Cowls, J. Morley [at al.] // Ethics, Governance, and Policies in Artificial Intelligence / L. Floridi (ed.). – Cham : Springer, 2021. – P. 47–79. – (Philosophical Studies Series, vol. 144). – DOI: 1007/978-3-030-81907-1_5.
  15. Wischmeyer T., Rademacher T. (eds). Regulating Artificial Intelligence. – Cham : Springer, 2020. – P. 307–321.
  16. Zhang A. H. The Promise and Perils of China’s Regulation of Artificial Intelligence // Columbia Journal of Transnational Law. – 2025. – Vol. 63, no. 1. – P. 1–157. – DOI:2139/ssrn.4708676.

References

  1. Bezotosova A. R., Valitova D. V., Vlasov E. E. et al.; Neznamov A. V. (ed.) Globalnyi atlas regulirovaniya iskusstvennogo intellekta: Vostochnyi vektor [Global Atlas of Artificial Intelligence Regulation: Oriental Vector]. Moscow, Alpina PRO Publ., 2022. 288 p.
  2. Neznamov A. V., Chache Eh. G., Dremlyuga R. I. Globalnyi atlas regulirovaniya iskusstvennogo intellekta [Global Atlas of Artificial Intelligence Regulation]. Moscow, 2023. 452p.
  3. Neznamov A. V., Chache Eh. G., Churilova D. Yu. (eds). Globalnyi atlas regulirovaniya iskusstvennogo intellekta. Vektor BRIKS [Global Atlas of Artificial Intelligence Regulation. The BRICS Vector]. 3rd ed. Moscow, Profsuvenir Publ., 2024. 377 p.
  4. Zilberman N. N., Stefantsova M. A. Social Robot: Defining the Concept. Sovremennye issledovaniya sotsialnykh problem = Modern Research of Social Problems, 2016, no. 11(67), pp. 297–312. (In Russian). DOI:12731/2218-7405-2016-11-297-312.
  5. Li Yao. Specifics of Regulatory and Legal Regulation of Generative Artificial Intelligence in the UK, USA, EU and China. Zhurnal Vysshei shkoly ehkonomiki= Law. Journal of the Higher School of Economics, 2023, vol. 16, no. 3, pp. 245–267. (In Russian). DOI:10.17323/2072-8166. 2023.3.245.267.
  6. Kamalova G. G., Mosin M. V., Naumov V. B. (eds). Modeli pravovogo regulirovaniya sozdaniya, ispolzovaniya i rasprostraneniya robotov i sistem s iskusstvennym intellektom [Models of legal regulation of creation, use and distribution of robots and systems with artificial intelligence]. Saint Petersburg, Institute of State and Law, of Russian Academy of Sciences Publ., 2019. 252 p.
  7. Poberezhnaya O. E., Pritulchik E. Social and Legal Protection of the Personal Space of Citizens and the Social Rating System. Konstitutsionno-pravovye osnovy razvitiya Respubliki Belarus kak sotsialnogo gosudarstva v sovremennykh usloviyakh. Materialy mezhdunarodnoi nauchno-prakticheskoi konferentsii, Minsk, 3–4 oktyabrya 2019 g. [The Constitutional and Legal Foundations of the Development of the Republic of Belarus as a Social State in Modern Conditions. Materials of International Research Conference, Minsk, 2019, October, 3–4]. Minsk, Belarusian State University Publ., 2019, pp. 246–251. (In Russian).
  8. Tonkikh E. China’s Experience in Regulation: Between Scylla and Charybdis. RSMD [(The Russian Council for International Affairs). URL: https://russiancouncil.ru/analytics-and-comments/analytics/opyt-kitaya-v-regulirovanii-ii-mezhdu-stsilloy-i-kharibdoy/ (In Russian).
  9. Filipova I. A. Legal Regulation of Artificial Intelligence: Experience of China. Journal of Digital Technologies and Law, vol. 2, iss. 1, pp. 46–73. (In Russian). DOI:10.21202/jdtl.2024.4
  10. Sheikin A. G. Prohibited Artificial Intelligence Practices in the Legislation of the European Union. Pravoporyadok: istoriya, teoriya, praktika= Legal and Order: History, Theory, Practice, 2024, no. 3, pp. 107–112. (In Russian). DOI: 10.47475/2311-696X-2024-42-3-107-112.
  11. Carrillo M. R. Artificial intelligence: From ethics to law. Telecommunications Policy, 2020, vol. 44, iss. 6. DOI: 1016/j.telpol.2020.101937.
  12. Sheehan M. China’s AI Regulations and How They Get Made. Horizons: Journal of International Relations and Sustainable Development, 2023, no. 24, pp. 108–25. URL: https://www.jstor.org/stable/48761167.
  13. Smuha N. A. From a ‘race to AI’ to a ‘race to AI regulation’: regulatory competition for artificial intelligence. Law, Innovation and Technology, 2021, vol. 13, iss. 1. pp. 57–84. DOI: 1080/17579961.2021.1898300.
  14. Roberts H., Cowls J., Morley J. [at al.] The Chinese Approach to Artificial Intelligence: An Analysis of Policy, Ethics, and Regulation. In Floridi L. (ed.). Ethics, Governance, and Policies in Artificial Intelligence. Philosophical Studies Series (PSSP), vol. 144. Cham, Springer Publ., 2021, pp. 47–79. DOI: 1007/978-3-030-81907-1_5.
  15. Wischmeyer T., Rademacher T. (eds). Regulating Artificial Intelligence. Cham, Springer Publ., 2020, pp. 307–321.
  16. Zhang A. H. The Promise and Perils of China’s Regulation of Artificial Intelligence. Columbia Journal of Transnational Law, 2025, vol. 63, no. 1, pp. 1–157. DOI:2139/ssrn.4708676.