• +7 (3952) 79-88-99
  • prolaw38@mail.ru

ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КИТАЙСКОЙ НАРОДНОЙ РЕСПУБЛИКЕ: СОСТОЯНИЕ, ПЕРСПЕКТИВЫ, СРАВНИТЕЛЬНЫЙ АНАЛИЗ ЗАКОНОПРОЕКТНЫХ ПРЕДЛОЖЕНИЙ (ЧАСТЬ 2)

004.8:346.544.2(510)

Пролог: журнал о праве. – 2025. – № 2. – С. 43 – 56.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.2.4.43-56
Дата поступления 03.02.2025, дата принятия к печати 12.06.2025,
дата онлайн-размещения 19.06.2025.

Вторая часть статьи продолжает анализ положений двух законопроектов, последовательно представленных в КНР в 2023 и 2024 годах, озаглавленных соответственно «Закон об искусственном интеллекте (Типовой закон) 1.0 (проект, рекомендованный экспертами)» и «Закон Китайской Народной Республики об искусственном интеллекте (проект, предложенный учеными)». В первой части статьи была представлена сравнительная характеристика данных проектов по разделам, посвященным общим положениям, целям и принципам регулирования, поддержке, развитию и продвижению ИИ, вопросам управления и контрольно-надзорной деятельности, обеспечения безопасности систем ИИ, сформулированы промежуточные выводы. В данной статье автор раскрывает положения законопроектов, касающихся защиты прав и интересов пользователей, юридической ответственности, защиты интеллектуальной собственности, международного сотрудничества. Рассматриваются проектируемые нормы о «специальных сценариях» применения искусственного интеллекта: использовании искусственного интеллекта государственными органами; судебный искусственный интеллект; новости, создаваемые искусственным интеллектом; медицинский искусственный интеллект; социальные роботы; биометрия; автономное вождение; социальный кредит (рейтинг или скоринг); требования к общему искусственному интеллекту. Отмечено отсутствие в проекте сценария «искусственный интеллект в образовании». Исследуется контекст уже принятых нормативных правовых актов, что позволяет констатировать исключительно общий характер проектируемых норм относительно специальных сценариев, каждый из которых требует либо отраслевого закона, либо подзаконного нормативного правового акта, но не отменяет необходимости определения общих принципов регулирования этих сценариев в рамках комплексного закона. Автор приходит к выводу, что анализ законопроектов, разработанных в Китайской Народной Республике, наряду с принятыми в 2024 году Законом ЕС об ИИ, 28 мая 2025 года в Японии Законом о содействии исследованиям, разработке и использованию технологий искусственного интеллекта («Закон о содействии использованию ИИ»), а также принятом в первом чтении 14 мая 2025 г. проектом Закона Республики Казахстан «Об искусственном интеллекте» является критически важным для разработки комплексного нормативно-правового регулирования искусственного интеллекта в Российской Федерации.

Искусственный интеллект; правовое регулирование искусственного интеллекта в КНР; китайские законопроекты об искусственном интеллекте; комплексное регулирование искусственного интеллекта; специальные сценарии применения искусственного интеллекта; юридическая ответственность при использовании искусственного интеллекта.

Шейкин А. Г. Правовое регулирование искусственного интеллекта в Китайской Народной Республике: состояние, перспективы, сравнительный анализ законопроектных предложений (часть 2) // Пролог: журнал о праве. – 2025. – № 2. – С. 43 – 56. – DOI: 10.21639/2313-6715.2025.2.4.43-56.

УДК
004.8:346.544.2(510)
Информация о статье

Пролог: журнал о праве. – 2025. – № 2. – С. 43 – 56.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.2.4.43-56
Дата поступления 03.02.2025, дата принятия к печати 12.06.2025,
дата онлайн-размещения 19.06.2025.

Аннотация

Вторая часть статьи продолжает анализ положений двух законопроектов, последовательно представленных в КНР в 2023 и 2024 годах, озаглавленных соответственно «Закон об искусственном интеллекте (Типовой закон) 1.0 (проект, рекомендованный экспертами)» и «Закон Китайской Народной Республики об искусственном интеллекте (проект, предложенный учеными)». В первой части статьи была представлена сравнительная характеристика данных проектов по разделам, посвященным общим положениям, целям и принципам регулирования, поддержке, развитию и продвижению ИИ, вопросам управления и контрольно-надзорной деятельности, обеспечения безопасности систем ИИ, сформулированы промежуточные выводы. В данной статье автор раскрывает положения законопроектов, касающихся защиты прав и интересов пользователей, юридической ответственности, защиты интеллектуальной собственности, международного сотрудничества. Рассматриваются проектируемые нормы о «специальных сценариях» применения искусственного интеллекта: использовании искусственного интеллекта государственными органами; судебный искусственный интеллект; новости, создаваемые искусственным интеллектом; медицинский искусственный интеллект; социальные роботы; биометрия; автономное вождение; социальный кредит (рейтинг или скоринг); требования к общему искусственному интеллекту. Отмечено отсутствие в проекте сценария «искусственный интеллект в образовании». Исследуется контекст уже принятых нормативных правовых актов, что позволяет констатировать исключительно общий характер проектируемых норм относительно специальных сценариев, каждый из которых требует либо отраслевого закона, либо подзаконного нормативного правового акта, но не отменяет необходимости определения общих принципов регулирования этих сценариев в рамках комплексного закона. Автор приходит к выводу, что анализ законопроектов, разработанных в Китайской Народной Республике, наряду с принятыми в 2024 году Законом ЕС об ИИ, 28 мая 2025 года в Японии Законом о содействии исследованиям, разработке и использованию технологий искусственного интеллекта («Закон о содействии использованию ИИ»), а также принятом в первом чтении 14 мая 2025 г. проектом Закона Республики Казахстан «Об искусственном интеллекте» является критически важным для разработки комплексного нормативно-правового регулирования искусственного интеллекта в Российской Федерации.

Ключевые слова

Искусственный интеллект; правовое регулирование искусственного интеллекта в КНР; китайские законопроекты об искусственном интеллекте; комплексное регулирование искусственного интеллекта; специальные сценарии применения искусственного интеллекта; юридическая ответственность при использовании искусственного интеллекта.

Для цитирования

Шейкин А. Г. Правовое регулирование искусственного интеллекта в Китайской Народной Республике: состояние, перспективы, сравнительный анализ законопроектных предложений (часть 2) // Пролог: журнал о праве. – 2025. – № 2. – С. 43 – 56. – DOI: 10.21639/2313-6715.2025.2.4.43-56.

Финансирование

About article in English

UDC
004.8:346.544.2(510)
Publication data

Prologue: Law Journal, 2025, no. 2, pp. 43 – 56.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2025.2.4.43-56
Received 03.02.2025, accepted 12.06.2025, available online 25.03.2025.

Abstract

The second part of the article continues the analysis of the provisions of two draft laws successively submitted to the PRC in 2023 and 2024, entitled, respectively, "The Law on Artificial Intelligence (Model Law) 1.0 (draft recommended by experts)" and "The Law of the People's Republic of China on Artificial Intelligence (draft proposed by scientists)". In the first part of the article, a comparative description of these projects was presented in sections devoted to the general provisions, goals and principles of regulation, support, development and promotion of AI, management and control and supervisory activities, ensuring the security of AI systems, and intermediate conclusions were formulated. In this article, the author reveals the provisions of the draft laws concerning the protection of the rights and interests of users, legal liability, intellectual property protection, and international cooperation. The proposed norms on "special scenarios" for the use of artificial intelligence are considered: the use of artificial intelligence by government agencies; judicial artificial intelligence; news created by artificial intelligence; medical artificial intelligence; social robots; biometrics; autonomous driving; social credit (rating or scoring); requirements for general artificial intelligence. The absence of the "artificial intelligence in education" scenario in the draft was noted. The context of already adopted regulatory legal acts is being investigated, which allows us to state the exceptionally general nature of the projected norms regarding special scenarios, each of which requires either an industry law or a subordinate regulatory legal act, but does not negate the need to define general principles for regulating these scenarios within the framework of a comprehensive law. The author concludes that the analysis of draft laws developed in the People's Republic of China, along with the EU AI Law adopted in 2024, the Law on the Promotion of Research, Development and Use of Artificial Intelligence Technologies in Japan on May 28, 2025 (the "Law on the Promotion of the Use of AI"), as well as the Law adopted in the first reading on 14 The draft Law of the Republic of Kazakhstan "On Artificial Intelligence" dated May 2025 is critically important for the development of a comprehensive regulatory framework for artificial intelligence in the Russian Federation.

Keywords

Artificial intelligence; legal regulation of artificial intelligence in China; Chinese draft laws on artificial intelligence; comprehensive regulation of artificial intelligence; special scenarios for the use of artificial intelligence; legal liability in the use of artificial intelligence.

For citation

Sheikin A. G. Legal Regulation of Artificial Intelligence in the People's Republic of China: Status, Prospects, Comparative Analysis of Legislative Proposals (Part 2). Prologue: Law Journal, 2025, no. 2, pp. 43 – 56. (In Russian). DOI: 10.21639/2313-6715.2025.2.4.43-56.

Acknowledgements

Защита прав и интересов пользователей

Интересно, что Проект-2024 содержит отдельную главу, посвященную защите прав и интересов пользователей (в Проекте-2023 эта тема не отражена в рамках специального раздела, однако частично обозначается посредством характеристики обязанностей разработчиков и поставщиков). Глава 3 Проекта-2024 и ряд статей Проекта-2023 направлены на защиту следующих прав:

  • право на равенство (ст. 32 Проекта-2024, ст. 37 Проекта-2023);
  • право на получение информации (ст. 33 Проекта-2024, ст. 35 Проекта-2023);
  • право на конфиденциальность и личную информацию (ст. 34 Проекта-2024);
  • право на отказ от использования от ИИ, на получение объяснений от поставщика, а также право отклонять решения, принятые исключительно с помощью ИИ, и требовать принятия новых решений, в которых участвуют люди (ст. 35 Проекта-2024, ст. 36 Проекта-2023);
  • право интеллектуальной собственности пользователя на контент, созданный ИИ, на основе вклада пользователя (ст. 36 Проекта-2024);
  • право работников на защиту от злоупотреблений работодателя искусственным интеллектом (ст. 37 Проекта-2024);
  • права групп, уязвимых к цифровым технологиям: несовершеннолетних, пожилых людей, женщин, несовершеннолетних с ограниченными возможностями и других людей со слабыми возможностями цифрового доступа и навыками использования цифровых приложений (ст. 38 Проекта-2024, ст. 35 Проекта-2023);
  • право на получение помощи и обучения (ст. 39 Проекта-2024, ст. 35 Проекта-2023);
  • право на подачу жалобы и судебное разбирательство (ст. 40 Проекта-2024).

Несмотря на то, что Проект-2023 частично содержит нормы, направленные на обеспечение защиты прав пользователей, стоит признать, что Проект-2024 подходит к этому вопросу основательнее: во-первых, объединив эти положения в отдельную главу; во-вторых, конкретизировав и уточнив как перечень и содержание этих прав, так и меры по их соблюдению.

Специальные сценарии применения ИИ

В отдельной главе Проекта-2024 содержатся нормы относительно специальных сценариев применения ИИ. Поскольку данные сценарии отражают самые актуальные тренды в сфере ИИ, рассмотрим подробнее подходы авторов проекта к их предполагаемому регулированию.

  1. Использование искусственного интеллекта государственными органами (ст. 69).

Применение ИИ в государственном управлении связано с необходимостью систематизации документов, оптимизации поиска, мониторинга данных и автоматизации бюрократических процедур, например, регистрации заявлений граждан, проверкой налоговых деклараций, ответов на типовые вопросы с помощью чат-ботов службы поддержки и т. п. Однако перед ИИ ставятся и более «творческие» задачи, к примеру, связанные с планированием развития территорий, управлением транспортными потоками, предикативной аналитикой в сфере прогноза и предупреждения преступности, кибербезопасностью, улучшением экологической ситуации и проч.

Таким образом, использование искусственного интеллекта в государственном управлении в конечном итоге преследует цель улучшения качества жизни, однако должно базироваться на ряде принципов. Это предусмотрено в статье 69 Проекта-2024: когда государственные органы используют искусственный интеллект для осуществления административных действий, они должны соблюдать принципы законности, разумности, уместности и соразмерности. Более того, Проект-2024 не предполагает полного исключения человека: «Принятие решений с использованием искусственного интеллекта может использоваться только в качестве ориентира для административных действий».

  1. Судебный искусственный интеллект.

К развитию возможностей применения ИИ в судебной системе в Китае приступили с 2014 года: согласно отчету Верховного народного суда КНР с этого года китайские суды по всей стране опубликовали в онлайн-базе данных более 120 миллионов судебных решений, а более 11 миллионов судебных процессов были транслированы онлайн[1], одновременно используя этот массив данных для обучения искусственного интеллекта[2]. В марте 2021 г. в КНР принята «дорожная карта» по модернизации правовой системы КНР к 2025 году, включающая интеграцию искусственного интеллекта в судопроизводство в рамках системы «умного суда» для повышения доверия к судам и упрощения контроля над судьями [см.: 6, с. 121].

9 декабря 2022 г. были опубликованы «Пояснения Верховного народного суда КНР по регулированию и усилению судебного применения искусственного интеллекта», содержащие пять групп принципов использования ИИ в судопроизводстве: 1) безопасность и законность; 2) честность и справедливость; 3) принцип вспомогательной роли ИИ в судопроизводстве; 4) прозрачность и достоверность; 5) принцип общественного порядка и общественной морали. О. Б. Бальчиндоржиева, А. Н. Мяханова и Д. В. Сапкеев видят значение этих принципов в том, «чтобы интеграция ИИ и суда способствовала повышению эффективности правосудия, в то же время эти принципы выделяют определенные критические точки, на которые необходимо обратить самое пристальное внимание» [1, с. 72–73].

В настоящее время в судебной системе КНР представлены следующие направления применения ИИ:

  • подача иска и подготовка дела (оценка рисков, классификация материалов);
  • поддержка в ходе судебного процесса (автогенерация протоколов, интеллектуальная проверка грамматических и стилистических ошибок, автопубликация документов);
  • работа с процессуальными документами (автоматическая генерация проектов процессуальных решений на основе шаблонов и данных дела, интеллектуальная проверка грамматических и стилистических ошибок, автопубликация документов);
  • анализ доказательств (проверка на соответствие законности и достоверности, выявление противоречий, визуализация связей между доказательствами и фигурантами дела, анализ протоколов допросов);
  • помощь судье в принятии решений (интеллектуальный поиск и рекомендации по применению релевантных норм права, ссылки на законодательство, судебную практику и научную литературу);
  • исполнение судебных решений (выявление активов должников через анализ больших данных для предотвращения сокрытия имущества; автоматизированный обмен информацией между ведомствами, участвующими в исполнительном производстве; электронное вручение и подтверждение получения документов).
  • онлайн-правосудие (специализированные суды, полностью работающие в цифровом формате, онлайн-заседания и внедрение ИИ-систем в традиционных судах);
  • управление судебной системой (мониторинг работы судов, выявление тенденций и принятия управленческих решений, оценка загруженности и производительности судей, персонала и распределение нагрузки между ними)[3].

Подчеркнем, что в КНР нет фигуры пресловутого «цифрового судьи». Объективно, построенная на искусственном интеллекте система «умного суда» «действительно использует большие данные и машинное обучение, чтобы помогать живому судье быстро находить аналогичные дела прошлых лет, подсказывать возможные статьи закона, быстро генерировать тексты решений и сопутствующих судебных документов», но не выносит решение за судью. Вместе с тем «система построена таким образом, чтобы при разногласиях судьи и искусственного интеллекта, судья был обязан занести в систему объяснение своего решения. Сделано это не для замены живого судьи на электронного, а для снижения уровня коррупции и необоснованных решений»[4].

Проект-2024 в ст. 70 также предлагает отталкиваться от принципов: «Разработка, предоставление и использование судебного искусственного интеллекта должны соответствовать принципам безопасности и законности, справедливости и беспристрастности, содействия судебным разбирательствам, прозрачности и достоверности, а также общественного порядка и хороших обычаев». Замена живого судьи на электронного не предполагается: «Если искусственный интеллект используется для оказания помощи судебной работе, процесс принятия решений с помощью искусственного интеллекта может использоваться только в качестве справочной информации для судебной работы; пользователи имеют право в любое время отказаться от взаимодействия с продуктами и услугами искусственного интеллекта».

  1. Новости, создаваемые искусственным интеллектом.

Искусственный интеллект самым активным образом колонизирует медиасферу. Неслучайно VI Всемирный медиасаммит, состоявшийся в Китае 14–25 октября 2024 г. (г. Урумчи) был посвящен теме «Искусственный интеллект и трансформация СМИ». В представленном на саммите докладе «Ответственность и миссия новостных медиа в эпоху ИИ», подготовленном Институтом Синьхуа, указывается, что 66 % новостных изданий, опрошенных по всему миру, положительно оценивают влияние генеративного ИИ на отрасль; 51,2 % респондентов уже начали внедрять технологии искусственного интеллекта. Вместе с тем в докладе поднимается проблема достоверности предоставляемых новостей, а также выражается обеспокоенность по поводу того, что искусственный интеллект может использоваться для манипулирования общественным мнением и информационного противостояния, а инструменты и методы манипуляции постоянно совершенствуются, что делает информационную среду все более сложной и непредсказуемой. Подавляющее большинство (85,6 %) респондентов считают, что для правильного использования искусственного интеллекта в медиаотрасли необходимо реализовать дополнительные меры по его дальнейшему регулированию[5].

Ст. 71 Проекта-2024 предлагает делегировать ответственность за обеспечение достоверности контента пользователям: «Если искусственный интеллект используется для предоставления новостных информационных услуг в интернете, пользователи искусственного интеллекта должны разработать специальную систему просмотра выпусков новостей, чтобы гарантировать подлинность и точность новостной информации, а также повысить четкость идентификации контента, генерируемого искусственным интеллектом».

При этом полагаем, что законопроект все же имеет ввиду под пользователями (使用者) не конечных потребителей новостного контента, а именно представителей медиасферы, использующих генеративный ИИ для производства новостей.

  1. Медицинский искусственный интеллект.

Китайская Народная Республика продолжает оставаться безусловным лидером в сфере внедрения искусственного интеллекта в медицину, значительно опережающим остальные страны[6]. В проекте по развитию медицинского ИИ, входящего в национальную программу «Сделано в Китае к 2025 году», участвуют 130 частных компаний. Достижение технологического преимущества обеспечивается возможностью создать самую большую в мире медицинскую базу данных за счет внедрения обязательных медицинских осмотров и сдачи анализов без необходимости получения согласия пациентов, число которых вскоре превысит миллиард, на обработку полученных сведений о состоянии их здоровья[7]. Параллельно в Китае создается первый в мире больничный город Agent Hospital, полностью управляемый ИИ (цифровая модель, где роли врачей и пациентов выполняют виртуальные персонажи, созданные на основе нейросетей) – точность при постановке диагнозов приближается к 93 % и все это происходит в безопасной среде, где тестирование новейших технологий и подготовка специалистов осуществляются без риска для реальных людей [5]. В сотнях больниц уже используются ИИ-модели, включая DeepSeek «для помощи в принятии решений, анализа медицинских изображений и контроля качества записей»[8].

Проект-2024 предлагает осторожный подход к данному вопросу: «Лица, использующие искусственный интеллект для оказания медицинских услуг, должны иметь соответствующие лицензии и предусмотренную законодательством квалификацию. Искусственный интеллект для принятия решений может использоваться только в качестве ориентира для медицинской деятельности» (ст. 72).

  1. Социальные роботы.

Данный рынок также являются динамично развивающимся в Китае сектором, поддерживаемым Министерством промышленности и информатизации КНР при участии других государственных структур. Ускоренное испытание социальных роботов связано прежде всего с необходимостью заботы о пожилых людях: по данным Национального бюро статистики КНР, к концу прошлого года число граждан старше 60 лет превысило 300 млн человек – 22 % от общей численности населения. Из них более 200 млн – в возрасте 65 и более лет (свыше 15 %). По официальным прогнозам, к 2035 году число пожилых людей превысит 400 млн человек и составит более 30 % населения страны[9]. Однако социальные роботы также разрабатываются для людей с инвалидностью и особыми потребностями, для помощи в обучении детей и выполнении рутинных задач в качестве секретаря.

Статья 73 Проекта-2024 призвана урегулировать обязанности поставщиков и пользователей. Поставщики искусственного интеллекта, предоставляющие услуги социальных роботов, должны разумно контролировать количество и качество контента сетевой информации, распространяемой социальными роботами, а также проверять и удалять информационный контент, созданный социальными роботами.

Пользователям не разрешается использовать социальных роботов для манипулирования и управления общественным мнением о качестве продукции, репутации продавца и других оценочных материалах, которые связаны с законными правами и интересами потребителей. Если пользователи злоупотребляют социальными роботами, поставщики искусственного интеллекта должны принять ограничения полномочий; баны аккаунтов, блокировка информации в соответствии с законодательством и другие меры.

  1. Биометрия.

Биометрическое распознавание индивидов является одной из самых напряженных тем, связанных с искусственным интеллектом, поскольку затрагивает ряд чувствительных прав человека (право на неприкосновенность частной жизни, уважение человеческого достоинства, конфиденциальность).

В Китае Государственным информационным управлением Интернета на 23-м заседании Торговой палаты 30 сентября 2024 года были одобрены «Меры по обеспечению безопасности при применении технологии распознавания лиц», с согласия Министерства общественной безопасности КНР, вступающие в силу 1 июня 2025 года[10].

В документе подробнейшим образом описана процедура информирования людей перед применением технологии распознавания лиц; различные аспекты защиты полученной информации, согласия на обработку и его отзыва; запрет на установку оборудования для распознавания лиц в частных помещениях общественных мест, таких как гостевые номера отелей, общественные ванные комнаты, общественные раздевалки и общественные туалеты. В общественных местах соответствующее оборудование устанавливается для поддержания общественной безопасности, зона сбора информации о лицах должна быть разумно определена в соответствии с законом, и должен быть установлен «значительный знак напоминания».

При этом немаловажно, что положения этих Мер «не распространяются на тех, кто применяет технологию распознавания лиц для обработки информации о лицах с целью исследований и разработок технологии распознавания лиц и обучения алгоритмам на территории КНР».

Статья 74 Проекта-2024 в общем виде предлагает предусмотреть, что использование искусственного интеллекта для обработки биометрической информации должно иметь конкретную цель и достаточную необходимость, при этом должны быть приняты строгие меры защиты. Если существуют другие небиометрические технологические решения, которые могут достичь той же цели или удовлетворить эквивалентные бизнес-требования, небиометрическим технологическим решениям следует отдать приоритет.

Проектируются также повышенные меры защиты, если биометрическая информация, сгенерированная искусственным интеллектом, используется злонамеренно и имеет возможность идентифицировать конкретное физическое лицо. В этом случае поставщик искусственного интеллекта должен принять необходимые меры, такие как блокировка, отключение или удаление ссылки по запросу правообладателя.

  1. Автономное вождение.

Китайская Народная Республика также демонстрирует лидирующие позиции по производству беспилотных автомобилей. В сжатые сроки Китай прошел сложный путь от принятия 24 февраля 2020 г. «Стратегии инновационного развития интеллектуальных транспортных средств», в которой было заявлено, что «к 2025 году интеллектуальные транспортные средства с условно автономным вождением L3 достигнут крупномасштабного производства, а интеллектуальные транспортные средства с высоко автономным вождением L4 будут выведены на рынок и применены в конкретных условиях», через совместное развитие инфраструктуры умного города и интеллектуальных сетевых транспортных средств в ряде пилотных городов в 2021 г. до выпуска в октябре 2022 г. под руководством Китая первого международного стандарта в области сценариев испытаний систем автономного вождения[11] (ISO 34501:2022 Road vehicles – Test scenarios for automated driving systems – Vocabulary10). «Он является важным базовым стандартом испытаний систем автономного вождения, покрывает потребность в стандартизированном языке сценариев испытаний при проведении работ, связанных с оценкой тестов автономного вождения, и будет широко использоваться в исследованиях и разработках, испытаниях и управлении технологиями автономного вождения и продуктами для умных подключенных транспортных средств во всем мире», – пишет китайский ученый Цзя Шаосюе [7, с. 364].

Этот же автор в 2023 г. указывал, что Закон КНР «О безопасности дорожного движения», имеющий важное значение для правового регулирования автономного вождения, находился в стадии пересмотра, а действовавшие правовые системы управления дорожным движением относились к традиционным транспортным средствам и не могли быть в полной мере применены к беспилотным автомобилям [Там же, с. 365].

2 февраля 2025 г. Главное управление надзора за рынком совместно с Министерством промышленности и информационных технологий КНР выпустили Уведомление № 45 «О дальнейшем усилении управления доступом, отзывом и онлайн-обновлением программного обеспечения интеллектуальных подключенных транспортных средств»[12], в дополнение к которому с 16 апреля 2025 г. Министерством промышленности и информационных технологий изданы «Временные административные меры в отношении терминологии систем интеллектуального вождения»[13].

Основные изменения в регулировании: 1) испытания систем автономного вождения требуют официального одобрения государственных органов; 2) в рекламе запрещено использовать термины «автоматическое вождение», «автономное вождение», «интеллектуальное вождение»; «продвинутое интеллектуальное вождение» – вместо этого предписано указывать уровень автоматизации по классификации SAE (например, «вождение с ассистентом уровня L2»); 3) ограничение функциональности: запрещены функции, не требующие участия водителя, такие как автоматическая парковка без присутствия человека, дистанционный вызов автомобиля, управление через мобильное приложение, а системы мониторинга водителя теперь обязаны отключать функции автопилота, если руки не зафиксированы на руле более 60 секунд (датчики должны непрерывно фиксировать положение рук на руле) – в таких случаях активируются меры снижения риска: снижение скорости, включение аварийной сигнализации или остановка; 4) обновления программного обеспечения возможны не чаще четырех раз в год, а экстренные обновления должны предварительно пройти процедуру согласования с уполномоченными государственными органами, что должно сократить количество обновлений и усилить управление рисками, связанными с изменениями версий[14].

Таким образом китайское правительство отреагировало на аварию с гибелью трех пассажирок электромобиля Xiaomi SU7, которая произошла 29 марта 2025 г. Автомобиль двигался в режиме «Навигация по автопилоту» (NOA) со скоростью 116 км/ч, когда приблизился к зоне строительства с перекрытыми полосами. Несмотря на то, что система обнаруживала препятствия и выдавала предупреждения, водитель взял управление на себя, но в итоге на скорости около 97 км/ч врезался в бетонный барьер, после чего автомобиль загорелся[15]. Ужесточив требования к автономному вождению, с целью минимизировать риски аварий и ввести четкие стандарты для отрасли, власти КНР показали: несмотря на то, что эти меры могут замедлить внедрение инноваций, они направлены на создание устойчивой базы для будущего развития технологий, а безопасность и контроль остаются приоритетом перед стремлением к технологическому лидерству.

Перспективное регулирование включает разработку Закона «Об автономных транспортных средствах», который планируется представить в 2026 г.[16] и национальный обязательный стандарт GB 44496-2024 «Общие технические требования к обновлению программного обеспечения транспортных средств», который вступит в полную силу для всех моделей к январю 2028 года[17].

Что касается Проекта-2024, то ст. 75 предлагает введение общих норм, по сути, лишь контуром обозначая внимание к этому сценарию применения ИИ:

«Для проведения дорожных испытаний, демонстрационных применений, вывода на рынок и транспортных операций беспилотных транспортных средств необходимо получить соответствующие лицензии и доступ.

Разработчики и поставщики беспилотных транспортных средств должны обеспечивать безопасность транспортных средств и не должны неоправданно по-другому относиться к другим участникам дорожного движения, когда транспортное средство находится в опасности.

Пользователи беспилотных автомобилей должны освоить и стандартизировать использование функций беспилотного вождения в соответствии с правилами дорожного движения и инструкциями по эксплуатации транспортных средств».

  1. Социальный кредит.

На основании принятого Госсоветом 14 июня 2014 г. «Плана строительства системы социального кредитования»[18] с 2014 по 2020 г. на территории Китая в экспериментальном режиме вводилась система социального рейтинга. Сначала проект был запущен в г. Суйнин (провинция Цзянсу), а с 2020 г. проект начал действовать на территории всего Китая [2, с. 39].

В настоящее время Главное управление Национальной комиссии по развитию и реформам выпустило «План действий по созданию системы социального кредитования на 2024–2025 годы», главной целью которого является стандартизация социального кредитование, нивелирование всех региональных особенностей. На 2024–2025 годы поставлены следующие задачи: 1) повышение уровня нормативно-правовой базы; 2) координирование и содействие созданию инфраструктуры социального рейтингования; 3) совершенствование механизма обмена информацией о социальном рейтинге; 4) усиление эффективности надзора; 5) ускоренное внедрение системы социального кредитования в ключевых областях[19].

Отношение к системе китайского социального кредитования в мире нельзя назвать однозначным. В научных исследованиях некоторые авторы указывают на положительные составляющие этой системы [4], в то время как другие делают акцент на существенной разнице в менталитете европейцев и китайцев, вызывающей протест против встраивания человека в систему присвоения баллов [3]. В Законе ЕС об ИИ сформулирована позиция Евросоюза, четко демонстрирующая эти различия, так как в нем категорически обозначено место систем социального рейтинга в разряде «неприемлемого риска»: «Запрещается размещение на рынке, ввод в эксплуатацию или использование систем ИИ для оценки или классификации физических лиц или их групп в течение определенного периода времени на основе их социального поведения или известных, предполагаемых или прогнозируемых личностных характеристиках в целях формирования социального рейтинга, приводящего к одному или двум последствиям: (а) вредное или неблагоприятное обращение с определенными физическими лицами или целыми их группами в социальных контекстах, не связанных с контекстами, в которых данные были первоначально созданы или собраны; (b) вредное или неблагоприятное обращение с определенными физическими лицами или их группами, которое является неоправданным или несоразмерным их социальному поведению или его серьезности» (пп. «с» п. 1 ст. 5)[20].

Проект-2024, также, как и обозначенный выше двухлетний План, не предполагает отказа от системы социального рейтингования, однако в статье 76 вводит своего рода оговорку: «Использование искусственного интеллекта для оценки и рейтинга социальной кредитоспособности должно быть направлено на улучшение кредитного качества и эффективности, повышение уровня управления рисками и не должно ущемлять права отдельных лиц на равный доступ к государственным услугам и другие законные права и интересы».

  1. Специальные требования к общему искусственному интеллекту.

Своего рода превентивная норма проектируется в отношении общего ИИ: «Разработчики общего искусственного интеллекта должны обеспечивать безопасность и надежность с помощью технических средств, таких как согласование ценностей, проводить регулярные оценки безопасности на основе рисков и возможностей системы, повышать прозрачность и объяснимость общего искусственного интеллекта и сообщать о результатах оценки безопасности органам управления искусственным интеллектом» (ст. 77).

Юридическая ответственность

Авторы законопроектов разработали и вопросы юридической ответственности (глава 6 Проекта-2023, глава 8 Проекта-2024).

В статьях, регламентирующих общие положения об административных наказаниях предлагается, что лица, занимающиеся разработкой, предоставлением (а в ст. 82 Проекта-2024 – также и использованием) ИИ в нарушение положений принимаемого Закона: 1) обязаны внести исправления; 2) предупреждаются; 3) в случае отказа внести исправления незаконные доходы подлежат конфискации и налагается штраф до 1 млн юаней; 4) непосредственно ответственные лица подлежат штрафу на сумму не менее 10 000 юаней, но не более 100 000 юаней.

Если незаконные действия и обстоятельства «являются серьезными», органы искусственного интеллекта уровня провинции или выше должны предписать исправления, конфисковать незаконные доходы и наложить штраф в размере не более 50 миллионов юаней или до 5 % (в Проекте-2024 – до 4 %) от оборота предыдущего года, а также могут приказать приостановить соответствующую деятельность или прекратить деятельность для исправления ситуации, уведомить компетентные органы об отзыве соответствующих лицензий на ведение бизнеса или наложить штраф в размере не менее 100 000 юаней, но не более 1 миллионов юаней непосредственно ответственному лицу и другим ответственным лицам из числа персонала (по Пректу-2024 эти органы также могут принять решение запретить им занимать должности директоров, руководителей или старших менеджеров соответствующих предприятий в течение определенного периода времени).

При назначении административных наказаний предполагается учет следующих факторов (ст. 83 Проекта-2024, ст. 62 Проекта-2023):

1) характер, тяжесть, продолжительность противоправного деяния и его последствия (Проект-2024), по проекту-2023 также учитывается масштаб воздействия и степень ущерба;

2) масштаб, годовой оборот и доля компании на рынке (Проект-2024);

3) совершение деяния умышленно или по неосторожности (Проект-2023);

4) получение прибыли от незаконной деятельности прямо или косвенно (Проект-2024);

5) меры, принятые для смягчения последствий незаконных действий или борьбы с ними (Проект-2024); меры по исправлению положения в связи с незаконными действиями и меры по уменьшению убытков, которых могли быть причинены (Проект-2023);

6) сотрудничество в расследовании со стороны органов управления искусственным интеллектом (Проект-2024);

7) были ли приняты разумные и эффективные организационные и технические меры для управления рисками, связанными с искусственным интеллектом, в соответствии с положениями настоящего закона (Проект-2023);

8) соответствует ли искусственный интеллект стандартам безопасности или имеет соответствующие сертификаты (Проект-2023);

9) предыдущие незаконные действия (Проект-2023);

10) факторы, которые усугубляют или смягчают наказания, предусмотренные другими законами и нормативными актами (Проект-2023).

Проектами предписывается обязанность государственных органов и их сотрудников соблюдать положения законодательства об ИИ, в противном случае им вносятся предписания устранить нарушение, а также применяются административные взыскания (ст. 84 Проекта-2024, ст. 70 Проекта-2023).

В Проекте-2024 дифференцируется ответственность поставщика услуг и ответственность пользователя.

Если продукты и услуги искусственного интеллекта наносят ущерб другим лицам и поставщик не выполняет свои обязательства в соответствии с принятым законодательством, он несет ответственность за причинение вреда.

Если ключевые продукты и услуги искусственного интеллекта наносят ущерб другим лицам и поставщик не может доказать свою невиновность, он несет ответственность за причинение вреда. Если закон предусматривает предел компенсации, то это положение применяется в случае, ключевые разработчики или поставщики искусственного интеллекта не допустили умышленную или грубую халатность (ст. 85 Проекта-2024).

Если использование продуктов и услуг искусственного интеллекта причиняет ущерб другим лицам и виноват пользователь, он несет гражданскую ответственность, если разработчики и поставщики искусственного интеллекта не выполняют свои обязательства, предусмотренные законом, то они несут соответствующую деликтную ответственность (ст. 86 Проекта-2024).

Предпринята попытка разрешить вопросы распределения ответственности за качество продукции в случаях причинения вреда разными субъектами. Если дефект продукта искусственного интеллекта причиняет ущерб другим лицам, пострадавшая сторона может потребовать компенсацию от производителя или продавца после того, как поставщик искусственного интеллекта или пользователь в соответствии с законом возьмут на себя ответственность за нарушение, при этом имеет право на взыскание компенсации с производителей и продавцов.

Если поставщики и пользователи искусственного интеллекта одновременно являются производителями и продавцами, пострадавшая сторона может решить применить этот закон или правовые положения об ответственности за качество продукции (ст. 88 Проекта-2024).

Ст. 90 Проекта-2024 определяет границы юридической ответственности разработчиков базовой модели. Если использование базовых моделей для участия в разработке, предоставлении и внедрении искусственного интеллекта согласно соответствующим законам и административным регламентам ущемляет законные права и интересы государства, общества и других лиц, разработчики, поставщики искусственного интеллекта и пользователи производных продуктов несут юридическую ответственность.

Если поставщик базовой модели знает или должен знать, что разработчик искусственного интеллекта, поставщик или пользователь производных продуктов использует базовую модель для участия в незаконной деятельности, не принимает необходимых мер и причиняет вред другим лицам, разработчик искусственного интеллекта, поставщик или пользователь несут солидарную ответственность, за исключением случаев, когда базовой моделью является модель с открытым исходным кодом.

Разработчики базовой модели должны подписать соглашение или стандартный контракт с разработчиками искусственного интеллекта, поставщиками и пользователями использования производных инструментов, уточняя объем разрешений, ограничения на использование, устранение рисков и юридическую ответственность.

Если продукты и услуги искусственного интеллекта, причиняющие вред другим лицам, поставщикам и пользователям искусственного интеллекта, застрахованы, нарушитель имеет право потребовать компенсацию от страховщика. Если страховка недостаточна или ее нет, компенсацию возмещает нарушитель (ст. 91 Проекта-2024).

Если какое-либо лицо занимается деятельностью по предоставлению искусственного интеллекта в нарушение положений настоящего Закона и ущемляет права и интересы многочисленных лиц, Народная прокуратура, потребительские организации, определенные законом, и организации, определенные органами управления искусственным интеллектом, могут подать иски в суд в соответствии с законом (ст. 92 Проекта-2024, ст. 67 Проекта-2023).

Проектируются также специальные случаи освобождения от ответственности. Если разработчики, поставщики и пользователи искусственного интеллекта создают систему соответствия рискам искусственного интеллекта и эффективно ее внедряют, и в то же время активно сотрудничают с органами следствия, вносят исправления и оплачивают штрафы они могут быть освобожден от административных санкций или такие санкции могут быть сокращены.

Если разработчики и поставщики искусственного интеллекта создадут систему соответствия рискам искусственного интеллекта и эффективно внедрят ее, и в то же время признают себя виновными и готовыми принять наказание, уголовные наказания непосредственно ответственного лица могут быть сокращены или они могут быть освобождены от ответственности (ст. 93 Проекта-2024).

Согласно ст. 69 Проекта-2023 следует освобождение от наказания, если содеянное будет признано малозначительным. Если нарушение проектируемого закона будет отнесено к категории преступлений, то нарушители должны быть включены в экспериментальную работу по реформе корпоративного комплаенса, и к ней должны быть привлечены соответствующие предприятия. Если после оценки конструкция соответствия соответствует критериям обоснованности, Народная прокуратура может сослаться на выводы оценки, чтобы принять решение не санкционировать арест, изменить принудительные меры или не возбуждать уголовное преследование в соответствии с законом, а также предложить рекомендацию о смягчении наказания или представить прокурорское заключение по данному вопросу.

Для повышения эффективности надзора за искусственным интеллектом и правоохранительными органами статья 57 Проекта-2023 предлагает создать Компетентный национальный орган по искусственному интеллекту, который должен разработать профессиональные технологии для повышения эффективности надзора за ИИ и правоохранительными органами, определить процедуры административного правоприменения в соответствии с законом и создать систему надзора за исполнением административного законодательства.

Вопросы авторского права

В сфере защиты авторских прав для поставщиков услуг Проектом-2024 предлагается ввести правила «Безопасной гавани» (ст. 87 Проекта-2024).

Если пользователь использует службы искусственного интеллекта для совершения нарушения, правообладатель имеет право уведомить поставщика услуг искусственного интеллекта о необходимости принятия таких мер как блокировка подсказок, закрытие или аннулирование учетной записи, нарушающей авторские права. Уведомление должно содержать предварительные доказательства нарушения и достоверную информацию о личности правообладателя.

После получения уведомления поставщик услуг искусственного интеллекта должен незамедлительно направить уведомление соответствующим пользователям и предоставить предупреждение о риске нарушения. Если необходимые меры не будут приняты своевременно, поставщик услуг искусственного интеллекта несет солидарную ответственность с пользователем за причиненный ущерб.

Если поставщик услуг искусственного интеллекта знает или должен знать, что пользователь использует предоставляемую им услугу искусственного интеллекта с целью нарушения гражданских прав других лиц и не принимает необходимых мер, он несет солидарную ответственность с пользователем.

Международное сотрудничество

Важная роль в Проекте-2024 отводится нормам о международном сотрудничестве (в Проекте-2023 этому вопросу посвящены две статьи – о контрмерах и взаимных мерах).

В Проекте-2024 прослеживается стремление Китая быть лидером в определении стандартов ИИ. Этому посвящена статья 78 Проекта-2024: «Китайская Народная Республика придерживается принципа общего, всеобъемлющего, сотрудничества и устойчивого стремления к развитию и безопасности, укрепляет международные обмены и сотрудничество, связанные с управлением искусственным интеллектом, участвует в разработке международных правил и стандартов, связанных с искусственным интеллектом, и продвигает формирование широкого консенсуса. Структура, стандарты и спецификации управления искусственным интеллектом предотвращают риски безопасности искусственного интеллекта и способствуют созданию открытого, справедливого и эффективного глобального механизма управления искусственным интеллектом.

Китайская Народная Республика выполняет свои обязанности постоянного члена Совета Безопасности ООН и активно участвует в глобальном управлении искусственным интеллектом».

И один, и второй проекты закладывают норму о контрмерах: «Если какая-либо страна или регион примет дискриминационные запреты, ограничения или аналогичные меры против китайских граждан или организаций в разработке, предоставлении и использовании искусственного интеллекта, Китайская Народная Республика имеет право принять соответствующие контрмеры» (ст. 79 Проекта-2024). Статья 60 Проекта-2023, посвященная этому же аспекту, именуется «Взаимные меры» и  формулирует возможность ответных мер при введении «дискриминационных запретов, ограничений или других аналогичных мер против Китайской Народной Республики в области исследований и разработок, инвестиций, торговли и т.д., связанных с искусственным интеллектом», то есть более широко.

Контрмерам в понимании Проекта-2023 посвящена ст. 59: «Если зарубежные организации или отдельные лица нарушают законодательство Китайской Народной Республики, законные права и интересы граждан Китайской Народной Республики или ведут деятельность в области исследований и разработок, предоставления или использования искусственного интеллекта, которые угрожают национальной безопасности и общественным интересам Китайской Народной Республики, национальный компетентный орган по искусственному интеллекту может включить его в негативный список, сделать заявление и принять меры по ограничению или запрещению этих исследований и разработок, предоставлению или использованию искусственного интеллекта на территории Китайской Народной Республики в соответствии с законом».

Стоит отметить, что проектируемые нормы как никогда актуальны в период технологических войн США с Китаем. Так, например, обсуждаемый в настоящее время в Конгрессе США проект Закона о разделении возможностей искусственного интеллекта в Америке и Китае от 2025 года (S. 321 – The “Decoupling America’s Artificial Intelligence Capabilities from China Act of 2025”) предполагает ввести запрет на ввоз в Соединенные Штаты искусственного интеллекта или технологий генеративного искусственного интеллекта, интеллектуальной собственности, разработанной или произведенной в Китайской Народной Республике, а также запрет на экспорт, реэкспорт или передачу внутри страны технологий искусственного интеллекта или генеративного искусственного интеллекта, интеллектуальной собственности в Китайскую Народную Республику или на ее территорию. В случае принятия законопроекта эти действия будут криминализованы, лица, их совершившие будут подлежать уголовной ответственности. Наказуемыми, а также подлежащими признаются также связанные с КНР разработки, исследования и передача их результатов – проектируемые нормы предлагают штрафы до 1 млн долларов в качестве уголовного наказания, а также взыскания ущерба в рамках искового производства и штрафы в размере до 1 млн долл. в отношении физических лиц и до 100 млн долл. – в отношении юридических лиц. Гражданам США предлагается запретить участие в деятельности или финансировании китайских организаций, занимающихся исследованиями и разработками в области искусственного интеллекта[21].

Важно отметить и дружеское отношение, демонстрируемое ст. 80 Проекта-2024: «Китайская Народная Республика оказывает иностранную помощь посредством экономических, технологических, материальных, кадровых, управленческих и других средств, чтобы преодолеть разрыв в разведке и управленческом потенциале в развивающихся странах и способствовать международному развитию».

Статья 81 Проекта-2024 посвящена борьбе с преступностью: «Китайская Народная Республика осуществляет международное сотрудничество в области правоохранительной деятельности и правосудия с другими странами, регионами и международными организациями в соответствии с договорами и соглашениями, которые она заключила или в которых участвовала, либо в соответствии с принципами равенства и взаимности.

Государство углубляет и расширяет рабочий механизм сотрудничества правоохранительных органов иностранных государств, совершенствует систему и механизм судебной помощи, содействует системе и механизму продвижения международного сотрудничества в области правоохранительной деятельности и правосудия, а также предотвращает и борется с терроризмом, экстремизмом и транснациональными преступными группировками, незаконно использующими технологии искусственного интеллекта».

Выводы

  1. С опорой на принципы деятельности, связанной с искусственным интеллектом, также описанные в нормах проектов (ориентирование на людей, подотчетности в сфере безопасности, честности и справедливости, прозрачности и объяснимости, добросовестного использования), в проектах предусмотрен ряд важных прав и интересов пользователей. При этом в Проекте-2024 эти права вынесены в отдельную главу, что представляется более удачным решением, нежели их разброс их по статьям об обязанностях производителей и поставщиков, как это реализовано в Проекте-2023.
  2. Проект-2024 включил в отдельную главу нормы о специальных сценариях применения ИИ, к которым отнес использование искусственного интеллекта государственными органами; судебный искусственный интеллект; новости, создаваемые искусственным интеллектом; медицинский искусственный интеллект; социальных роботов; биометрию; автономное вождение; социальный кредит (рейтинг или скоринг), а также требования к общему искусственному интеллекту. В этом перечне отражены самые актуальные направления использования искусственного интеллекта. При этом, на наш взгляд, обращает на себя внимание отсутствие такой важнейшего сценария как «искусственный интеллект в образовании».
  3. Исследование предлагаемых Проектом-2024 специальных сценариев в контексте уже принятых в Китайской Народной Республике нормативных правовых актов, позволяет констатировать исключительно общий характер проектируемых норм относительно специальных сценариев и вместе с тем сделать вывод о том, что практически каждый из них требует либо отраслевого закона, либо подзаконного нормативного правового акта, но не отменяет необходимости определения общих принципов регулирования этих сценариев в рамках комплексного закона.
  4. Разделы о юридической ответственности содержат составы административных правонарушений; санкции за их совершение и факторы, которые следует учитывать при их назначении; дифференцируют ответственность поставщиков услуг искусственного интеллекта и пользователей; предлагают решение вопроса об ответственности разработчиков базовой модели ИИ, а также страхования ответственности; предусматривают условия освобождения от ответственности и наказания, надзора за искусственным интеллектом и правоохранительными органами.
  5. Представляются взвешенными проектируемые нормы в сфере защиты авторских прав.
  6. Отвечают текущей ситуации конкурентной борьбы с США нормы о контрмерах, в уважительном ключе сформулированы нормы о международном сотрудничестве и помощи другим странам, отмечается стремление расширять завоеванные позиции в международной стандартизации технологий искусственного интеллекта.
  7. В качестве общего вывода отметим, что учет положений законопроектов, разработанных в Китайской Народной Республике, наряду с принятыми в 2024 году Законом ЕС об ИИ, 28 мая 2025 года в Японии Законом о содействии исследованиям, разработке и использованию технологий искусственного интеллекта («Закон о содействии использованию ИИ»)[22], а также прошедшем первое чтение 14 мая 2025 г. проектом Закона Республики Казахстан «Об искусственном интеллекте»[23] является критически важным для разработки комплексного нормативно-правового регулирования искусственного интеллекта в Российской Федерации.

Сноски

Нажмите на активную сноску снова, чтобы вернуться к чтению текста.

[1] URL: https://www.scmp.com/news/china/politics/article/3124815/chinas-courts-use-data-analytics-and-blockchain-evidence?module=inline&pgtype=article.

[2] См.: Волков К. В Китае введут систему «умного суда» // Российская газета. 2021. 15 марта.

[3] Приводится по информации в статье А. Стуколова «Искусственный интеллект в судебной системе Китая», где автор изложил тезисы лекции профессора юридической школы Пекинского технологического института, консультанта Верховного народного суда КНР Пэн Хайцин (URL: https://zakon.ru/blog/2025/04/30/iskusstvennyj_intellekt_v_sudebnoj_sisteme_kitaya).

[4] См.: В Китае внедрили судебный ИИ. Или нет? // Хабр. URL: https://habr.com/ru/articles/677920/. Последнее обстоятельство, напротив, было отмечено руководителем цифровой трансформации адвокатуры Федеральной палаты адвокатов РФ Е. Г. Авакян как негативное. Выступая на XIII Петербургском международном юридическом форуме, она предположила: если судье необходимо будет написать особое мнение для обоснования несогласия с решением, подсказанным ИИ, он постарается избежать приложения лишних усилий, вследствие чего «видовая конкуренция ИИ» человеком будет проиграна (URL: https://legalforum.info/programme/business-programme/7785/).

[5] Медиа в эпоху ИИ: вызовы и перспективы // Orient Link. 2024. 17 окт. URL: https://orient.tm/ru/post/76418/media-v-epohu-ii-vyzovy-i-perspektivy.

[6] Китай значительно обгоняет США по внедрению искусственного интеллекта в медицину. URL: https://toppress.kz/article/kitai-znachitelno-obgonyaet-ssha-po-vnedreniyu-iskusstvennogo-intellekta-v-medicinu.

[7] Китай выходит в лидеры в области искусственного интеллекта в здравоохранении. URL: https://evercare.ru/kitai-vykhodit-v-lidery-v-oblasti-iskusstvennogo-i.

[8] Securutylab.ru. URL: https://www.securitylab.ru/news/556920.php.

[9] Китай: в новой пилотной программе будут использовать роботов для ухода за пожилыми людьми.

URL: https://www.ixbt.com/live/drones/kitay-v-novoy-pilotnoy-programme-budut-ispolzovat-robotov-dlya-uhoda-za-pozhilymi-lyudmi.html.

[10] URL: https://www.cac.gov.cn/2025-03/21/c_1744174262156096.htm?utm_source=Securitylab.ru.

[11] (中文版)ISO 34501:2022-道路车辆自动驾驶系统测试场景-词汇. URL: (中文版)ISO 34501:2022-道路车辆自动驾驶系统测试场景-词汇.

[12] URL: https://www.miit.gov.cn/zwgk/zcwj/wjfb/tz/art/2025/art_1f663dddc5ee4754bb833586b2bf0853.html.

[13] URL: https://www.perplexity.ai/page/china-bans-smart-driving-terms-3d8H2v7cRdC9Jd8x5Ofkcw.

[14] URL: https://www.dongchedi.com/article/7494811363659792932.

[15] URL: https://www.perplexity.ai/page/china-bans-smart-driving-terms-3d8H2v7cRdC9Jd8x5Ofkcw.

[16] https://www.dongchedi.com/article/7494811363659792932.

[17] URL: https://codeofchina.com/standard/GB44496-2024.html.

[18] URL: https://www.gov.cn/zhengce/content/2014-06/27/content_8913.htm.

[19] URL: https://www.gov.cn/zhengce/zhengceku/202406/content_6955501.htm.

[20] URL: https://artificialintelligenceact.eu/the-act/.

[21] URL: https://www.congress.gov/bill/119th-congress/senate-bill/321/text/is.

[22] URL: https://zelojapan.com/en/lawsquare/56899#:~:text=On%2028%20May%202025%2C%20Japan’s%20Diet%20passed%20the%20Act%20on,statute%20dedicated%20exclusively%20to%20AI.

[23] URL: https://mazhilis.parlam.kz/ru/multimedia-center/news/16829/.

Список источников

  1. Бальчиндоржиева О. Б., Мяханова А. Н., Сапкеев Д. В. Философско-правовые и этические аспекты организации «умного суда»: китайский опыт // Вестник Бурятского государственного университета. Философия. –– Вып. 3. – С. 70‒76.
  2. Мяханова А. Н., Эрхитуева Т. И. Формирование социального рейтинга: китайский опыт // Вестник Бурятского государственного университета. Гуманитарные исследования Внутренней Азии. – 2024. – Вып. 3. – С. 38‒43.
  3. Побережная О. Е., ПритульчикЕ. И. Социально-правовая защита личного пространства граждан и системы социального рейтинга // Конституционно-правовые основы развития Республики Беларусь как социального государства в современных условиях : материалы Междунар. науч.-практ. конф. (Минск, 3–4 окт. 2019 г.). – Минск : Белорусский государственный университет, 2019. – С. 246–251.
  4. Система социального доверия (социального рейтинга) в КНР: проблемы и перспективы внедрения в Российской Федерации / В. В. Гончаров, Е. Г. Петренко, А. А. Борисова [и др.] // Административное и муниципальное право. – 2023. – № 3. – С. 78–91. – DOI: 10.7256/2454-0595.2023.3.39983.
  5. Тихонова П. В Китае открылась первая в мире больница с виртуальными врачами и искусственным интеллектом // Hi-tech. URL: https://hi-tech.mail.ru/news/126599-v-kitae-otkrylas-pervaya-v-mire-bolnica-s-virtualnymi-vrachami-i-iskusstvennym-intellektom/.
  6. Фоков А. П. Электронное правосудие в Китайской Народной Республике: цифровая реальность и организация «умного суда» // Наука и образование: хозяйство и экономика; предпринимательство; право и управление. – 2021. – № 8 (135). – С. 119–124.
  7. Цзя Шаосюе. Автономное вождение в цифровую эпоху и правовая охрана: китайский опыт и пути развития // Право. Журнал Высшей школы экономики.– 2023. – Т. 16, № 4. – С. 357–379. – DOI:10.17323/2072-8166.2023.4.357.379.

References

  1. Balchindorzhieva O. B., Myakhanova A. N., Sapkeyev D. V. Philosophical, Legal and Ethical Aspects of “Smart Court” Organization: The Chinese Experience. Vestnik Buryatskogo gosudarstvennogo universiteta. Filosofiya= Bulletin of Buryat State University. Philosophy, 2023, iss. 3, pp. 70‒76. (In Russian).
  2. Myakhanova A. N., Erkhitueva T. I. Development of a Social Rating System: The Chinese Experience. Vestnik Buryatskogo gosudarstvennogo universiteta. Gumanitarnye issledovaniya Vnutrennei Azii= Bulletin of Buryat State University. Inner Asia Humanities Research, 2024, iss. 3, pp. 38–43. (In Russian).
  3. Poberezhnaya O. E., Pritulchik E. Social and Legal Protection of the Personal Space of Citizens and the Social Rating System. Konstitutsionno-pravovye osnovy razvitiya Respubliki Belarus kak sotsialnogo gosudarstva v sovremennykh usloviyakh. Materialy Mezhdunarodnoi nauchno-prakticheskoi konferentsii, Minsk, 3–4 oktyabrya 2019 g. [The Constitutional and Legal Foundations of the Development of the Republic of Belarus As A Social State In Modern Conditions. Materials of International Research Conference, Minsk, 2019, October, 3–4]. Minsk, The Belarusian State University Publ., 2019, pp. 246–251. (In Russian).
  4. Goncharov V. V., Petrenko E. G., Borisova A. A. et al. The system of social trust (social rating) in China: Problems and prospects of implementation in the Russian Federation. Administrativnoe i municipalnoe pravo = Administrative and Municipal Law, 2023, no. 3, pp. 78–91. (In Russian). DOI: 10.7256/2454-0595.3.39983.
  5. Tikhonova P. The World’s First Hospital with Virtual Doctors and Artificial Intelligence Has Opened in China. URL: https://hi-tech.mail.ru/news/126599-v-kitae-otkrylas-pervaya-v-mire-bolnica-s-virtualnymi-vrachami-i-iskusstvennym-intellektom/. (In Russian).
  6. Fokov A. P. Electronic Justice in the People’s Republic of China: Digital Reality and the Organization of a «Smart Court».Nauka i obrazovanie: khozyaistvo i ehkonomika; predprinimatelstvo; pravo i upravlenie = Science and education: economy and financial economy; entrepreneurship; law and management, 2021, no. 8 (135), pp. 119–124. (In Russian).
  7. Jia Shaoxue. Autonomous driving in the digital age and legal protection: Chinese experience and development paths. Zhurnal Vysshei shkoly ehkonomiki = Law. Journal of the Higher School of Economics, 2023, vol. 16, no. 4, pp. 357–379 (In Russian). DOI:10.17323/2072-8166. 2023.4.357.379.