Развитие искусственного интеллекта (ИИ) в последние годы приобрело стремительный характер за счет появления большого объема данных для машинного обучения и подошло к этапу, когда становится очевидной необходимость правового регулирования сферы общественных отношений, связанных с использованием этой технологии.
При этом страны, являющиеся технологическими лидерами, ищут баланс между необходимостью формирования правовых норм, препятствующих ущемлению технологией прав граждан, с одной стороны, и сохранением благоприятной среды для разработчиков и инвесторов для упрочения своих позиций, с другой стороны. В связи с этим изучение разрабатываемых и (или) уже внедренных в других государствах правовых норм стратегически будет способствовать принятию более взвешенных правовых решений относительно регулирования искусственного интеллекта в нашей стране.
В данной статье исследуется соответствующий опыт США как государства, являющегося безусловным лидером по всем показателям развития данной отрасли[1], при этом мы сосредоточимся на фундаментальных принципах, закладываемых американской властью в основание нормативно-правового регулирования искусственного интеллекта.
П. Н. Бирюков полагает, что Белый дом сделал лидерство США в сфере ИИ своим главным приоритетом в период президентства Трампа [1, с. 325], в то же время Я. В. Селянин справедливо, на наш взгляд, отмечает: «…несмотря на то, что Д. Трамп и его администрация активно создают себе имидж главных инициаторов того, что государство обратило внимание на эту сферу, они просто обеспечивают логическое развитие работ, начатых на государственном уровне ещё при Б. Обаме [Там же, с. 146].
Действительно, еще в период президентского срока Б. Обамы, в 2016 году, Национальным советом в области науки и технологий (National Science and Technology Council) был утвержден Национальный стратегический план по развитию ИИ (National Strategic Plan for the Development of Artificial Intelligence)[2]. Осознание и изучение этических, правовых и социальных последствий внедрения ИИ было обозначено в нем в качестве одной из главных стратегий развития.
С февраля 2019 года в США действует Стратегический план развития исследований и разработок систем ИИ, обновленный в июне того же года (National Artificial Intelligence Research and Development Strategic Plan: 2019 Update)[3], где также зафиксирована необходимость проведения исследований относительно понимания и учета этических, правовых и социальных последствий внедрения ИИ (стратегическое направление № 3). В мае 2023 года Управление по науке и технологической политике Белого дома (The White House Office of Science and Technology Policy) опубликовало обновленную версию Стратегического плана, в которой для данной стратегии определены четыре направления НИОКР:
- инвестиции в фундаментальные исследования для продвижения основных ценностей посредством проектирования социотехнических систем и этических, правовых и социальных последствий ИИ;
- понимание и смягчение социальных и этических рисков, связанных с ИИ;
- использование ИИ для решения этических, правовых и социальных проблем;
- понимание более широких последствий ИИ[4].
В 2020 году Управление по науке и технологической политике Белого дома выпустило не имеющий пока юридической силы декларативный «Проект Билля о правах ИИ» (Blueprint for an AI Bill of Rights)[5]. В основу проекта заложены пять принципов, на которые рекомендуется опираться разработчикам государственных систем, затрагивающих права человека, а также всем разработчикам прочих автоматизированных систем. Рассмотрим эти принципы.
Принцип безопасности и эффективности систем ИИ
Люди должны быть защищены от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться с учетом консультаций с различными сообществами, заинтересованными сторонами и экспертами в предметной области для выявления проблем, рисков и потенциальных последствий системы. Системы должны подвергаться тестированию перед развертыванием, выявлению и снижению рисков, а также постоянному мониторингу, который демонстрирует, что они безопасны и эффективны в зависимости от их предполагаемого использования, смягчения небезопасных последствий, включая те, которые выходят за рамки предполагаемого использования, и соблюдения стандартов, специфичных для конкретной области. Результаты этих защитных мер должны включать возможность неразвертывания системы или вывода ее из использования. Автоматизированные системы не должны разрабатываться с намерением или разумно предсказуемой возможностью поставить под угрозу безопасность личности или безопасность сообщества. Они должны быть разработаны таким образом, чтобы активно защищать человека от вреда, возникающего в результате непреднамеренного, но предсказуемого использования или воздействия автоматизированных систем. Люди должны быть защищены от ненадлежащего или неуместного использования данных при проектировании, разработке и развертывании автоматизированных систем, а также от совокупного вреда от их повторного использования. Должны проводиться независимая оценка и отчетность, подтверждающая, что система безопасна и эффективна, включая отчеты о шагах, предпринятых для смягчения потенциального вреда, а результаты должны быть обнародованы, когда это возможно.
Принцип алгоритмической защиты от дискриминации
Люди не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться справедливо. Алгоритмическая дискриминация возникает, когда автоматизированные системы способствуют необоснованному различию в обращении или оказывают неблагоприятное воздействие на людей по признаку расы, цвета кожи, этнической принадлежности, пола (включая беременность, роды и связанные с ними заболевания, гендерную идентичность, сексуальную ориентацию), религии, возраста, национального происхождения, инвалидности, статуса ветерана, генетической информации или любой другой классификации, охраняемой законом.
В зависимости от конкретных обстоятельств такая алгоритмическая дискриминация может нарушать правовую защиту. Проектировщики, разработчики и пользователи автоматизированных систем должны принимать упреждающие и постоянные меры для защиты отдельных лиц и сообществ от алгоритмической дискриминации, а также использовать и проектировать системы на справедливой основе. Эта защита должна включать упреждающую оценку справедливости как часть проектирования системы, использование репрезентативных данных и защиту от косвенных демографических характеристик, обеспечение доступности для людей с ограниченными возможностями при проектировании и разработке, предварительном развертывании и постоянном тестировании и смягчении неравенства, а также четкую организационную структуру и надзор. Для подтверждения этих мер защиты должны проводиться и публиковаться независимая оценка и отчетность на доступном языке в форме алгоритмической оценки воздействия, включая результаты тестирования на несоответствие и информацию о смягчении последствий, когда это возможно.
Интересное рассуждение в этой связи высказывает российский исследователь Я. В. Селянин. «Американские поборники прав человека беспокоятся, что такие системы могут уделять более пристальное внимание, например, чернокожим, – пишет он. – Характерно, что обсуждаются только количественные показатели, а не точность предсказания. Специалисты же указывают, что для предотвращения предвзятости ИИ необходимо сначала определить, можно ли вообще алгоритмизировать системы ценностей, понятие справедливости и затем интегрировать их в системы на сегодняшнем уровне развития технологий» [5, с. 153–154]. Полагаем, что поставленный Я. В. Селяниным вопрос заслуживает серьезной научной междисциплинарной дискуссии.
Принцип конфиденциальности данных
Люди должны быть защищены от неправомерного использования данных с помощью встроенных средств защиты, и у них должна быть возможность контролировать, как используются данные о них. Люди должны быть защищены от нарушений конфиденциальности посредством выбора интерфейса, который гарантирует, что такая защита включена по умолчанию, включая обеспечение того, чтобы сбор данных соответствовал разумным ожиданиям, и чтобы собирались только данные, строго необходимые для конкретного контекста. Проектировщики, разработчики и развертыватели автоматизированных систем должны запрашивать разрешение и уважать решение человека относительно сбора, использования, доступа, передачи и удаления данных соответствующими способами и в максимально возможной степени; там, где это невозможно, следует использовать альтернативные меры защиты конфиденциальности. Системы не должны использовать пользовательский опыт и проектные решения, которые запутывают выбор пользователя или обременяют пользователей настройками по умолчанию, нарушающими конфиденциальность. Согласие должно использоваться для обоснования сбора данных только в тех случаях, когда оно может быть предоставлено надлежащим и осмысленным образом. Любые запросы на согласие должны быть краткими, понятными, изложенными доступным языком и предоставлять человеку свободу действий в отношении сбора данных и конкретного контекста их использования; существующие трудные для понимания практики уведомления и выбора для широкого использования данных должны быть изменены. Усиленная защита и ограничения для данных и выводов, связанных с деликатными областями, включая здравоохранение, работу, образование, уголовное правосудие и финансы, а также для данных, касающихся молодежи, должны поставить человека на первое место. В конфиденциальных областях данные и связанные с ними выводы должны использоваться только для необходимых функций, и люди должны быть защищены этической проверкой и запретами на использование. Человек и сообщества людей должны быть свободны от неконтролируемого наблюдения: технологии наблюдения должны подвергаться усиленному надзору, который включает, по крайней мере, предварительную оценку их потенциального вреда и ограничений сферы применения для защиты конфиденциальности и гражданских свобод. Непрерывное наблюдение и мониторинг не следует использовать в сфере образования, работы, жилья или в других контекстах, где использование таких технологий наблюдения может ограничить права, возможности или доступ. По возможности люди должны иметь доступ к отчетам, которые подтверждают, что их решения в отношении данных были соблюдены, и дают оценку потенциального влияния технологий наблюдения на их права, возможности или доступ.
Принцип уведомлений и пояснений
Люди должны знать, что используется автоматизированная система, и понимать, как и почему она способствует результатам, которые влияют на них. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны предоставить общедоступную документацию на понятном языке, включающую четкие описания общего функционирования системы и роли, которую играет автоматизация, уведомление об использовании таких систем, указание лица или организации, ответственных за систему, а также пояснения по результатам, которые являются ясными, своевременными и доступными. Такое уведомление должно постоянно обновляться, а люди, на которых влияет система, должны быть уведомлены о значительных изменениях в вариантах использования или ключевых функциях. Люди должны знать, как и почему влияющий на них результат был определен автоматизированной системой, в том числе в тех случаях, когда автоматизированная система не является единственным источником данных, определяющим результат. Автоматизированные системы должны предоставлять объяснения, которые являются технически обоснованными, содержательными и полезными для человека, а также для любых операторов или других лиц, которым необходимо понимать систему, и откалиброваны в соответствии с уровнем риска в зависимости от контекста. Отчеты, включающие краткую информацию об этих автоматизированных системах на простом языке, а также оценки ясности и качества уведомлений и пояснений, должны по возможности публиковаться.
Принцип использования человеческих альтернатив,
рассмотрения и запасного варианта
При необходимости люди должны иметь возможность отказаться и иметь доступ к человеку, который сможет быстро рассмотреть и устранить проблемы, с которыми они столкнулись. При необходимости у людей должна быть возможность отказаться от автоматизированных систем в пользу человеческой альтернативы. Соответствие должно определяться на основе разумных ожиданий в данном контексте и с упором на обеспечение широкой доступности и защиту населения от особо вредных воздействий. В некоторых случаях закон может требовать наличия человека или другой альтернативы. У людей должен быть доступ к своевременному рассмотрению человеком и исправлению ситуации посредством резервного процесса и процесса эскалации, если автоматизированная система дает сбой, выдает ошибку или человек хочет подать апелляцию или оспорить ее влияние. Человеческий учет и резервный вариант должны быть доступными, справедливыми, эффективными, поддерживаемыми, сопровождаться соответствующей подготовкой операторов и не должны налагать необоснованное бремя на население. Автоматизированные системы, предназначенные для использования в чувствительных областях, включая, помимо прочего, уголовное правосудие, трудоустройство, образование и здравоохранение, должны быть дополнительно адаптированы к этой цели, обеспечивать значимый доступ для надзора, включать обучение всех людей, взаимодействующих с системой, и учитывать человеческий фактор при принятии неблагоприятных или рискованных решений. Отчетность, включающая описание этих процессов человеческого управления и оценку их своевременности, доступности, результатов и эффективности, должна по возможности публиковаться.
В июле 2023 г. Президент Байден в присутствии семи ведущих компаний в области искусственного интеллекта – Amazon, Anthropic, Google, Inflection, Meta[6], Microsoft и OpenAI – объявил, что администрация Президента получила добровольные обязательства от этих компаний, «чтобы помочь двигаться к безопасному, надежному и прозрачному развитию технологий искусственного интеллекта». Данные обязательства[7] построены на трех принципах – надежность, безопасность и доверие.
Компании обязаны убедиться в надежности своей продукции, прежде чем представить ее общественности. Это означает тестирование безопасности и возможностей их систем искусственного интеллекта, их внешнее тестирование, оценку их потенциальных биологических рисков, рисков кибербезопасности и общества, а также обнародование результатов этих оценок.
Компании обязаны создавать системы, которые ставят на первое место безопасность. Это означает защиту своих моделей от кибер- и инсайдерских угроз, а также обмен передовым опытом и стандартами для предотвращения злоупотреблений, снижения рисков для общества и защиты национальной безопасности.
Компании обязаны поступать правильно со стороны общественности и завоевывать доверие людей. Это означает, что пользователям будет проще определить, находится ли аудио- и визуальный контент в исходной форме или был изменен или создан ИИ. Это означает обеспечение того, чтобы технология не способствовала предвзятости и дискриминации, усиление защиты конфиденциальности и защиту детей от вреда. Наконец, это означает использование ИИ для решения самых серьезных проблем общества, от рака до изменения климата, а также управление рисками ИИ, чтобы можно было полностью реализовать его преимущества.
Компании выразили намерение не снимать с себя добровольно принятых обязательств до тех пор, пока не вступят в силу нормативные акты, охватывающие практически те же вопросы, а также брать на себя дополнительные обязательства.
30 октября 2023 г. Президент США Джо Байден подписал Указ о надежных, безопасных и заслуживающих доверия способах разработки и использования искусственного интеллекта, обозначив восемь руководящих принципов и приоритетов политики его администрации в продвижении и управлении разработкой и использованием ИИ[8].
- Искусственный интеллект должен быть надежным и безопасным. Достижение этой цели требует надежных, безопасных, подтвержденных и стандартизированных оценок систем ИИ, а также политик, институтов и, при необходимости, других механизмов для тестирования, понимания и снижения рисков, связанных с этими системами, прежде чем они будут использованы. Это также требует устранения наиболее острых рисков безопасности систем ИИ, в том числе в отношении биотехнологий, кибербезопасности, критической инфраструктуры и других угроз национальной безопасности, одновременно преодолевая непрозрачность и сложность ИИ. Тестирование и оценка, включая мониторинг производительности после развертывания, помогут гарантировать, что системы искусственного интеллекта функционируют по назначению, устойчивы к неправильному использованию или опасным модификациям, разработаны с этической точки зрения и эксплуатируются безопасным образом, а также соответствуют применимым федеральным законам и политикам. В Указе заявляется, что администрация Президента поможет разработать эффективные механизмы маркировки и происхождения контента, чтобы американцы могли определять, когда контент создается с использованием ИИ, а когда нет. Эти действия обеспечат жизненно важную основу для подхода, который устраняет риски ИИ, не уменьшая при этом его преимуществ.
- Содействие ответственным инновациям, конкуренции и сотрудничеству позволит Соединенным Штатам стать лидером в области искусственного интеллекта и раскрыть потенциал технологии для решения некоторых из наиболее сложных проблем общества. Эти усилия требуют инвестиций в образование, обучение, развитие, исследования и потенциал, связанные с искусственным интеллектом, при одновременном решении новых вопросов интеллектуальной собственности (ИС) и других проблем для защиты изобретателей и авторов. «В рамках федеральной власти моя администрация намерена поддерживать программы по предоставлению американцам навыков, необходимых им в эпоху ИИ, и привлекать таланты в области ИИ со всего мира к нашим берегам – не только для учебы, но и для того, чтобы остаться – чтобы компании и технологии будущего были сделаны в Америке, – заявляет Байден. – Федеральная власть будет способствовать созданию справедливой, открытой и конкурентоспособной экосистемы и рынка для искусственного интеллекта и связанных с ним технологий, чтобы мелкие разработчики и предприниматели могли продолжать стимулировать инновации. Для этого необходимо прекратить незаконный сговор и устранить риски, связанные с использованием доминирующими фирмами ключевых активов, таких как полупроводники, вычислительные мощности, облачные хранилища и данные, чтобы поставить конкурентов в невыгодное положение, а также поддержать рынок, который использует преимущества ИИ для предоставления новых возможностей для малого бизнеса, рабочих и предпринимателей».
- Ответственная разработка и использование ИИ требуют приверженности поддержке американских рабочих. Поскольку ИИ создает новые рабочие места и отрасли, всем работникам необходимо место за столом переговоров, в том числе посредством коллективных переговоров, чтобы гарантировать, что они извлекут выгоду из этих возможностей. Администрация Байдена будет стремиться адаптировать профессиональное обучение и образование для поддержки разнообразной рабочей силы и предоставления доступа к возможностям, которые создает ИИ. На самом рабочем месте ИИ не должен использоваться таким образом, чтобы подрывать права, ухудшать качество рабочих мест, поощрять неправомерный надзор за работниками, уменьшать рыночную конкуренцию, создавать новые риски для здоровья и безопасности или вызывать вредные перебои в работе рабочей силы. Следующие важные шаги в развитии ИИ должны основываться на взглядах работников, профсоюзов, преподавателей и работодателей на поддержку ответственного использования ИИ, который улучшает жизнь работников, положительно расширяет человеческий труд и помогает всем людям безопасно пользоваться преимуществами и возможностями. от технологических инноваций.
- Политика искусственного интеллекта должна соответствовать стремлению администрации Президента продвигать равенство и гражданские права: «Моя администрация не может – и не будет – мириться с использованием ИИ, чтобы поставить в невыгодное положение тех, кто и так слишком часто лишен равных возможностей и справедливости. От найма на работу до жилья и здравоохранения – мы видели, что происходит, когда использование ИИ усугубляет дискриминацию и предвзятость, а не улучшает качество жизни. Безответственно развернутые системы искусственного интеллекта воспроизвели и усилили существующее неравенство, вызвали новые виды пагубной дискриминации и усугубили онлайновый и физический вред».
В Указе Байдена отмечается, что политика в сфере ИИ будет опираться на проект Билля о правах ИИ, Указ № 14091 от 16 февраля 2023 г. о дальнейшем продвижении расового равенства и поддержки малообеспеченных слоев населения, а также систему управления рисками ИИ (AI Risk Management Framework). На последнем элементе остановимся подробнее. Как справедливо отмечает ряд авторов, «… любые, даже самые замечательные и ясно сформулированные, ценностные ориентации становятся лишь благими пожеланиями без конкретных механизмов их внедрения и обеспечения. В условиях нарастающей конвергенции биологических и цифровых субъектов, вызванной практически повсеместным внедрением технологий ИИ, прежние подходы утрачивают свое значение, ведь ИИ уже давно не ограничен стенами научно-исследовательских институтов и вычислительных центров» [4, с. 141]. AI Risk Management Framework, на наш взгляд, представляет собой попытку разрешения указанного противоречия. Это набор отраслевых рекомендаций, выпущенных Национальным институтом стандартов и технологий (NIST) в январе 2023 года, чтобы помочь организациям в оценке и управлении рисками, связанными с развертыванием и использованием систем искусственного интеллекта в сегодняшних постоянно меняющихся условиях.
Чтобы понять, успешно ли организация управляет разработкой и развертыванием системы ИИ, сотрудники организации должны быть уверены, что эта система отвечает признакам надежной или заслуживающей доверия системы ИИ, исходя из следующих переменных:
а) валидность и надежность – система ИИ должна функционировать по плану и последовательно генерировать точные результаты, что имеет решающее значение для определения достоверности результатов ИИ для использования в процессах принятия решений;
б) безопасность и отказоустойчивость – чтобы защититься от злонамеренных атак, неправильного использования и несанкционированного доступа, надежные системы искусственного интеллекта должны иметь надежные функции безопасности, возможность быстро восстанавливаться и продолжать работу во время и после любых разрушительных инцидентов;
в) улучшенная конфиденциальность – надежная система искусственного интеллекта защищает конфиденциальность пользователей, устанавливая меры безопасности для защиты конфиденциальных данных и гарантируя, что их использование соответствует применимым правилам и законам;
г) прозрачность и подотчетность – прозрачность предполагает беспрепятственный обзор работы системы (решения системы ИИ должны быть видимы людям, а не скрыты за «черным ящиком»); подотчетность относится к проверяемости системы, то есть должно быть очевидно, кто несет ответственность за действия системы;
д) интерпретируемость и объяснимость – система ИИ должна предлагать краткие и понятные обоснования любых решений или действий для поддержания доверия пользователей и подотчетности системы;
е) справедливость с нулевыми негативными предубеждениями – несправедливые предубеждения или дискриминация не должны учитываться при разработке системы ИИ. Это влечет за собой согласованные усилия по обнаружению и устранению любых вредных отклонений в архитектуре системы или ее результатах [6].
Отмечается, что рамочная система задумана как добровольная, защищающая права, не специфичная для конкретной отрасли и не зависящая от вариантов использования, обеспечивающая гибкость организациям всех размеров, во всех секторах и во всем обществе для реализации подходов, изложенных в Рамочной программе [8].
Вместе с тем, в анализируемом Указе подчеркивается необходимость «привлечь тех, кто разрабатывает и внедряет ИИ, к ответственности за соблюдение стандартов, защищающих от незаконной дискриминации и злоупотреблений, в том числе в системе правосудия и федеральном правительстве», поскольку «только тогда американцы смогут доверять ИИ в продвижении гражданских прав, гражданских свобод, равенства и справедливости для всех».
- Интересы американцев, которые все чаще используют, взаимодействуют или покупают ИИ и продукты с его поддержкой в своей повседневной жизни, должны быть защищены. Использование новых технологий, таких как искусственный интеллект, не освобождает организации от их юридических обязательств, а с трудом завоеванная защита потребителей важнее, чем когда-либо, в моменты технологических перемен. Федеральное правительство будет обеспечивать соблюдение существующих законов и принципов защиты потребителей и принимать соответствующие меры защиты от мошенничества, непреднамеренной предвзятости, дискриминации, нарушения конфиденциальности и другого вреда со стороны ИИ. Эта защита особенно важна в таких важнейших областях, как здравоохранение, финансовые услуги, образование, жилье, право и транспорт, где ошибки или неправильное использование ИИ могут нанести вред пациентам, нанести ущерб потребителям или малому бизнесу или поставить под угрозу безопасность или права. В то же время администрация Байдена выражает намерение «способствовать ответственному использованию ИИ, который защищает потребителей, повышает качество товаров и услуг, снижает их цены или расширяет выбор и доступность».
- Неприкосновенность частной жизни и гражданские свободы американцев должны быть защищены по мере дальнейшего развития ИИ. Искусственный интеллект упрощает извлечение, повторную идентификацию, связывание, вывод и действие на основе конфиденциальной информации о личности, местоположении, привычках и желаниях людей. Возможности искусственного интеллекта в этих областях могут увеличить риск того, что личные данные могут быть использованы и раскрыты. Для борьбы с этим риском федеральное правительство обеспечит законность, надежность и безопасность сбора, использования и хранения данных и снизит риски неприкосновенности частной жизни и конфиденциальности. Агентства должны использовать доступные политические и технические инструменты, включая технологии повышения конфиденциальности, где это необходимо, для защиты конфиденциальности и борьбы с более широкими юридическими и социальными рисками, включая ограничение прав Первой поправки, которые возникают в результате ненадлежащего сбора и использования данных людей.
- Важно управлять рисками, связанными с использованием ИИ самим федеральным правительством, и повышать его внутренний потенциал по регулированию, управлению и поддержке ответственного использования ИИ для достижения лучших результатов для американцев. Байден заявляет, что его администрация предпримет шаги по привлечению, удержанию и развитию специалистов по искусственному интеллекту, ориентированных на государственные услуги, в том числе из малообеспеченных сообществ, в различных дисциплинах, включая технологии, политику, менеджмент, закупки, нормативные, этические, управленческие и юридические области, а также облегчит специалистам по искусственному интеллекту путь в федеральное правительство, чтобы помочь использовать и управлять ИИ. Федеральное правительство будет работать над тем, чтобы все сотрудники прошли адекватную подготовку, чтобы понять преимущества, риски и ограничения ИИ для выполнения своих рабочих функций, а также модернизировать инфраструктуру информационных технологий федерального правительства, устранить бюрократические препятствия и обеспечить безопасность и использование уважающего права ИИ.
- Федеральное правительство должно проложить путь к глобальному социальному, экономическому и технологическому прогрессу, как это делали Соединенные Штаты в предыдущие эпохи прорывных инноваций и перемен. Это лидерство измеряется не только технологическими достижениями, но и созданием новаторских систем и мер безопасности, необходимых для ответственного внедрения технологий, а также созданием и продвижением этих мер безопасности вместе с остальным миром. Байден заявляет о намерении сотрудничать с международными союзниками и партнерами в разработке системы управления рисками ИИ, раскрытия потенциала ИИ во благо и продвижения общих подходов к общим проблемам: «Федеральное правительство будет стремиться продвигать ответственные принципы и действия в области безопасности и защиты ИИ с другими странами, включая наших конкурентов, одновременно возглавляя ключевые глобальные переговоры и сотрудничество, чтобы гарантировать, что ИИ приносит пользу всему миру, а не усугубляет неравенство, угрожает правам человека и причиняет вред всему миру».
В этой связи интересный пример приводит Ли Яо, отмечая, что «…в последнее время в США также все больше осознают угрозу генеративного ИИ, причем наметилась тенденция к заимствованию европейской модели регулирования: 11.07.2023 в ответ на основные достижения в области технологий генеративного ИИ, а также на важные вопросы, которые эти технологии ставят в таких областях, как интеллектуальная собственность и безопасность человека, Глобальный совет технологической политики Ассоциации вычислительной техники США (ACM TPC) выпустил “Принципы разработки, развертывания и использования генеративных технологий искусственного интеллекта”. Данный документ совместно подготовлен и принят Комитетом по технологической политике ACM (USTPC) и Европейским комитетом по технологической политике (Europe TPC). Новые принципы признают, что “растущая мощь систем генеративного ИИ, темпы их эволюции, их широкое применение и потенциал причинения значительного или катастрофического ущерба означают, что необходимо проявлять осторожность при их исследовании, проектировании, разработке, развертывании и использовании. Нынешних механизмов и способов предотвращения такого вреда, вероятно, не будет достаточно”. Однако документ является лишь рекомендацией, а не законодательным актом», – констатирует исследователь [3, c. 252–253].
Примечательно, что 24 апреля 2024 г. на сайте Белого дома появилась информация, что федеральные агентства завершили все 180-дневные действия в рамках Указа в соответствии с графиком, следуя своим недавним успехам в своевременном выполнении каждого 90-дневного, 120-дневного и 150-дневного действия. Учреждения также продвинулись в выполнении другой работы, поставленной Указа в более длительные сроки[9].
Итак, Указ Байдена об искусственном интеллекте устанавливает стандарты безопасности, защиты конфиденциальности и основывается на добровольных обязательствах, принятых уже более чем десятью компаниями. Отмечается и интерес к принятию законов об ИИ членами Конгресса, речь идет, в частности, о двух законопроектах: Законе об основополагающем понимании применимости и реалистичной эволюции искусственного интеллекта от 2017 г. (Fundamentally Understanding The Usability and Realistic Evolution of Artificial Intelligence Act of 2017, FUTURE of AI Act)[10] и Законе о национальной инициативе в области искусственного интеллекта от 2020 года (National Artificial Intelligence Initiative Act of 2020)[11]. Оба этих законопроекта приняты и стали составной частью Кодекса Соединённых Штатов Америки (United States Code, U.S.C.)[12].
Сенаторы Блюменталь и Хоули заявили, что приветствуют закон, устанавливающий процесс лицензирования сложных моделей ИИ, независимое федеральное ведомство по надзору за ИИ и ответственность компаний за нарушение конфиденциальности и гражданских прав. Среди более узконаправленных законопроектов, предложенных на данный момент, журналисты отмечают запрет правительству США использовать автоматизированную систему для запуска ядерного оружия без участия человека; запрет на то, чтобы изображения, созданные ИИ, были четко обозначены в политической рекламе. По данным Национальной конференции законодательных собраний штатов, в 2023 году как минимум 25 штатов США рассмотрели законопроекты, связанные с ИИ, и 15 приняли законы или резолюции [7].
Несмотря на то, что всеобъемлющая стратегия правового регулирования общественных отношений по поводу использования ИИ в США еще не сформировалась, проведенный анализ показал, что в этой стране заложены фундаментальные принципы, позволяющие, по крайней мере, декларировать американским гражданам, что власти принимают меры по защите их прав и свобод. Параллельно с этим в США активнейшим образом формируется правовая и экономическая база для укрепления технологического преимущества в сфере искусственного интеллекта, применяемого в обеспечении национальной безопасности, вооружениях и разведывательной деятельности, и эта вторая – не столь очевидная регуляторная деятельность – наряду с первой должна стать предметом тщательного изучения в странах, осознающих необходимость развития технологии искусственного интеллекта.