• +7 (3952) 79-88-99
  • prolaw38@mail.ru

ЗЛОНАМЕРЕННОЕ ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ОБСУДИЛИ В РАМКАХ XIII МЕЖДУНАРОДНОГО IT-ФОРУМА

Пролог: журнал о праве. – 2022. – № 2. – С. 105 – 114.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2022.2.12.
Дата поступления 12.06.2022, дата принятия к печати 15.06.2022, дата онлайн-размещения 30.06.2022.

Разработка новых технологий в сфере искусственного интеллекта и расширение их применения в повседневной жизни подразумевают масштабные социальные и политические последствия как на национальном, так и на глобальном уровнях. Данные последствия отражаются как в кооперативных взаимодействиях, таких как совместная выработка стратегий развития на уровне межгосударственных объединений, создании этических кодексов искусственного интеллекта, так и в деструктивных тенденциях применения искусственного интеллекта террористическими группировками, экстремистами и конфликтующими государствами, злоупотреблений и манипуляций общественных мнением со стороны транснациональных IT-корпораций и т.д. Темпы разработки и распространения искусственного интеллекта в пользовательской среде требуют, помимо осмысления актуальных трендов, прогнозирования их динамики и содержания с учётом международных политических и экономических вызовов, стоящих перед современным обществом. Предлагаемый обзор конференции представляет результаты данных осмысления и прогнозирования, озвученные авторитетными экспертами в области политических, юридических и технических наук в рамках конференции на базе XIII международного IT-форума с участием стран БРИКС и ШОС.

Искусственный интеллект; злонамеренное использование искусственного интеллекта; международная информационно-психологическая безопасность; этика искусственного интеллекта; фейковые новости; терроризм; Big Tech; Европейский Союз; Африка.

Матяшова Д.О. Злонамеренное использование искусственного интеллекта обсудили в рамках XIII международного IT-форума // Пролог: журнал о праве. – 2022. – № 2. – С. 105 – 114. – DOI: 10.21639/2313-6715.2022.2.12.

УДК
Информация о статье

Пролог: журнал о праве. – 2022. – № 2. – С. 105 – 114.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2022.2.12.
Дата поступления 12.06.2022, дата принятия к печати 15.06.2022, дата онлайн-размещения 30.06.2022.

Аннотация

Разработка новых технологий в сфере искусственного интеллекта и расширение их применения в повседневной жизни подразумевают масштабные социальные и политические последствия как на национальном, так и на глобальном уровнях. Данные последствия отражаются как в кооперативных взаимодействиях, таких как совместная выработка стратегий развития на уровне межгосударственных объединений, создании этических кодексов искусственного интеллекта, так и в деструктивных тенденциях применения искусственного интеллекта террористическими группировками, экстремистами и конфликтующими государствами, злоупотреблений и манипуляций общественных мнением со стороны транснациональных IT-корпораций и т.д. Темпы разработки и распространения искусственного интеллекта в пользовательской среде требуют, помимо осмысления актуальных трендов, прогнозирования их динамики и содержания с учётом международных политических и экономических вызовов, стоящих перед современным обществом. Предлагаемый обзор конференции представляет результаты данных осмысления и прогнозирования, озвученные авторитетными экспертами в области политических, юридических и технических наук в рамках конференции на базе XIII международного IT-форума с участием стран БРИКС и ШОС.

Ключевые слова

Искусственный интеллект; злонамеренное использование искусственного интеллекта; международная информационно-психологическая безопасность; этика искусственного интеллекта; фейковые новости; терроризм; Big Tech; Европейский Союз; Африка.

Для цитирования

Матяшова Д.О. Злонамеренное использование искусственного интеллекта обсудили в рамках XIII международного IT-форума // Пролог: журнал о праве. – 2022. – № 2. – С. 105 – 114. – DOI: 10.21639/2313-6715.2022.2.12.

Финансирование

About article in English

UDC
Publication data

Prologue: Law Journal, 2022, no. 2, pp. 105 – 114.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2022.2.12.
Received 12.06.2022, accepted 15.06.2022, available online 30.06.2022.

Abstract

Development of the new technologies in the sphere of artificial intelligence and expanding their application for our everyday life supposes large-scale social and political consequences on the national and global levels. The mentioned above consequences are reflected on cooperative interactions like mutual development of strategies on the level of interstate associations, creating ethical codes of artificial intelligence as well as taking into account destructive tendencies of application of artificial intelligence by terrorist organizations, extremists and conflicting states. It also can be applied for malpractice and social opinion manipulation from the side of transnational IT-corporations etc. The pace of development and spreading of artificial intelligence by users demand, besides comprehension of current trends, prognosis of its dynamics and content taking into account international political and economic challenges that modern society faces. The suggested review of the conference presents the results of the mentioned comprehension and prognosis that were announced by reputable experts in the area of political, legal and technical sciences in the frame of the conference on the basis of XIII International IT-Forum with BRICS and SCO participation.

Keywords

Artificial intelligence; malicious use of artificial intelligence; international informational and psychological security; ethics of international intelligence; fake news; terrorism; Big Tech; European Union; Africa.

For citation

Matyashova D.О. Malicious Use of Artificial Intelligence Discussed in the Framework of the XIII International IT-forum. Prologue: Law Journal, 2022, no. 2, pp. 105 – 114. (In Russian). DOI: 10.21639/2313-6715.2022.2.12.

Acknowledgements

7–9 июня 2022 года в г. Ханты-Мансийск прошел XIII Международный IT-форум с участием стран БРИКС и ШОС, который объединил более 5000 участников из разных стран мира.

В рамках форума был проведен ряд международных конференций, среди них – IV международная конференция «Информация и коммуникация в цифровую эпоху: явные и неявные воздействия», организованная Правительством Ханты-Мансийского автономного округа – Югры, Министерством цифрового развития, связи и массовых коммуникаций Российской Федерации, Комиссией РФ по делам ЮНЕСКО, Российским комитетом Программы ЮНЕСКО «Информация для всех» и Межрегиональным центром библиотечного сотрудничества. Конференцию открыли губернатор Югры Наталья Владимировна Комарова и послы ряда стран.

Отдельная секция конференции была посвящена угрозам злонамеренного использования искусственного интеллекта (ЗИИИ) и вызовам информационно-психологической безопасности. Председателем секции выступил ведущий научный сотрудник Дипломатической академии МИД России и координатор Международной группы исследователей угроз информационно-психологической безопасности посредством злонамеренного использования ИИ (Research MUAI), доктор исторических наук, профессор Евгений Николаевич Пашенцев. В своем вступительном слове он подчеркнул, что практически все этические кодексы искусственного интеллекта (ИИ), принимаемые в разных странах, говорят о ЗИИИ лишь мельком либо не упоминают о нём вообще, несмотря на количественный и качественный рост этой масштабной угрозы. Между тем, ЗИИИ и информационно-психологическая безопасность должны оказаться в фокусе внимания экспертов и политиков уже сейчас, поскольку на определенном этапе качественного развития ИИ злонамеренное использование данной технологии способно стать эффективным средством тотального контроля и управления, а не просто одним из каналов пропаганды (как радио, телевидение или интернет). По словам Е. Н. Пашенцева, против ЗИИИ необходимо уже сейчас принимать соответствующие меры, поскольку проникновение в нашу жизнь ИИ носит повседневный характер, а степень угрозы, исходящей от злонамеренного использования ИИ, быстро растет. В то же время она далеко еще не осознается адекватно большей частью общества.

Рис. 1. Арвинд Гупта

Доклад руководителя фонда «Digital India» Арвинда Гупты «Определяется ли то, что мы видим, читаем и потребляем, алгоритмами? И если да, то в каких этических рамках?» затронул аспект монополизма крупных технологических компаний в критических областях, таких как операционные системы, платежная архитектура, электронная коммерция, социальные медиа, реклама. Одной из проблем становится сужение аутсорсинга производства важнейших цифровых ресурсов до нескольких государств. Другим вызовом является отсутствие ответственности данных компаний за дезинформацию в социальных сетях. Дизайн алгоритмов, служащих целям компаний, приводит к распространению фейковых новостей: персонализированные рекомендации создают эхо-камеры и подтверждают предвзятые суждения, управление которыми осуществляется с помощью ботов. В совокупности это подрывает основополагающий принцип взаимосвязанного мира: нейтральность контента. Для преодоления данных проблем А. Гупта выдвинул такие рекомендации, как обеспечение открытого доступа к алгоритмам для исследователей, стимулирование изучения ИИ, гармонизация политики в отношении алгоритмов в разных странах, введение законодательства, определяющего различные типы информации: личную, конфиденциальную, важную и т. д., запрет таргетированной рекламы, локальное производство компонентов стратегических производств. Крайне важны также продвижение многостороннего регулирования новых технологий, межотраслевое сотрудничество для выработки этических норм управления ИИ, а также международные соглашения о прекращении использования цифровых технологий в качестве оружия.

Рис. 2. Выступление Е. Н. Пашенцева

Е. Н. Пашенцев в докладе «Злонамеренное использование ИИ в определении повестки дня: тенденции и перспективы в условиях нарастания мирового кризиса»[1] подчеркнул, что многочисленные положительные стороны использования ИИ несомненны, однако в связи с нарастанием социально-политических и экономических противоречий в современном обществе, обострением геополитического соперничества и усилением международной напряженности можно предположить, что масштабное злонамеренное использование ИИ при установлении повестки дня уже наблюдается на национальном и глобальном уровнях в формах дезинформационных кампаний. При этом ни государства, ни транснациональные корпорации не берут на себя ответственность за это. Как и в традиционных формах пропаганды, они обвиняют только своих оппонентов и публично не признают, что сами активно прибегают к пропаганде.

Преимущества использования ИИ в установлении повестки дня, по мнению Е. Н. Пашенцева, становятся все теснее связанными с количественными и качественными изменениями традиционных механизмов производства, доставки и управления информацией, новыми возможностями для психологического воздействия на людей и для ведения информационно-психологического противоборства. Измерениями этих изменений, в частности, являются:

(1) объем производимой и получаемой информации,

(2) скорость, с которой информация может быть создана и распространена,

(3) правдоподобность информации,

(4) сила интеллектуального и эмоционального воздействия,

(5) новые возможности аналитической обработки данных,

(6) использование ресурсов прогнозной аналитики на основе ИИ,

(7) новые методы убеждения и

(8) новые возможности интеграции ИИ в процесс принятия решений.

Докладчик сделал предварительный вывод, что преимущества 1 и 2 уже достигнуты, тогда как преимущества 3–8 находятся в стадии разработки и фрагментарно внедрены в общественную практику.

Использование ИИ в радиовещании, кино, телевидении и рекламе быстро растет, а его влияние на общество проявляется в различных формах. Так, исследователи Ланкастерского и Калифорнийского университетов установили, что средний уровень доверия, который вызывают изображения людей, созданные ИИ, на 7,7% выше, чем средний уровень доверия изображениям реальных людей [4]. В связи с кризисом в мировой экономике, деградацией демократических институтов во многих странах и обостряющимся геополитическим соперничеством ЗИИИ в установлении повестки дня могут осуществлять люди разного возраста, пола, расы, нации или политической ориентации. Перераспределение материальных средств в пользу сверхбогатых за годы коронавирусной пандемии не просто усиливает социально-политическую напряженность в обществе, но и создает дополнительные возможности и стимулы для роста ЗИИИ. Рост совокупного состояния сверхбогатых с 8 до 13 трлн. долларов в кризисный 2020 год [1] на фоне рекордного экономического спада за последние десятилетия; новые сотни миллионов безработных; рост, по данным ООН, числа голодающих в мире с 690 млн. в 2019 г. [2] до 811 млн. в 2020 г.[2] не способствует решению этих и других острых проблем современности. Особую опасность представляет концентрация финансовых и интеллектуальных ресурсов немногочисленными частными информационными группами, которые часто активно используют ИИ в своекорыстных целях. Шесть из десяти крупнейших личных состояний в мире принадлежат владельцам Amazon (1), Microsoft (2), Google (2) и Facebook (1)[3]. В конце 2019 года совокупная рыночная капитализация пяти крупных технологических компаний – Alphabet, Amazon, Apple, Microsoft и Facebook (все основаны на разработках в сфере ИИ) –  составила 4,9 трлн. долларов, что означает, что за один кризисный год они выросли на 52 % – до $7,5 трлн. в конце 2020 г. Вместе с растущим технологическим гигантом Tesla Inc. Илона Маска эти шесть компаний в совокупности стоили в 2021 г. почти 11 трлн. долларов [3].

В недалеком будущем национальные и наднациональные антидемократические режимы с помощью технологий ИИ смогут удерживать население под своим контролем качественно эффективнее, чем аналогичные современные режимы. Такие режимы в странах со значительным военным и экономическим потенциалом смогут совершать акты информационно-психологической агрессии против других государств, тем самым превращая повестку дня в важный элемент гибридной войны. Следует иметь в виду, что относительная дешевизна и простота передачи программного обеспечения ИИ, а также привлечение специалистов ИИ к преступной деятельности позволяют проводить психологические операции посредством ИИ относительно небольшим группам людей, что может дестабилизировать обстановку на национальном или даже глобальном уровне. Однако это лишь подчеркивает важность умелого использования технологий ИИ социально ориентированными силами не только на уровне государственного управления, но и через различные структуры гражданского общества, с целью нейтрализации угроз информационно-психологической безопасности общества.

Ведущий научный сотрудник Института Европы Российской академии наук, член Research MUAI Дарья Юрьевна Базаркина представила доклад «Искусственный интеллект в руках террористов: пути воздействия на общественное сознание», в котором очертила текущие и будущие угрозы использования ИИ террористическими организациями и террористами-одиночками. Она отметила, что коммуникация остается одним из основных аспектов террористической деятельности. Террористическая пропаганда, вербовка и поиск финансирования не просто происходят в цифровой среде, а подразумевают использование широкого спектра технологий: новых средств шифрования, криптовалют, операций в даркнете. В то же время все больше преступлений совершается с помощью инструментов социальной инженерии (психологических манипуляций с целью побудить человека совершить определенные действия или поделиться конфиденциальной информацией). Учитывая конвергенцию терроризма и киберпреступности, террористические организации и террористы-одиночки могут активно использовать механизмы социальной инженерии в своих психологических операциях.

Рис. 3. Выступление Д. Ю. Базаркиной

Эта угроза может стать еще более актуальной в связи с развитием и распространением технологий ИИ, которые при злонамеренном использовании могут облегчить задачи социальной инженерии даже преступникам, не обладающим специальными техническими знаниями. Так, еще в 2015 году запрещенная в России организация «Исламское государство» (ИГ) создала тысячи ботов в «Twitter» для пропаганды, сбора средств и вербовки, а также для подавления оппонентов. Террористы использовали ботов не только для продвижения и формирования повестки дня, но и для координации активных и потенциальных боевиков и, как следствие, для расширения своей аудитории среди активных пользователей существующих продуктов ИИ. О том, что в целях социальной инженерии террористы хотели бы привлечь в свои ряды не только пользователей, но и разработчиков ИИ, свидетельствуют открытые объявления. В марте 2021 года медиа-группа, связанная с «Аль-Каидой», призвала сторонников создавать платформы для поддержки организации в мессенджере «Telegram». Через Telegram-бота медиагруппа регулярно обращается к волонтерам за помощью в создании медиаконтента или даже в хакинге. Таким образом, несмотря на свою архаичную идеологию, террористические организации намерены использовать все средства, даже самые передовые, для ее продвижения.

Террористическая пропаганда в странах ЕС в настоящее время направлена на побуждение лиц к совершению террористических актов в местах их проживания. Предлагаемые инструменты для совершения террористических актов включали в себя дроны и аэростатные зажигательные устройства. Теоретически даже использование террористами современной робототехники, в первую очередь беспилотных летательных аппаратов, несет в себе элемент социальной инженерии, поскольку у людей, использующих автономные технологии, может снижаться способность принимать решения, связанные с моральным выбором, самоконтролем или эмпатией. В случае с террористической организацией это может быть преднамеренное снятие личной ответственности с лица, совершившего террористический акт. В то же время, по словам Д. Ю. Базаркиной, социальная инженерия в узком смысле (психологические манипуляции с целью получения паролей и других конфиденциальных данных) также используется террористическими группировками.

Исследователь из Италии Питер Мантелло в докладе «Автоматизация экстремизма: сопоставление аффективных ролей искусственного интеллекта» отметил, что массовые кампании политической идеологической обработки ранее когда-то были прерогативой государства. Однако сегодня распространение недорогих или даже бесплатных ботов, которых легко создать, снизило порог входа в информационную войну для экстремистских организаций, позволив им установить аффективные связи с пользователями социальных сетей и мобилизовывать их через это на радикальные и насильственные действия.

Рис. 4. Выступление П. Мантелло

По словам П. Мантелло, одной из самых быстрорастущих областей развития искусственного интеллекта является интерактивное программное обеспечение, развертываемое в социальных сетях для имитации человеческих «активностей» или усиления их эффективности в различных целях. Такое программное обеспечение – интеллектуальные агенты, обычно называемые «веб-роботами», «социальными» или «чат-ботами» – выполняет множество функций: автоматическое создание сообщений, продвижение идей, подражание в пользователям-«сторонникам» или пользователям-«агентам». Диалоговые программные приложения в настоящее время дополняют и заменяют человека в постоянно расширяющемся спектре областей – рекламе, финансах, консультировании по вопросам психического здоровья, даже свиданиий. ИИ может обучаться на материалах взаимодействий в социальных сетях, новостных статьях и другом текстовом контенте, что позволит им «понимать» контекст ситуации, историю и этику, чтобы взаимодействовать более «человечно». П. Мантелло отметил, что подобные достижения позволяют интеллектуальным агентам считывать эмоциональное состояние пользователей и реагировать соответствующим «эмоциональным» образом, повышая антропоморфную привлекательность ИИ.

Как и другие приложения ИИ, социальные боты, вероятно, должны были стать инструментами для достижения общественного блага, но их неправомерное и злонамеренное использование негосударственными и государственными субъектами – уже реальность. Враждующие государства и негосударственные акторы используют социальных ботов, чтобы увеличивать скорость и масштаб распространения дезинформации в Интернете, создавать фальшивые учетные записи в социальных сетях, собирать личные данные ничего не подозревающих пользователей, выдавать себя за друзей или соратников пользователя, а также манипулировать политическими коммуникациями. В руках воинствующих экстремистских организаций боты на основе ИИ быстро заменяют людей-пропагандистов, вербовщиков и наёмных троллей. В настоящее время такие боты также используются для вербовки неонацистов в Германии и сторонников превосходства белой расы в США. Организации типа «Аль-Каиды» или ИГ имеют самый большой опыт и самые широкие сети в социальных сетях и, таким образом, представляют собой наиболее опасный и тревожный пример этой тенденции в глобальном масштабе. Исследователь также подчеркнул растущую зависимость современной войны от интеллектуальных машин и ее особую ценность для сторон, обладающих меньшими ресурсами или традиционным оружием в асимметричном конфликте.

Начальник отдела научных исследований Иркутского института (филиала) Всероссийского государственного университета юстиции Анна Михайловна Бычкова в докладе «Международно-правовые аспекты противодействия угрозам информационно-психологической безопасности посредством злонамеренного использования искусственного интеллекта» доказала важность перехода от нравственных регуляторов ИИ к правовым: прошло время защищать информационно-психологическую безопасность, апеллируя к нормам этики – наступает время норм права. Однако правовые нормы наследуют нормам этическим. Осознание рисков использования ИИ привело к разработке этических норм на уровне отдельных стран. Выбрав для сравнения Россию и Китай, а.М. Бычкова указала, что если российский «Кодекс этики в сфере ИИ» – акт рекомендательного характера, содержащий этические нормы в сфере искусственного интеллекта и устанавливающий общие принципы, а также стандарты поведения для акторов в сфере ИИ, то подход Китая принципиально иной. Этика в сфере ИИ не является самостоятельным предметом рассмотрения, а вместе с законодательством и регулированием ИИ составляет триаду, определяющую главную цель – создание ИИ, которому люди могут доверять (Trustworthy AI). Планирование, разработка и внедрение практик обеспечения каждой из характеристик такого ИИ ведется на корпоративном уровне, система стандартов и контроля для всех практик разрабатывается на отраслевом уровне (совместная ответственность отраслевых объединений и государства).

Рис. 5. А. М. Бычкова

А.М. Бычкова также обозначила высокую роль и значение «Рекомендации об этических аспектах искусственного интеллекта», принятой на Генеральной конференции Организации Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО) 16 ноября 2021 г. Отмечено, что Россия является инициатором двух важнейших международных договоров: в 2011 году Россия предложила к обсуждению проект Концепции Конвенции ООН об обеспечении международной информационной безопасности, в 2021 году – более узкий проект Конвенции ООН о противодействии использованию информационно-коммуникационных технологий в преступных целях (внесен в ООН 27 июля 2021 г.). Таким образом Россия стала первой страной, разработавшей и представившей в спецкомитет ООН проект универсальной конвенции, посвященной противодействию информационной преступности. Безусловно, это важный шаг к оздоровлению информационно-психологической безопасности в целом через частные случаи противодействия киберпреступности. Но для преодоления угроз международной информационной безопасности (и психологической безопасности как важной её составляющей) чрезвычайно важно вернуться к обсуждению Концепции Конвенции ООН об обеспечении международной информационной безопасности, обновленный вариант которой представлен в 2021 г.

Рис. 6. С. А. Себекин

Сергей Александрович Себекин, старший преподаватель Иркутского государственного университета, в докладе «Проблемы классификации злонамеренного использования искусственного интеллекта в целях подрыва информационно-психологической безопасности как акта агрессии в международном праве» указал, что существующее «традиционное» международное право пока не приспособлено к рассмотрению ЗИИИ как актов агрессии, поскольку было сформировано в «доинформационную индустриальную» эпоху, когда решающим фактором достижения военно-политических задач и влияния на стратегическую обстановку являлись обычные вооружения. В то же время потребность такой правовой классификации уже назрела.

Феномен злонамеренного информационно-психологического воздействия посредством ИИ «дуален»: с одной стороны – это характер воздействия, который является информационно-психологическим, воздействуя на мысли и сознание людей, и который применяется уже на протяжении нескольких сотен лет; с другой стороны – это инструмент воздействия – в перспективе ожидается полномасштабное применение ИИ в военных операциях. Ни одна из вышеописанных составляющих этого сложносоставного воздействия в полной мере не попадает в поле регулирования международного права с точки зрения их квалифицирования как акта агрессии.

Представляется, что главным критерием, по которому злонамеренное использование ИИ в целях подрыва информационно-психологической безопасности будет квалифицироваться как акт агрессии, являются произведённые эффекты и последствия от таких воздействий. Таким образом, решение вопроса квалифицирования применения ИИ в целях психологической дестабилизации требует поиска эквивалентных акту агрессии эффектов, которые в данном случае могут выражаться через социально-политические, экономические и физические последствия.

Рис. 7. В. А. Романовский

Виталий Анатольевич Романовский, главный советник Белорусского института стратегических исследований, представил доклад «Злонамеренное использование искусственного интеллекта для дезинформации и формирования повестки дня: современная практика в странах Африки». В.А. Романовский указал, что цифровая дезинформация и формирование повестки дня становятся все более распространенной чертой внутриполитического ландшафта Африки. Например, в отчете «Промышленная дезинформация: глобальный перечень организованных манипуляций в социальных сетях за 2020 год» исследователи Оксфордского университета обнаружили доказательства того, что в 81 стране мира социальные сети использовались для распространения пропаганды и дезинформации о политике. Среди этих стран – Тунис, Ливия, Египет, Судан, Гана, Нигерия, Эфиопия, Кения, Ангола, Зимбабве и др. Более того, по данным Национального демократического института, с 1 января 2020 года по 31 июля 2021 года в африканских государствах было проведено 32 различных электоральных кампании, для характеристики которых  межправительственные и неправительственные организации использовали термин «фейковые новости».

По мнению В. А. Романовского, ввиду растущих свидетельств политически мотивированного манипулирования СМИ в нескольких африканских государствах разумно поддержать предположение о том, что технологии дипфейков на основе ИИ, вероятно, будут чаще использоваться для определения повестки дня. Это предположение подтверждается отчетом Европола 2022 года «Правоохранительные органы и вызов дипфейков», в котором говорится, что технология может способствовать различным видам преступной деятельности, включая распространение дезинформации, манипулирование общественным мнением и поддержку нарративов экстремистских или террористических групп. Национальным правительствам следует разработать более последовательную политику противодействия дезинформации. Например, можно было бы рассмотреть вопрос о создании специализированной государственной межведомственной структуры по противодействию дезинформации. Важнейшей задачей будет оперативное информирование внутренней и внешней аудитории о зарегистрированных случаях дезинформации.

Рис. 8. Выступление П.-Э. Томанна

Тему ЗИИИ рассматривали и докладчики из других секций. Так, член Research MUAI Пьер-Эммануэль Томанн, президент международной ассоциации «Eurocontinent», профессор Университета Жан Мулен, Лион III (Франция) представил доклад «Искусственный интеллект и Европа: между этикой и геополитикой великих держав». П.-Э. Томанн полагает, что системный характер и стратегический эффект от применения ЗИИИ станут реальны по мере расширения возможностей различных акторов для маневра в пространстве и времени. Великие державы, которые смогут реализовывать стратегии, опирающиеся на ИИ, достигнут превосходства в наземных, морских, воздушных, кибернетических – пространственных и когнитивных – областях, а также обретут способность к прогностическому анализу. Данные обстоятельства чреваты ниспровержением международного порядка или глобальной дестабилизацией. Исследования, посвященные геополитическим последствиям стратегического злонамеренного использования ИИ, а также его последствиям для ЕС и международной информационно-психологической безопасности, в настоящее время отсутствуют. Анализ рисков злонамеренного использования ИИ в международных отношениях, как правило, сосредоточен на угрозах демократии и возможностях их использования недемократическими режимами. Связь ИИ с международными отношениями, возможные изменения геополитической конфигурации также требуют дальнейшего изучения.

Стратегическое злонамеренное использование ИИ, вероятно, окажет решающее влияние на эволюцию геополитической конфигурации, что приведет к усилению иерархичности и неравенства и, возможно, к новому биполярному миропорядку с полюсами в США и Китае. Докладчик проанализировал точку зрения Европейского союза на эти процессы. ЕС признаёт, что США и Китай будут доминировать в сферах ИИ и цифровизации на международной геополитической арене в ближайшие годы.

До 2020 года основное внимание ЕС в отношении ИИ уделялось этическим, нормативным и экономическим аспектам в контексте регулирования общего рынка ЕС, что отражено в основной коммуникационной стратегии Союза. ЕС продвигает идею «многосторонности» в качестве международной доктрины в своей Глобальной стратегии внешней политики и политики безопасности. Однако ЕС не изменил своей доктринальной позиции в отношении многосторонности и отказывается принимать многополярную модель мироустройства. Союз продвигает стратегическую автономию, но считает себя дополнением к НАТО и США – своему главному стратегическому партнеру. Таким образом, политика ЕС де-факто способствует реализации курса США на однополярность.

Рис. 9. М. Вакарелу

Мариус Вакарелу, профессор Национальной школы политических наук и управления (Румыния) и член Research MUAI в докладе «Международная и региональная политическая конкуренция в развитии искусственного интеллекта» исходит из понимания политической конкуренции как естественной ситуации, источника технического прогресса и экономического развития. При этом определенные стандарты политической конкуренции существуют как для лидеров, так и для экономик, армий, систем образования.

М. Вакарелу поставил вопрос, могут ли разработки в области ИИ сегодня сбалансировать затраты на осуществление политической конкуренции (привести к снижению военных и экономических затрат) и станет ли ИИ важнейшим инструментом политической конкуренции в будущем. Докладчик указал, что превосходство того или иного региона в сфере ИИ может привести к новым альянсам для достижения глобальных целей и, возможно, к войнам, для которых необходимо установить предел допустимости применения силы.

Представленные доклады свидетельствуют о необходимости дальнейших междисциплинарных исследований угроз информационно-психологической безопасности, обусловленных злонамеренным использованием ИИ. В борьбе с данными угрозами уже сейчас необходимы комплексные решения, объединяющие правовые, политические, экономические, технологические, психологические и образовательные меры. Проблема злонамеренного использования ИИ вызвала живой интерес у представителей научного сообщества и в политических кругах не только в России, но и у представителей зарубежных стран, представленных на конференции.

 

Сноски

Нажмите на активную сноску снова, чтобы вернуться к чтению текста.

* Обзор подготовлен при финансовой поддержке Российского фонда фундаментальных исследований (РФФИ) и Вьетнамской Академии общественных наук (ВАОН), проект № 21-514-92001 «Злонамеренное использование искусственного интеллекта и вызовы информационно-психологической безопасности в Северо-Восточной Азии».

* The review was prepared with the financial support of the Russian Foundation for Basic Research (RFBR) and the Vietnamese Academy of Social Sciences (VASS), Project No. 21-514-92001 «Malicious Use of Artificial Intelligence and Challenges of Information and Psychological Security in Northeast Asia»).

[1] Доклад подготовлен при финансовой поддержке РФФИ и ВАОН, проект № 21-514-92001 «Злонамеренное использование искусственного интеллекта и вызовы информационно-психологической безопасности в Северо-Восточной Азии».

[2] World Health Organization. UN report: Pandemic year marked by spike in world hunger. URL: https://www.who.int/news/item/12-07-2021-un-report-pandemic-year-marked-by-spike-in-world-hunger.

[3] Forbes. The World’s Real-Time Billionaires. URL: https://www.forbes.com/real-time-billionaires/#1d7a52b83d78.

Список источников

  1. Dolan K., Wang J., Peterson-Withorn C. The Forbes World’s Billionaires list. – URL: https://www.forbes.com/billionaires/.
  2. Kretchmer H. Global hunger fell for decades, but it’s rising again. – URL: https://www.weforum.org/agenda/2020/07/global-hunger-rising-food-agriculture-organization-report/.
  3. S&P 500: largest companies by market cap 2021. – URL: from https://www.statista.com/statistics/1181188/sandp500-largest-companies-market-cap/.
  4. Suleiman E. Deepfake: A New Study Found That People Trust “AI” Fake Faces More Than Real Ones. – URL: https://reclaimthefacts.com/en/2022/03/25/deepfake-a-new-study-found-that-people-trust-ai-fake-faces-more-than-real-ones/.

References

  1. Dolan K., Wang J., Peterson-Withorn C. The Forbes World’s Billionaires list. URL: https://www.forbes.com/billionaires/.
  2. Kretchmer H. Global hunger fell for decades, but it’s rising again. URL: https://www.weforum.org/agenda/2020/07/global-hunger-rising-food-agriculture-organization-report/.
  3. S&P 500: largest companies by market cap 2021. URL: https://www.statista.com/statistics/1181188/sandp500-largest-companies-market-cap/.
  4. Suleiman E. Deepfake: A New Study Found That People Trust “AI” Fake Faces More Than Real Ones. URL: https://reclaimthefacts.com/en/2022/03/25/deepfake-a-new-study-found-that-people-trust-ai-fake-faces-more-than-real-ones/.