• +7 (3952) 79-88-99
  • prolaw38@mail.ru

ПРОБЛЕМЫ ЗЛОНАМЕРЕННОГО ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КОНТЕКСТЕ МЕЖДУНАРОДНОЙ ИНФОРМАЦИОННО-ПСИХОЛОГИЧЕСКОЙ БЕЗОПАСНОСТИ НА КРУГЛОМ СТОЛЕ В ДИПЛОМАТИЧЕСКОЙ АКАДЕМИИ МИД РФ

Пролог: журнал о праве. – 2021. – № 4. – С. 109 – 123.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2021.4.12.
Дата поступления 01.12.2021, дата принятия к печати 15.12.2021,
дата онлайн-размещения 29.12.2021.

Стремительное развитие технологий на основе искусственного интеллекта, кроме очевидных экономических и технологических преимуществ, несет в себе вызовы и угрозы, связанные с использованием данных технологий антисоциальными акторами в злонамеренных целях. Один из важнейших аспектов изучения подобных угроз – анализ их влияния на архитектуру международной информационно-психологической безопасности. На направлении предупреждения и противодействия угрозам злонамеренного использования искусственного интеллекта большое внимание должно быть уделено выработке социально-ориентированной системы упреждающих технических, политических и юридических мер и механизмов. Достижение данной цели возможно только при экспертном поиске и выработке на государственном уровне допустимых и эффективных научно обоснованных решений для укрепления системы национальной, а впоследствии и международной безопасности. Данный аналитический обзор представляет основные идеи, прогнозы и решения, озвученные авторитетными экспертами в области политических, исторических, экономических, технических наук на круглом столе в Институте актуальных международных проблем Дипломатической академии Министерства иностранных дел Российской Федерации.

Искусственный интеллект; злонамеренное использование искусственного интеллекта; международная информационно-психологическая безопасность; экспертные оценки; Big Tech; терроризм; информационно-политическое влияние; сильный искусственный интеллект; КНР; круглый стол.

Михалевич Е.А., Урумов А.О. Проблемы злонамеренного использования искусственного интеллекта в контексте международной информационно-психологической безопасности на круглом столе в Дипломатической академии МИД РФ // Пролог: журнал о праве. – 2021. – № 4. – С. 109 – 123. – DOI: 10.21639/2313-6715.2021.4.12.

Информация о статье

Пролог: журнал о праве. – 2021. – № 4. – С. 109 – 123.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2021.4.12.
Дата поступления 01.12.2021, дата принятия к печати 15.12.2021,
дата онлайн-размещения 29.12.2021.

Аннотация

Стремительное развитие технологий на основе искусственного интеллекта, кроме очевидных экономических и технологических преимуществ, несет в себе вызовы и угрозы, связанные с использованием данных технологий антисоциальными акторами в злонамеренных целях. Один из важнейших аспектов изучения подобных угроз – анализ их влияния на архитектуру международной информационно-психологической безопасности. На направлении предупреждения и противодействия угрозам злонамеренного использования искусственного интеллекта большое внимание должно быть уделено выработке социально-ориентированной системы упреждающих технических, политических и юридических мер и механизмов. Достижение данной цели возможно только при экспертном поиске и выработке на государственном уровне допустимых и эффективных научно обоснованных решений для укрепления системы национальной, а впоследствии и международной безопасности. Данный аналитический обзор представляет основные идеи, прогнозы и решения, озвученные авторитетными экспертами в области политических, исторических, экономических, технических наук на круглом столе в Институте актуальных международных проблем Дипломатической академии Министерства иностранных дел Российской Федерации.

Ключевые слова

Искусственный интеллект; злонамеренное использование искусственного интеллекта; международная информационно-психологическая безопасность; экспертные оценки; Big Tech; терроризм; информационно-политическое влияние; сильный искусственный интеллект; КНР; круглый стол.

Библиографическое описание

Михалевич Е.А., Урумов А.О. Проблемы злонамеренного использования искусственного интеллекта в контексте международной информационно-психологической безопасности на круглом столе в Дипломатической академии МИД РФ // Пролог: журнал о праве. – 2021. – № 4. – С. 109 – 123. – DOI: 10.21639/2313-6715.2021.4.12.

About article in English

Publication data

Prologue: Law Journal, 2021, no. 4, pp. 109 – 123.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2021.4.12.
Received 01.12.2021, accepted 15.12.2021, available online 29.12.2021.

Abstaract

The rapid development of technologies based on artificial intelligence, in addition to obvious economic and technological advantages, carries challenges and threats associated with the use of these technologies by antisocial actors for malicious purposes. One of the most important aspects of studying such threats is the analysis of their impact on the architecture of international information and psychological security. In the direction of preventing and countering the threats of the malicious use of artificial intelligence, great attention should be paid to the development of a socially oriented system of proactive technical, political and legal measures and mechanisms. Achievement of this goal is possible only with an expert search and development at the state level of admissible and effective scientifically based decisions to strengthen the system of national, and subsequently international security. This analytical review presents the main ideas, forecasts and solutions voiced by authoritative experts in the field of political, historical, economic, technical sciences at the round table at the Institute of Topical International Problems of the Diplomatic Academy of the Ministry of Foreign Affairs of the Russian Federation.

Keywords

Artificial intelligence; malicious use of artificial intelligence; international information and psychological security; expert assessments; Big Tech; terrorism; information and political influence; strong artificial intelligence; China; round table.

Bibliographic description

Mikhalevich E.A., Urumov A.O. Problems of the Malicious Use of Artificial Intelligence in the Context of International Psychological Security at the Round Table in the Diplomatic MFA RF Academy. Prologue: Law Journal, 2021, no. 4, pp. 109 – 123. (In Russian). DOI: 10.21639/2313-6715.2021.4.12.

25 ноября 2021 г. в Институте актуальных международных проблем Дипломатической академии МИД РФ состоялся круглый стол на тему «Злонамеренное использование искусственного интеллекта и международная информационно-психологическая безопасность». Мероприятие началось с приветственного слова проректора по науке Дипломатической академии, директора Института актуальных международных проблем д.п.н., д.ю.н. Олега Геннадьевича Карповича, в котором он подчеркнул научно-практическую значимость темы круглого стола и пожелал успехов в его проведении.

Рис. 1. Приветственное слово О.Г. Карповича (дистанционно)

 

Выступление модератора круглого стола, ведущего научного сотрудника ИАМП ДА МИД РФ д.и.н. Евгения Николаевича Пашенцева, началось с подведения итогов международного экспертного опроса на тему: «Злонамеренное использование искусственного интеллекта и вызовы международной информационно-психологической безопасности» [1], проведенного им среди 19 экспертов из 10 стран[1]. Опрос проводился в рамках проекта «Злонамеренное использование искусственного интеллекта и вызовы информационно-психологической безопасности в Северо-Восточной Азии», спонсируемого РФФИ и ВАОН (проект №21-514-92001). Вопросы экспертам делились на 3 группы: общие угрозы международной информационно-психологической безопасности (МИПБ), обусловленные злонамеренным использованием искусственного интеллекта (ЗИИИ), с настоящего момента до 2030 года; угрозы информационно-психологической безопасности (ИПБ), обусловленные ЗИИИ, в странах проживания экспертов, а также вопросы, связанные с ситуацией ЗИИИ и МИПБ в Северо-Восточной Азии (СВА). СВА в качестве исследования была выбрана по причине того, что технологии искусственного интеллекта (ИИ) в регионе находятся на достаточно высоком уровне. Закономерно с этим получил развитие и фактор ЗИИИ.

Для проведения опроса была составлена информационная база из 58 экспертов из 14 стран мира, 19 экспертов откликнулись положительно и представили свои ответы. Экспертная база представителей СВА будет дополнена и использована в рамках следующего опроса. Достоверность результатов опроса, проведенного Е.Н. Пашенцевым, подтверждает то, что 7 специалистов из 19 являются экспертами, участниками официальных проектов по проблемам ИИ и информационной безопасности на уровне правительственных и законодательных органов своих стран, ООН, бизнес-стартапов. Участникам опроса было предложено выбрать опцию, отражающую их точку зрения на угрозу влияния ЗИИИ на МИПБ.

Около 10% экспертов считают, что подобное влияние незначительно, 56% выбрали опцию «значительное влияние», 22% экспертов уверены, что влияние носит сильный характер. Опция «не признаю наличие подобных угроз» не была выбрана ни одним из экспертов. Большинство экспертов полагают, что ситуация ухудшится к 2030 г.: 53% экспертов ответили, что ЗИИИ будет «сильно» повышать угрозы МИПБ и 47% ответили «заметно». Опции «незначительно» и «не признаю подобных угроз» не были выбраны ни одним экспертом.

Основной угрозой, исходя из результатов опроса, является целенаправленное комплексное воздействие на психику больших целевых групп с целью получения конкретных политических дивидендов за счет психологического управления целевыми аудиториями. Благодаря развитию технологий ИИ данная угроза уже стала существенным фактором, оказывающим непосредственное влияние на повседневную реальность. Манипулирование информационной повесткой дня, применение технологий ИИ для деструкции процесса управления, злонамеренное использование эмоционального ИИ и другие сферы ЗИИИ оставляют широкое поле для дискуссий, хотя многие эксперты обратили внимание на особую опасность качественного повышения уровня манипулирования общественным сознанием при помощи ИИ.

Большинство экспертов пришли ко мнению о необходимости международного сотрудничества в области минимизации и предотвращения ущерба от ЗИИИ. Вместе с тем, ряд экспертов подчеркнул, что такое сотрудничество труднодостижимо на глобальном уровне из-за геополитического противоборства и может быть реализовано в рамках международных объединений, например, с активным участием России в рамках БРИКС, ШОС. Также была высказана точка зрения, что подобное сотрудничество недостижимо в силу того, что тема обсуждения находится на уровне, не регламентируемом международными нормами.

По мнению экспертов, угрозы ЗИИИ в СВА определяются такими факторами, как конфликтность ситуации в регионе, высокий уровень развития ИИ, влияние внешних акторов (прежде всего США), которые проводят информационные кампании против Китая, активно применяя в них ИИ.

По итогам анализа экспертного опроса Е.Н. Пашенцев обратил внимание аудитории на необходимость дальнейшего серьезного рассмотрения на международном уровне проблемы ЗИИИ и МИПБ, проведения исследований по конкретным вопросам ЗИИИ. Сотрудничество продолжится в более широких рамках на базе международной группы по исследованию проблем ЗИИИ[2], созданной в 2019 г., координатором которой является Е.Н. Пашенцев. На встрече присутствовали два участника данной группы – Д.Ю. Базаркина и А.Н. Райков.

Е.Н. Пашенцев заострил внимание на том, что исследование данной проблемы требует тесного взаимодействия специалистов технического и гуманитарного профиля. Подобное сотрудничество будет продолжено в рамках подготовки The Palgrave Handbook of Malicious Use of AI and Psychological Security (Ed. Evgeny Pashentsev) – первого издания такого рода в мире с участием специалистов из 12 стран.

Стоит отметить, что по причине нынешней международной обстановки, 4 из 19 участников опроса высказали желание, чтобы их ответы в рамках проведенного опроса не публиковали.

Рис 2. Выступление Е.Н. Пашенцева

 

Е.Н. Пашенцев в своем докладе «Злонамеренное использование искусственного интеллекта и международная информационно-психологическая безопасность: системная угроза – системный ответ» подчеркнул, что угрозы ЗИИИ и МИПБ следует рассматривать на 3-х уровнях:

1-й уровень: целевое искажение информации об ИИ, связанное с искусственно заниженными / завышенными ожиданиями от ИИ, формирующее ошибочное общественное мнение; ЗИИИ, связанное с формированием ложного образа ИИ в сознании целевых групп, представляющее серьезную опасность для общества и органов государственной власти.

2-й уровень: угроза ЗИИИ для нанесения ущерба критической инфраструктуре, жизни и здоровью людей – физические атаки, например, при помощи дронов.

3-й уровень: ЗИИИ, в первую очередь для нанесения психологического ущерба. Использование ИИ в информационно-психологическом противоборстве уже делает кампании по скрытому управлению восприятием более опасными. Примеры включают ИИ в фишинге и использование глубоких фейков и умных ботов в информационных кампаниях для различных целей, таких, как нанесение ущерба репутации оппонента, будь то человек, организация или даже государство. В определенный момент это может позволить агрессивным субъектам контролировать общественное сознание и, в конечном итоге, привести к дестабилизации международной обстановки.

Наряду с этим существует ряд факторов, негативно влияющих на феномен ЗИИИ, таких, как деградация демократических институтов и геополитическое соперничество. В этих условиях закономерно деформируется использование ИИ в обществе. Состояние миллиардеров, по официальным источникам, за год кризиса увеличилось с 8 трлн до 13 трлн долларов. В то же время 200 миллионов человек были лишены средств к существованию (рост с 690 млн до 811 млн). По уровню капитализации лидирующие позиции сегодня занимают компании в области информационного бизнеса. Деятельность подобных информационных гигантов основана преимущественно на ИИ. Этот факт представляется группами как колоссальный успех и достижение во благо человечества. Крупнейшие компании в области высоких технологий активно используют ИИ в соответствии со своими узкими корпоративными интересами, которые довольно часто идут вразрез с интересами общества. Очевидно, что компании, имеющие доступ к большим объемам данных для создания моделей ИИ, лидируют в разработке ИИ. Ключевые группы в рамках ИИ включают GAFAM – Google (Alphabet), Apple, Facebook (Meta), Amazon и Microsoft, также известные как Большая пятерка или Big Tech (название пяти крупнейших наиболее доминирующих и наиболее престижных компаний в индустрии информационных технологий США). К ним можно отнести и бизнес самого богатого человека Земли – Илона Маска, поскольку на ИИ основан ряд его проектов, включая компанию Tesla, стоимость которой уже превысила 1 трлн долларов.

По мнению Е.Н. Пашенцева, существуют следующие варианты дальнейшего развития событий:

  • за успехом данных компаний стоят реальные технологии ИИ, сулящие колоссальный успех, поэтому инвесторы активно их поддерживают. В будущем капитал этих компаний будет линейно нарастать, хотя есть серьезные опасения, что достижения от внедрения ИИ будут служить элитам, а большинству населения достанутся лишь обещания лучшей жизни в будущем;
  • вполне возможно, что группам будет не хватать средств для поддержания дальнейшего роста, что может привести к колоссальному краху уже в недалеком будущем. В частности, подтверждением этому служит тот факт, что Big Tech вкладывает десятки млрд долларов не в дальнейшее развитие технологий, а в покупку недвижимости. Так, Amazon владеет множеством складов, земельными участками и зданиями на сумму 57,3 млрд долларов – больше, чем любая другая публичная компания США, за исключением Walmart. Кроме того, в настоящее время Alphabet является одним из крупнейших владельцев недвижимости в Нью-Йорке и других городах США. Между тем, Европейский центральный банк предупредил в ноябре 2021 г. о больших рисках на рынках недвижимости и финансовых рынках. По этой причине многие считают, что Big Tech не имеет сил для финального рывка выхода на тот уровень развития технологий, который сможет обеспечить дальнейшую прибыльность. Вряд ли случайно, что три из пяти крупнейших компаний (Google, Amazon и Microsoft) из года в год опускаются в рейтинге Global RepTrak 100. Четвертая, Facebook (Meta), вообще не появлялась в рейтинге в 2020 – 2021 гг. Пятой, Apple, удалось добиться приличного улучшения, однако выигрыш компании был омрачен падением Amazon на 50 пунктов: с 42-го места в 2020 году до 92-го в 2021 году. Big Tech вполне могут спровоцировать масштабный мировой финансово-экономический кризис с разрушительными военно-политическими последствиями. «Виновник», конечно, будет найден там, где это необходимо, поскольку основные мировые информационные ресурсы опасно контролируются и подчиняются интересам Big Tech. Возможно, для этого будет выбран тот или иной тлеющий локальный кризис(ы), в зонах острого геополитического противостояния.

ЗИИИ уже существует в глобальном масштабе как «игра», основанная на завышенных ожиданиях выгод от внедрения ИИ. В эту крайне опасную по своим возможным последствиям «игру» «играют» посредством разностороннего психологического воздействия на целевые аудитории, которые особенно восприимчивы и уязвимы в отношении ЗИИИ в сфере МИПБ.

Антисоциальные круги (от отдельных преступников и преступных организаций до коррумпированных элементов в правительствах, финансовых и коммерческих структурах, СМИ, террористов и неофашистов) уже все чаще используют ЗИИИ в своих целях.

Е.Н. Пашенцев обратил внимание на конкретные практики, применяющиеся целью контроля над общественным мнением:

  • использование ботов для манипулирования общественным мнением. По статистике, 28 стран в 2018 г. задействовали для этих целей ботов, что говорит о глобальных манипулятивных кампаниях;
  • использование эмоционального ИИ – интеллекта, позволяющего имитировать человеческие чувства либо подстраивать машину под реакции человека. В качестве примера можно привести новостных дикторов, уже сегодня использующихся на некоторых телеканалах. В кризисных ситуациях перехват управления над подобным диктором может повергнуть страну в смятение. Также эмоциональный ИИ делает возможным внедрение в сознание людей определенных штампов поведения.

По мнению Е.Н. Пашенцева, противодействие ЗИИИ может осуществляться также при помощи ИИ. Для этого необходимо качественное социально-ориентированное преобразование общественных отношений и всего современного миропорядка с учетом возможностей XXI столетия, что не позволит использовать ИИ в злонамеренных целях. Также необходимо учесть, что технические, политические и юридические меры, которые могут сдержать ЗИИИ, тесно связаны с прогрессом всего общества. И если общество контролируется антисоциальными акторами, принятие комплексных мер для исправления ситуации маловероятно. Использование так называемого «расширенного интеллекта», или «гибридного интеллекта», может дать массу преимуществ, таких как излечение болезней, качественное развитие сферы восприятия действительности и мыслительных способностей человека в сложном системном, постоянно развивающемся и усложняющемся взаимодействии ИИ и человека, но только при условии наличия социально-ориентированной общественной системы, которая бы контролировала этот процесс.

Ведущий научный сотрудник Института Европы РАН д.п.н. Дарья Юрьевна Базаркина в своем докладе «Как террористы готовятся к использованию технологий искусственного интеллекта: информационно-психологический аспект проблемы» (в рамках проекта №21-514-92001 по гранту РФФИ) рассмотрела факторы перехода к терроризму специалистов в области ИИ при помощи методологии политических наук.

Рис. 3. Выступление Д.Ю. Базаркиной

Д.Ю. Базаркина, рассматривая экономические факторы риска обращения специалистов в области ИИ к террористической деятельности, сослалась работу Д. Гамбетты и С. Хертога «Инженеры джихада», показавшую, что в XX веке на Ближнем Востоке и в странах Северной Африки существовала четкая корреляция между степенью вовлеченности специалистов из той или иной области в экстремистскую или террористическую деятельность и престижем отрасли, в которой они работали, на национальном и международном рынке. Так, наиболее часто экстремистами становились представители профессий, некоторое время назад считавшихся наиболее престижными, но постепенно терявших этот престиж из-за перепроизводства кадров и перенасыщения отрасли или в силу снижения темпов развития самой отрасли (например, в первую треть XX века в странах Ближнего Востока наиболее часто подвергались вербовке преподаватели и юристы). Указанные факторы напрямую влияют на психологический настрой специалиста. У человека, престиж профессии которого внушался ему с детства, образуются завышенные ожидания. К моменту окончания вуза молодой специалист сталкивается с проблемой перепроизводства кадров. На этом фоне происходит разрушение его ожиданий. Как показывают существующие международные исследования, именно такие люди становились мишенями для пропаганды и вербовки в террористические организации.

В настоящее время за профессионалов в области ИИ конкурируют крупные компании. Это одна из самых востребованных профессий в современном мире. Однако, опираясь на существующие политологические и социологические исследования, Д.Ю. Базаркина предположила, что, во-первых, специалисты, не вошедшие в авангард своей отрасли, в будущем могут стать группой риска террористической вербовки. Во-вторых, кадры в области ИИ могут пострадать морально и экономически в тех странах, где правительства привлекают из-за рубежа более квалифицированных специалистов в ущерб национальным кадрам, а также в тех странах, где государственные программы развития как ИТ, так и ИИ остановятся или снизят темпы развития на фоне завышенных ожиданий специалистов.

При оценке социально-психологических факторов устойчивости и уязвимости перед террористической вербовкой большую роль играет степень удовлетворенности человека своим делом и предлагаемыми условиями труда. В настоящее время мы можем располагать только данными из открытых источников о профессиональной удовлетворенности/неудовлетворенности ИТ-специалистов широкого профиля. Однако, принимая во внимание смежный характер специальностей, высокий престиж сектора ИТ и нарастающий – в сфере ИИ, а также интерес террористических групп в вербовке ИТ-специалистов, справедливо возникает вопрос: не станут ли мишенями террористической пропаганды и вербовки представители сферы ИИ? На основе подобных исследований правительства могут прогнозировать развитие ИИ в своих странах, чтобы создать более комфортную психологическую и экономическую среду для специалистов и минимизировать угрозы террористической вербовки.

Д.Ю. Базаркина затронула также политический фактор вовлечения в террористическую деятельность. К примеру, несмотря на довольно успешную институционализацию борьбы с терроризмом, опыт ЕС показывает, что дети мигрантов и специалисты из стран Ближнего Востока являются основной целевой группой пропаганды и вербовки, так как вербовщики пытаются навязать им идею отчужденности в обществе страны их пребывания. При этом в террористические организации часто попадают достаточно успешные в экономическом плане профессионалы. Дополнительную политическую роль сыграл фактор участия вооруженных сил стран ЕС в операциях на Ближнем Востоке. Террористы используют эти факторы в совокупности.

Затрагивая психологический аспект проблемы, Д.Ю. Базаркина отметила широкое использование социальной инженерии, которая представляет собой не только психологические манипуляции, призванные к выдаче человеком своих персональных данных, но и, к примеру, манипуляции, призванные убедить человека в правдивости ложной информации и побудить к совершению поступков в интересах манипулятора.

Присоединяясь к мнению Е.Н. Пашенцева, Д.Ю. Базаркина подчеркнула, что сегодня ЗИИИ в формировании повестки дня СМИ является одной из главных угроз ИПБ, добавив, что уже в 2015 г. запрещенная в России организация «Исламское государство» (ИГ) создала более тысячи ботов в сети Twitter с целями пропаганды, сбора средств, вербовки, а также для того, чтобы боты поставляли пропагандистам данные о повестке дня (чтобы те в свою очередь, подключая новую волну ботов, вступали в дискуссии по самым общественно важным вопросам и завладевали вниманием для продвижения своей точки зрения в обществе). Боты террористов на основе реальных продуктов ИИ в социальных сетях и мессенджерах позволяют вербуемым пользователям регистрироваться на курсы по физподготовке, по изготовлению взрывных устройств, задавать вопросы по миграции в Сирию и Ирак. Здесь террористы активно пользуются существующими продуктами ИИ, но, используя инструменты социальной инженерии, они стремятся привлекать не только пользователей ИИ, но и его разработчиков. Об этом свидетельствуют объявления, которые распространяют аффилированные с террористическими организациями группы, призывая сторонников создавать цифровые платформы для поддержки организации за пределами существующих мессенджеров и социальных сетей, объявляя набор кадров с различными навыками в сфере медиа или, к примеру, программирующих на Python. Таким образом, антисоциальные акторы ощущают тренд на развитие ИИ и будут пытаться и дальше использовать его в своих целях.

Говоря об угрозах уничтожения или разрушения физического объекта, которое оказывает коммуникационный эффект, Д.Ю. Базаркина отметила, что сегодня террористическая пропаганда в том же ЕС направлена на то, чтобы побудить террористов-одиночек, не связанных с организацией напрямую, совершать теракты в местах своего пребывания. При этом пропагандисты активно советуют использовать беспилотные летательные аппараты и дистанционные взрывные устройства. Из отчета Европола 2020 г. следует, что с падением боевой мощи террористов они переходят от прямых столкновений к атакам, в которых исполнитель удален от объекта. С военным поражением ИГ на захваченной им территории произошла переориентация организации на пропаганду в других странах. Таким образом, как Аль-Каида после событий 11 сентября 2001 г., ИГ превратилось в бренд, который будет направлен на самых различных людей, в том числе технических специалистов.

По мнению Д.Ю. Базаркиной, в информационно-психологическом аспекте это может изменить характер основного послания террористов целевой аудитории. К примеру, если сегодня до сих пор среди настоящих и будущих боевиков эксплуатируется образ жертвы (террориста-смертника), готовой пожертвовать собой ради целей террористической группы, то, возможно, с развитием удаленных атак этот образ будет заменен образом неминуемого успеха, в котором рядовой исполнитель сможет почувствовать себя вершителем судеб людей. Не исключено, что, отслеживая цифровой след и конструируя приятный для вербуемого контент с помощью дипфейков или имитации голоса, террористы будущего автоматизируют процесс вербовки. Асоциальные акторы учатся действовать в новых условиях, к чему общество должно быть готово; только тогда оно станет менее уязвимым к угрозам ИПБ, обусловленным ЗИИИ.

Старший научный сотрудник Института проблем информационной безопасности МГУ им. М.В. Ломоносова к.п.н. Павел Александрович Карасев в своем докладе «Теорема Томаса, методология информационных операций и приложения искусственного интеллекта» проанализировал, как ИИ может быть использован на каждом из этапов информационных операций.

Рис. 4. Выступление П.А. Карасева

 

Анализ эпизодов информационно-политического воздействия свидетельствует о высокой эффективности и широте применения ИИ как его инструмента, а также указывает на острую необходимость выработки средств противодействия. Высокая эффективность ИИ в информационно-политических кампаниях обусловлена рядом факторов:

  • существование глобального информационного пространства: более половины населения Земли являются пользователями Интернета;
  • наличие соответствующих инструментов, таких как социальные сети и различные цифровые платформы, позволяющие распространять специально подготовленную информацию, ориентированную на определенную целевую аудиторию.

В отличие от радио и телевидения, подобные инструменты могут обеспечить интерактивность путем взаимодействия автора с аудиторией через систему комментариев и форумов, что позволяет корректировать воздействие в соответствии с поставленной задачей и изменяющейся обстановкой. Сегодня в дополнение к этим инструментам появляются все более эффективные инструменты информационного воздействия, в основе которых лежит ИИ.

Использование некоторыми развитыми государствами новейших ИКТ для реализации задач внешней и внутренней политики является подтвержденным фактом. Анализ открытых источников и документов стратегического планирования наглядно демонстрирует, что наиболее проработано данное направление в США, где практической реализацией этих решений занимается как Министерство обороны, так и Государственный департамент. Например, в Доктрине информационных операций 2014 г. информационно-психологическому воздействию уделяется значительное внимание. Под информационными операциями понимается комплексное использование в ходе военных операций информационных сил и средств для оказания влияния, нарушения, искажения или перехвата процесса принятия решений реального или потенциального противника. Процесс происходит в три этапа:

  • на первом этапе выделяется целевая аудитория, в том числе производится анализ правил, норм и убеждений, характерных для нее;
  • на втором этапе проводится оценка имеющихся инструментов и средств достижения желаемых целей;
  • на третьем этапе выявляются конкретные способы создания желаемого эффекта.

Эти способы направлены на изменение трех основ целевой аудитории – норм, правил, убеждений. Государственный департамент США начал активно развивать идеи использования ИКТ для оказания информационного влияния в 2010 г., когда принял на вооружение идеологию «Государственного управления XXI века», суть которой заключается в том, что доступные сегодня новые информационные технологии изменяют систему международных отношений и условия для государственного управления, а именно становится возможным переход от взаимодействия внешнеполитических ведомств США с национальными правительствами к взаимодействию напрямую с обществом. Одним из элементов стратегических основ общественной дипломатии является создание нарративов: «Необходимо разработать активные стратегии охвата, чтобы информировать, вдохновлять и убеждать аудиторию». Указанная идеология предлагает наладить взаимодействие дипломатов не только с местными властями, но и с представителями религиозных групп, гражданами и организациями. Ключевым аспектом этой работы является использование новых ИКТ для применения в сообществах.

В сентябре 2018 г. были опубликованы два важных документа, определяющие политику США на годы вперед: Национальная киберстратегия США и Киберстратегия Министерства обороны США. В документе Министерства обороны спектр злонамеренной деятельности в киберпространстве был расширен, помимо кибератак в перечень вошли злонамеренные кампании пропаганды и дезинформации. Примечательно, что для предотвращения и сдерживания злонамеренной киберактивности могут быть использованы все доступные инструменты, в том числе дипломатические, информационные и военные.

Среди основных противников США в документе выделены Россия, Китай, Ирак и Северная Корея, а также явление международного терроризма. Это одно из наиболее очевидных проявлений информационно-политического воздействия –применение так называемой «публичной атрибуции», когда в отсутствие юридически значимых фактов и должного разбирательства противник «назначается» исходя из политических соображений; к нему может быть применен широкий спектр противодействующих мер, начиная установлением экономических санкций и заканчивая нанесением ракетно-бомбовых ударов. В качестве примера можно привести обвинение Соединенными Штатами Китая в сокрытии значимых фактов о начале и распространении эпидемии Covid-19 и последующую подготовку информационного фундамента для своего выхода из ВОЗ. Подобная ситуация развивается и в системе, обеспечивающей стратегическую стабильность: так, множество международных договоров и соглашений прекратили свое существование под надуманными предлогами (например, Договор о ликвидации ракет средней и меньшей дальности, Договор по открытому небу, Совместный всеобъемлющий план действий и др.).

В настоящее время одной из основных теорем социальных наук является теорема Томаса, сформулированная так: «Если ситуации определяются людьми как реальные, они реальны по своим последствиям». Американский социолог Уильям Айзек Томас выдвинул эту теорему в 1923 г., не придав ей должного внимания. Вместе с тем, в политической практике многих государств следствия данного утверждения до сих пор продолжают использоваться для регулирования социального поведения масс. Если раньше считалось, что поступки человека определяют две реальности – объективную и субъективную, то теперь сформировалась третья реальность – глобальной медиасферы, через которую, в соответствии с теоремой Томаса, можно оказывать влияние на принятие политических решений и действия людей. Из этого следует, что в умах обывателей объективная реальность, выходящая за пределы их повседневной жизни, замещается представлением об этой реальности, формирующейся теми фрагментами третьей реальности, которым человек доверяет.

Использование указанных средств и теоремы Томаса позволило провернуть масштабные информационные операции в последние десятилетия, от «пробирки Колина Пауэлла» до использования химического оружия в Сирии и отравления Скрипалей. Все это происходит по единой схеме: сперва проводится масштабная кампания с использованием всех возможных каналов глобальной медиасферы по замещению в сознании обывателей объективной информации о ситуации на представление, соответствующее целям разработчиков кампании. После достижения данной цели начинается вторая фаза операции, заключающаяся, в соответствии с теоремой Томаса, в том, что сформированное представление о происходящем люди будут считать правильным. Этот этап можно назвать «условным обеспечением реализации следствий из медиасобытий». Кроме того, на данном этапе начинается корректировка и обновление медиасобытий в соответствии с изменяющимися условиями.

Технологии направленной подготовки и рассылки контента постоянно совершенствуются путем таргетирования информации, использования интернет-профилей пользователей, фейк-новостей, использования лидеров общественного мнения для тиражирования этих новостей. В статье Андерса Фога Расмуссена и Майкла Чертоффа предложено обобщенное понятие для характеристики таких технологий – «гипертенденциозный контент». Сегодня большое значение придаётся возможностям использования технологий ИИ в этой области – как для защиты, так и для нападения. Представляется, что технологии ИИ могут быть использованы на каждом из этапов информационной операции, но наиболее существенными являются возможности по анализу больших данных, созданию и анализу текстов и иных медиапродуктов. Эти технологии могут быть использованы и для обратной цели – например, создания фейков, а в дальнейшем и для их выявления. Что касается больших данных, здесь можно отметить значительные успехи в создании программных комплексов, позволяющих проводить глубокий анализ пользовательских данных в социальных сетях, и, исходя из этого, выявлять лидеров общественного мнения и связанные с ними группы людей. Такие системы уже активно и успешно применяются для предотвращения противоправных информационных вбросов и информационных атак экстремистской и террористической направленности. В основе подобных мероприятий лежат постоянный мониторинг Интернета и анализ социальных сетей. В качестве примеров П.А. Карасев назвал американскую систему Palantir, а также российскую разработку – поисково-аналитическую систему Avalanche, созданную около 20 лет назад и применяемую в госструктурах, спецслужбах и силовых структурах, крупных государственных банках и компаниях.

Даже краткий обзор новых технологий показывает, что в настоящее время в ИКТ среде идёт невидимое противоборство математических алгоритмов создания, обработки, распространения и фильтрации контента. Важно отметить, что об угрозе использования ИИ в таком ключе на высоком уровне говорят в США. Так, в марте 2021 г. Комиссия национальной безопасности по ИИ в своем итоговом докладе заявила следующее: «Противники используют систему ИИ для усиления кампаний дезинформации и кибератак, собирают данные об американцах, чтобы составить профили их убеждений и поведения для осуществления целенаправленных попыток манипулирования людьми или принуждения их к определенным действиям. Этот надвигающийся шторм иностранного влияния и вмешательства требует организационных и политических реформ для повышения нашей устойчивости». Правительству следует использовать киберзащиту с ИИ для защиты от кибератак, осуществляемых с использованием ИИ.

П.А. Карасев отметил, что Соединенные Штаты обеспокоены возможным отставанием в сфере ИИ. Специалисты считают, что необходимо и далее развивать возможные системы противодействия. В США и Китае самый высокий уровень внедрения 5G в мире, здесь сосредоточено 94% финансирования стартапов в области ИИ за последние 5 лет, 70% ведущих ученых в сфере ИИ, почти 90% рыночной капитализации крупнейших мировых цифровых платформ.

Очевидно, что, по мере отработки и совершенствования методик и технологий реализации, будет возрастать количество широкомасштабных информационно-политических операций и повышаться их эффективность.

Анализ примеров информационных операций, направленных в последние годы против России, показывает, что РФ не раз опаздывала c выявлением признаков и своевременным реагированием на масштабные информационно-политические атаки. Одной из важнейших задач является разработка эффективных средств противодействия информационным операциям, системы мониторинга и своевременного выявления признаков готовящихся информационных операций. Принимая во внимание тот факт, что когнитивных возможностей человека по анализу и осмыслению огромного массива информации в глобальной медиасфере явно недостаточно, П.А. Карасев считает, что при разработке указанной системы необходимо использовать технологии ИИ. Другой важнейшей задачей должно стать своевременное реагирование на признаки готовящихся информационных операций, в том числе опровержение планируемых к распространению фейк-новостей.

П.А. Карасев высказал мнение, что современный мир вступил в эпоху «постправды», однако это не означает, что он стал похож на антиутопию Оруэлла. Согласно словарному определению, термином «постправда» характеризуются такие обстоятельства, при которых объективные факты оказывают меньше влияния на формирование общественного мнения, чем апелляция к эмоциям и личным убеждениям. Информационное воздействие в том или ином виде сопровождало человеческую цивилизацию на многих ключевых этапах его развития, и человечество адаптировалось к новым условиям. Нет сомнений, что со временем произойдёт адаптация к реалиям сегодняшнего дня.

Александр Николаевич Райков, д.т.н., профессор, руководитель центра интеллектуальных технологий Национального центра цифровой экономики МГУ им. М.В. Ломоносова, в своем выступлении «Непредсказуемые угрозы злонамеренного использования сильного искусственного интеллекта» дал характеристику сильного ИИ, выделил его отличия от слабого и указал, в чем заключается главная опасность, которую сулит развитие сильного ИИ.

 

Рис. 5. Выступление А.Н. Райкова

Свое выступление А. Н. Райков начал с пояснения характеристик, свойственных слабому ИИ:

  • не имеет возможности хорошо адаптироваться к окружению;
  • не способен думать, как человек;
  • не способен ставить задачи;
  • не способен давать объяснения.

Ввиду стремительного развития техники, деятельность слабого ИИ (к которому можно отнести, например, фейки) возможно предсказать с довольно высокой долей вероятности. По мнению А.Н. Райкова, дальнейшие сценарии развития событий, совершенные при помощи сильного ИИ, в отличие от слабого, предсказать будет невозможно.

А.Н. Райков считает, что одним из аспектов стремительного развития сильного ИИ, представляющего опасность, является вероятность наступления сингулярности. Вызывает обеспокоенность и тот факт, что владельцы сильного ИИ могут крайне быстро создавать стратегии, способные адаптироваться к внешнему окружению, например, в условиях неопределенности международного положения или кризиса.

8 ноября 2021 г. вышел указ Президента РФ «Об утверждении Основ государственной политики в сфере стратегического планирования в Российской Федерации», в котором отражены некоторые новые тезисы. Например, использование системы распределенных ситуационных центров, а также моделирование последствий принятия управленческих решений с использованием технологий ИИ и методов математического моделирования для поддержки стратегического планирования. Это является позитивным моментом, свидетельствующим о том, что внимание к ИИ подтверждено на государственном уровне.

Для России главная угроза заключается в том, что страна сильно отстает в сфере исследования сильного ИИ, что может помешать противостоянию в случае его злонамеренного использования.

Марина Сергеевна Решетникова, к.э.н., доцент кафедры экономико-математического моделирования Российского Университета Дружбы Народов, в докладе «Системы ИИ в Китае: угрозы злонамеренного использования» отметила, что с экономической точки зрения ИИ понимается как позитивное явление, поскольку он повышает эффективность производства, автоматизирует рутинные процессы, быстро обрабатывает значительные объемы информации, а также минимизирует ошибки человеческого фактора. На микроэкономическом уровне ситуация оптимистична, однако фактор ЗИИИ вызывает обеспокоенность на макроуровне. Путем создания и развития образа врага наносятся удары по имиджу государства-оппонента.

 

Рис. 6. Выступление М.С. Решетниковой

В подтверждение своего тезиса М.С. Решетникова привела ряд примеров. В 2017 г. во время проведения президентских выборов в США победу Дональда Трампа во многом списывали на деятельность российских хакеров. В мае 2013 г. Министерство обороны США опубликовало ежегодный доклад о развитии вооруженных сил и сил безопасности Китая. Согласно этому докладу, часть кибератак была совершена целенаправленно со стороны Китая на американские военные ведомства либо на промышленные предприятия. Эта риторика начала транслироваться в СМИ, на фоне чего информация о киберугрозе, которую якобы представляет Китай, распространилась и укрепилась в американском социуме. Этот факт объясняет намерения Вашингтона возвести инвестиционные и экономические барьеры стремительно развивающемуся Китаю.

В 2018 г. МИД Китая выразил недовольство в связи с принятием в США оборонного бюджета на 2019 г. (согласно открытым данным, в 2019 г. оборонный бюджет в области кибербезопасности США составлял 8.5 млрд долларов, в 2020 г. он составил практически 10 млрд долларов). В частности, МИД Китая возмутился тем фактом, что в документе было заявлено о необходимости противодействовать усилиям Китая по влиянию на СМИ, культуру, бизнес, а также академическое и политическое сообщество США. Активность в создании имиджа пекинского агрессора поддерживается также СМИ Западной Европы.

На данный момент США усиливают антикитайскую риторику. Свидетельством этого являются такие события, как обвинение Китая в начале пандемии Covid-19, антиправительственные демонстрации в Гонконге, выход в США политических журналов, в которых развивается тема возможной китайской экспансии Тайваня. Как предполагает М.С. Решетникова, данные события, включая конфликт с США, побудили Китай к установлению и созданию технологических стандартов по разработке и наращиванию мощи в области ИИ, включая усиление цифровизации, создание сетей пятого поколения и попытки выйти на международные рынки.

Инновационность реализуемой Китаем стратегии позволила с беспрецедентными скоростями вступить в гонку за инновационное лидерство. Сегодня по темпам роста и объемам финансирования, направленного на поддержку инновационной экосистемы, Китай занимает лидирующую позицию, что позволило опередить ближайшего соперника – США, по ряду критериев.

М.С. Решетникова исключает возможность открытых конфликтов, однако допускает начало полноценной экономической холодной войны между Китаем и США. Июль 2017 г. принято считать точкой бифуркации, моментом, когда в Китае решили усиленно развивать ИИ. Если обратиться к различным национальным инновационным стратегиям КНР, дискуссии о развитии ИИ идут с середины 2000-х гг. Более формализованный характер эта риторика приобрела в 2015 г. со стартом государственной программы «Сделано в Китае – 2025». КНР планировала направить более 300 млрд долларов на развитие высокотехнологичного сектора экономики. Цель программы – интенсификация НИОКР, в которых развитию сетей пятого поколения и ИИ уделялось особое внимание. Вслед за этим, в 2016 г. председатель КНР Си Цзиньпин лично инициировал программу «Интернет плюс». М.С. Решетникова подчеркнула важность этого концептуального документа, в котором отражены стратегические цели, разработан бюрократический механизм, утверждены объемы, сроки и источники финансирования.

По мнению М.С. Решетниковой, с развитием ИИ все чаще поднимаются вопросы о его неоднозначном влиянии на жизнь граждан, поскольку многие технологии выполняют функции мониторинга и контроля за обществом. Системы мониторинга проникают в частную жизнь и передают полученные данные государству. М.С. Решетникова считает, что одним из наиболее противоречивых решений Китая с точки зрения внедрения инструментов ИИ можно считать систему социального кредита (система социального доверия). Для построения подобной системы необходимо, чтобы она отвечала требованиям полной цифровизации и информатизации, работала на основе больших данных и ИИ. Изначально цель социального кредитования состояла в облегчении взаимодействия между различными акторами: процессы автоматизируются, данные обрабатываются в режиме реального времени, формируется система наказаний и поощрений и создание черных и красных списков. В данной системе на основе технологий ИИ данные собираются за счет онлайн-мониторинга и при помощи камер видеонаблюдения в ходе рутинной деятельности граждан Китая. Люди совершают определенные поступки, зарабатывая баллы, или наоборот, теряя их. За отрицательные баллы можно получить наказания в виде, к примеру, запрета на пользование железнодорожным или авиатранспортом. За социально одобряемые поступки можно получить некоторые привилегии, к примеру, предоставление скидки на оплату коммунальных услуг.

В заключение М.С. Решетникова отметила, что данная политика полностью соответствует стремлению Си Цзиньпина к более современному и эффективному правлению. На этом фоне развитие ИИ останется приоритетным в КНР на долгие годы.

Заведующий Центром глобальных исследований и международных отношений ИАМП Дипломатической академии МИД России к.п.н. Вадим Борисович Козюлин в своем выступлении отметил, что в мире уже появляются небольшие компании, которые занимаются вычислением фейковых новостей в глобальном информационном пространстве. Однако пока ни одна страна не ведет эту деятельность на государственном уровне. В России имеются мощные высокотехнологичные корпорации, которые способны профинансировать и организовать это дело не только в Рунете, но и в международном масштабе. Например, два года назад был создан AI Alliance Russia – объединение крупнейших российских корпораций, который занимается продвижением интересов российского бизнеса в национальных и международных рамках. По мнению В.Б. Козюлина, если бы российский корпоративный союз такого масштаба взялся за работу выявлению фейковых новостей и случаев злонамеренного использования ИИ в глобальном информационном пространстве, это послужило бы на благо человечеству и могло бы стать сигналом международному сообществу о том, то Россия занимает ответственные позиции в этой важной области и обладает передовыми технологиями, которые служат не только национальным, но и общечеловеческим интересам. «Фейк-ньюс и злонамеренные ИИ-технологии – это глобальная проблема, и судя по всему с ней рано или поздно придется вести борьбу. Интеллектуальный и технологический потенциал России позволяет начать это важное дело уже сегодня», – заявил В.Б. Козюлин.

 

Заключение

Подводя итоги круглого стола, необходимо отметить, что стремительное развитие ИИ сопровождается ростом угрозы его использования в злонамеренных целях. Технологии ИИ уже сегодня используются антисоциальными акторами, представляющими угрозу МИПБ. Угроза ЗИИИ и МИПБ является многоуровневой, поэтому для эффективного противостояния необходимо введение технических, политических и юридических мер в рамках социально-ориентированного преобразования системы в соответствии с возможностями и рисками XXI столетия. Кроме того, необходимо продолжать поиск научно обоснованных решений на государственном уровне для укрепления национальной обороны и защиты суверенного права народа России на демократическое развитие. На этом направлении важная роль будет принадлежать инновационному использованию ИИ.

Сноски

Нажмите на активную сноску снова, чтобы вернуться к чтению текста.

[1] Е.Н. Пашенцевым были опрошены эксперты из Беларуси, Бельгии, Великобритании, Вьетнама, Кубы, Польши, России, Румынии, США и Франции.

[2] В состав группы входят исследователи из России, Вьетнама, Италии, Румынии и Франции.

Список использованной литературы

  1. Pashentsev E. Experts on the Malicious Use of Artificial Intelligence and Challenges to International Psychological Security : Report / E. Pashentsev ; International Center for Social and Political Studies and Consulting. – Moscow : SAM Polygraphist, 2021. – 62 p.

References

  1. Pashentsev E. Experts on the Malicious Use of Artificial Intelligence and Challenges to International Psychological Security. Moscow, International Center for Social and Political Studies and Consulting, SAM Polygraphist Publ., 2021. 62 p.