• +7 (3952) 79-88-99
  • prolaw38@mail.ru

ОСОБЕННОСТИ ФОРМИРОВАНИЯ ИННОВАЦИОННОГО ПРАВОСОЗНАНИЯ ПРИ СОВЕРШЕНИИ КИБЕРПРЕСТУПЛЕНИЙ

340.114.5/6:001.895

Пролог: журнал о праве. – 2023. – № 1. – С. 91 – 99.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2023.1.10.
Дата поступления 14.12.2022, дата принятия к печати 03.03.2023,
дата онлайн-размещения 29.03.2023.

В работе исследуются вопросы, связанные с возможностью формирования правосознания как необходимого элемента в развитии искусственного интеллекта и алгоритмических систем. В условиях постоянно усиливающейся автоматизации и непрерывном росте использования искусственного интеллекта в различных сферах жизни общества прослеживается особое влияние на практическую юриспруденцию. Исследован зарубежный опыт внедрения ведущих передовых технологий в юридической среде, выявлены факторы системных ошибок и причины несовершенства машинного обучения в правовой сфере. Наряду с этим отмечена особая значимость искусственного интеллекта при решении однотипных, рутинных задач, что подкрепляется соответствующей практикой в некоторых отраслях юридического знания. Проанализирована вероятность полноценного внедрения искусственного интеллекта и алгоритмических систем в юридическую профессию. Дана оценка текущему опыту применения искусственного интеллекта юридическими фирмами в своей практической деятельности, судебными и правоохранительными органами зарубежных государств. Конститутивным вопросом для системной характеристики стало теоретическое осмысление нового явления, новой формы правосознания, а именно – инновационного правосознания, присущего на данном этапе развития лишь физическому лицу. Изучен опыт некоторых стран по противодействию киберпреступности как основной угрозе национальной безопасности большинства цивилизованных и технологически развитых стран. Предложены пути преодоления тех проблем, которые возникают в связи с развитием и популяризацией инновационного правосознания.

Инновационное правосознание; искусственный интеллект; суд, уголовное судопроизводство; законодательная деятельность; правотворчество.

Карпович В. Э., Мельник С. С. Особенности формирования инновационного правосознания при совершении киберпреступлений // Пролог: журнал о праве. – 2023. – № 1. – С. 91 – 99. – DOI: 10.21639/2313-6715.2023.1.10.

УДК
340.114.5/6:001.895
Информация о статье

Пролог: журнал о праве. – 2023. – № 1. – С. 91 – 99.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2023.1.10.
Дата поступления 14.12.2022, дата принятия к печати 03.03.2023,
дата онлайн-размещения 29.03.2023.

Аннотация

В работе исследуются вопросы, связанные с возможностью формирования правосознания как необходимого элемента в развитии искусственного интеллекта и алгоритмических систем. В условиях постоянно усиливающейся автоматизации и непрерывном росте использования искусственного интеллекта в различных сферах жизни общества прослеживается особое влияние на практическую юриспруденцию. Исследован зарубежный опыт внедрения ведущих передовых технологий в юридической среде, выявлены факторы системных ошибок и причины несовершенства машинного обучения в правовой сфере. Наряду с этим отмечена особая значимость искусственного интеллекта при решении однотипных, рутинных задач, что подкрепляется соответствующей практикой в некоторых отраслях юридического знания. Проанализирована вероятность полноценного внедрения искусственного интеллекта и алгоритмических систем в юридическую профессию. Дана оценка текущему опыту применения искусственного интеллекта юридическими фирмами в своей практической деятельности, судебными и правоохранительными органами зарубежных государств. Конститутивным вопросом для системной характеристики стало теоретическое осмысление нового явления, новой формы правосознания, а именно – инновационного правосознания, присущего на данном этапе развития лишь физическому лицу. Изучен опыт некоторых стран по противодействию киберпреступности как основной угрозе национальной безопасности большинства цивилизованных и технологически развитых стран. Предложены пути преодоления тех проблем, которые возникают в связи с развитием и популяризацией инновационного правосознания.

Ключевые слова

Инновационное правосознание; искусственный интеллект; суд, уголовное судопроизводство; законодательная деятельность; правотворчество.

Для цитирования

Карпович В. Э., Мельник С. С. Особенности формирования инновационного правосознания при совершении киберпреступлений // Пролог: журнал о праве. – 2023. – № 1. – С. 91 – 99. – DOI: 10.21639/2313-6715.2023.1.10.

Финансирование

About article in English

UDC
340.114.5/6:001.895
Publication data

Prologue: Law Journal, 2023, no. 1, pp. 91 – 99.
ISSN 2313-6715. DOI: 10.21639/2313-6715.2023.1.10.
Received 14.12.2022, accepted 03.03.2023, available online 29.03.2023.

Abstract

The paper explores issues related to the possibility of the formation of legal awareness as a necessary element in the development of artificial intelligence and algorithmic systems. In the context of ever-increasing automation and the continuous growth of the use of artificial intelligence in various spheres of society, a special influence on practical jurisprudence can be traced. The foreign experience of the introduction of leading advanced technologies in the legal environment is studied, the factors of system errors and the causes of imperfection of machine learning in the legal field are identified. Along with this, the special importance of artificial intelligence in solving the same type of routine tasks is noted, which is supported by appropriate practice in some branches of legal knowledge. The probability of full-fledged implementation of artificial intelligence and algorithmic systems in the legal profession is analyzed. The assessment of the current experience of the use of artificial intelligence by law firms in their practice, judicial and law enforcement agencies of foreign countries is given. The constitutive issue for the system characteristic was the theoretical understanding of a new phenomenon, a new form of legal consciousness, namely, innovative legal consciousness, inherent at this stage of development only to an individual. The experience of some countries in countering cybercrime as the main threat to the national security of most civilized and technologically developed countries has been studied. The ways of overcoming the problems that arise in connection with the development and popularization of innovative legal awareness are proposed.

Keywords

Innovative legal awareness; artificial intelligence; court, criminal proceedings; legislative activity; law-making.

For citation

Karpovich V. E., Melnik S. S. Features of the Formation of Innovative Legal Awareness in the Commission of Cybercrimes. Prologue: Law Journal, 2023, no. 1, pp. 91 – 99. (In Russian). DOI: 10.21639/2313-6715.2023.1.10.

Acknowledgements

Развитие современного общества неразрывно связано с совершенствованием информационных технологий, которые проникли практически во все сферы жизни человека и общества. Эти процессы не могли не коснуться юридического поля в широком смысле этого слова. Сейчас многие люди задаются закономерными вопросами: возможно ли полностью заменить, например, судью, который выносит решение по конкретному делу? Сможет ли искусственный интеллект давать эффективные юридические консультации клиенту? Такие вопросы в какой-то мере имеют под собой определенные основания, однако при детальном анализе форм развития технологий, применимых в юридической сфере, они отпадают сами по себе.

Появление профессии «юриста» было неразрывно связано с постепенным становлением права и государственности. Правовые нормы должны соответствовать действительности, а люди, которые взяли на себя полномочия по охране закона и справедливости как высшей ценности права, должны отвечать современным вызовам и угрозам. Искусственный интеллект и алгоритмические системы могут выступать определенным вспомогательным инструментом в отдельно взятых ситуациях. Но они не могут оказывать разрушительное влияние на человека и его дальнейшую судьбу. Именно формирование общих представлений о законном и противозаконном, диспозитивном и императивном, справедливом и необоснованном должно быть поставлено во главе угла темы использования искусственного интеллекта в правовом пространстве.

На протяжении десятилетий формировались и видоизменялись способы и методы противодействия, борьбы, профилактики и контроля над неправомерным поведением. Следовательно, искусственный интеллект обучается исходя из этих существующих знаний, а количественные и в качественные показатели преступности дополняют работу этих алгоритмов [2, с. 40–45].

За последнее десятилетие были предприняты различные попытки использования информационных технологий в юридической среде. Подходы их применения варьировались в зависимости от той или иной правовой или политической системы, социокультурных факторов, традиций. Так, в 2016 году было разработано специальное программное обеспечение, которое на основе заложенных алгоритмов и общих представлений о правомерном и неправомерном поведении могло взвешивать имеющиеся в деле доказательства и выносить вердикт. Для создания такой системы разработчики передали искусственному интеллекту (далее по тексту – ИИ) 584 дела, рассмотренных ЕСПЧ. Все эти случаи были сопряжены с различными нарушениями прав человека: пытками, унижающим достоинство обращением, нарушением права на частную собственность и др. В итоге, в 79 % случаев ИИ выносил аналогичное решение, которое принял суд[1]. При этом сами разработчики из Университетского колледжа в Лондоне отметили, что «замена» судей, которые рассматривают дело по существу и выносят вердикт, не представляется возможной. Такой механизм может служить лишь определенным вспомогательным инструментом при рассмотрении дела, раскрывать определенные закономерности, но никак не предопределять финальное решение по делу [4].

Полная и безусловная «замена» в юридической сфере человека на ИИ, по крайней мере, на современном этапе развития, не является возможной. Одной из причин выступает непреодолимая сложность в формировании объективных, лишенных всяких предрассудков алгоритмов при обучении системы. Ярким тому доказательством служит опыт США: разработанное программное обеспечение по оценке вероятности рецидива преступления.  Исходные данные содержали в себе несколько существенных и «ядовитых» факторов, которые и привели к дискриминации в отношении расовой принадлежности человека. Ввиду того, что данные основывались на предыдущих решениях судов, никто и не подумал о том, что такие решения могут быть несправедливыми. Поэтому система и отмечала повышенным риском людей в зависимости от их расовой принадлежности, и почти в два раза увеличивала потенциальную вероятность повторного совершения лицом преступления (23,5 % для белых против 44,9 % афроамериканцев[2]).

Прежде чем углубиться в аспекты формирования правосознания у лиц, осуществляющих деятельность юридической направленности, следует определить рамки использования термина «инновационное правосознание». Конечно, можно сказать о некоторых передовых и новых взглядах на право у юристов, однако речь все же не об этом. Инновационное правосознание в первую очередь следует определять как совокупность правовых взглядов, различных правовых ценностей и установлений конкретного субъекта деятельности, возникающих непосредственно при использовании информационных технологий, осуществлении деятельности в сети Интернет. Такое правосознание на данный промежуток развития общества пока может прослеживаться лишь у физического лица, хотя потенциально с течением времени может появиться и у самого ИИ. Первичным этапом в формировании и развитии инновационного правосознания у ИИ должно стать возникновение сознания как такового, что по сей день не произошло. Вместе с тем, формирование окончательного решения по делу искусственным интеллектом не является инновационным правосознанием, поскольку ИИ лишь разрешает дело на основании изученных или запрограммированных норм права, а не представляет свою личную самобытную оценку и определяет применимость конкретной нормы на определенном этапе общественного развития.

Для того, чтобы оценить хотя бы теоретическую возможность возникновения инновационного правосознания у искусственного интеллекта, следует проанализировать такие процессы у представителей юридической профессии. Так, юристы общеправового профиля достаточно часто используют в своей работе различные инструменты по упрощению задач[3], будь то поиск или анализ судебной практики, консультирование клиентов специальными ботами, создание типовых договоров и соглашений между доверителем и адвокатом [8].  Исследование международной юридической фирмы McKinsey & Company[4] показывает, что некоторые юридические фирмы уже используют ИИ для составления необходимых документов. ИИ генерирует такие документы за считанные минуты, а человеку потребовалось бы несколько дней.

По нашему мнению, ключевым решением казуса и его соотнесением с интересами клиента должен заниматься исключительно доверитель, по сути, юрист или адвокат [3, 16]. В целом, можно полностью роботизировать судебный процесс (имеется опыт судебных онлайн платформ в Китае[5]), однако в действительности это касается далеко не всех видов судопроизводства.  Например, рассмотрение уголовных дел не может подпадать под исключительное руководство ИИ. Суд должен самостоятельно, независимо и беспристрастно разрешать уголовные дела и выполнять одну из главных функций уголовного судопроизводства – установление вины обвиняемого и признание какого-либо деяния уголовно-наказуемым. Если искусственный интеллект будет отправлять правосудие в этой сфере, то может произойти подмена истинных понятий[6], что приведет к нарушению такой функции права как установление справедливости, ведь кто, как не юрист или адвокат обладает способностью чувствовать настроения и представления общества о такой, хотя и размытой, но все же существующей правовой категории [10, 15]. ИИ не сможет как оценить психоэмоциональное состояние человека и отношение к деянию в уголовном деле, так и установить отягчающие и смягчающие обстоятельства преступления. Несомненно, ИИ не обладает специфическими свойствами, позволяющими определить, в каком случае имеет место необходимая самооборона, а также иные обстоятельства, исключающие уголовную ответственность, в отличие от того же юриста, поскольку лишь на уровне человеческого понимания можно со стороны взглянуть на нетипичные действия другого лица [11]. ИИ не сможет распознать и идентифицировать изменения психики лица в момент совершения преступления.

С другой стороны, можно выдвинуть тезис о том, что под эти ситуации можно заложить в ИИ определенные механизмы и последовательности определения психических изменений лица, но все равно это не будет в полной мере являться инновационным правосознанием. Именно поэтому вероятность совершения ошибки искусственным интеллектом в уголовном деле значительно увеличивается.  Следует также обратить внимание на представителей стороны обвинения, а именно – сотрудников государственной прокуратуры. Как представляется, ИИ не может заменить прокуроров на данном промежутке времени, поскольку они – прокуроры – от имени государства самостоятельно и независимо оценивают степень текущей общественной опасности и впоследствии просят суд о соразмерной мере наказания за совершенное деяние в суде (особенно актуально для стран смешанной правовой семьи).

Другой юридической профессией, без которой нельзя представить развитое государство, являются депутаты законодательных собраний [9, 17]. Общепризнанно, что представители законодательной ветви власти опосредованно выражают мнение избирателей. Как следствие, в течение своей законотворческой деятельности у депутатов формируются определенные политические и правовые воззрения, исходя из которых и при условии одобрения граждан, они могут реализовывать общественные и государственные требования в форме законодательного акта. На постоянной основе оценить внешнюю общественную оценку своей законодательной деятельности ИИ вряд ли сможет. Скорее всего, прийти к полноценному доверию между ИИ и гражданами будет практически невозможно.

Напротив, следует отметить и такой положительный аспект искусственного интеллекта как формирование комплексного мнения на основе определенного количества вводных или исследуемых данных. Например, опыт различных соревнований в разрешении юридических кейсов между искусственным интеллектом и юристом показывает, что он может делать комплексный вывод на основе изученных правовых норм [5]. Искусственный интеллект может знать «букву» закона, но крайне редко осознает его «дух». Все же выступать схожим или конкурировать в высокой степени с правотворческой деятельностью законодателей он не может, хоть и упрощает механическую работу депутатов, а также формулирует некоторые стандартные положения закона по типу отсылочного указания необходимых нормативно-правовых актов (ссылочных и бланкетных норм).

По крайней мере, в ближайшем будущем искусственный интеллект не сможет заменить те сферы общественной и правовой жизни, где требуется представление интересов человека, поскольку на сегодняшний день наука заявляет о неспособности приведения к единому знаменателю сознания (в том числе, очевидно, и правосознания) человека и машины [10, 12]. Окончательный вердикт должен оставаться за человеком в силу того, что искусственный интеллект не может определить текущее состояние общества, культурные и национальные ценности, правовые традиции.

Вместе с тем роботизация и внедрение искусственного интеллекта позволяет упростить механические и рутинные процессы работы специалистов юридической профессии [14].  При крайне высокоразвитых технологиях можно допустить и ситуацию совместной работы машины и человека в праве, где то самое судьбоносное решение должно оставаться исключительно за человеком[7].

Появление искусственного интеллекта, конечно же, ознаменовало определенные качественные изменения в системе противодействия преступности. Использование алгоритмов, анализ большого количества информационных данных позволяет правоохранительным органам некоторых стран, которые имеют соответствующие технологии, «предсказывать» совершение того или иного преступления, устанавливать риски и криминогенные ситуации на раннем этапе их появления [18]. Вместе с тем технологии получают широкое распространение и в преступной среде, особенно в сфере киберпреступлений.

В этой связи будет справедливо высказывание Вольтера: «Нет такого зла, которое не порождало бы добро» [1]. С развитием преступности развиваются и средства, сдерживающие её. То есть, появление карты преступности («map crime») вызвано именно стремлением предотвратить противоправное деяние. Но как использование технологий отражается на личности преступника? Какое место при этом занимает этическая составляющая искусственного интеллекта?

Интересным является пример использования роботов для спасения людей из-под завалов. Его привели для того, чтобы показать необходимость взаимодействия человека и машины, без которого последствия могут быть необратимыми. Предположим, в США произошло землетрясение, аналогичное происшествию на Аляске 2021 года, под завалами находятся люди, которым нужна срочная помощь. ИИ просчитывает самый эффективный способ поиска таких жертв и возможные варианты их эвакуации. Однако возникает сложность: машина просчитала как можно достать человека, но это сопряжено с ампутацией его ног, какое решение примет машина? И сможет ли она вообще принять такое решение, если в основе её функционирования будет заложен принцип, запрещающий нанесение какого-либо вреда человеку? Именно поэтому необходим тщательный выбор возможных этических основ функционирования различных технологий. Помимо возможных ошибок в первоначальных данных (пример уже был приведен ранее), необходим анализ основных принципов деятельности того или иного инструмента, которые можно представить в виде следующей системы: предотвращение нежелательных результатов, принцип активной ответственности и устранение этических недостатков у искусственного интеллекта [7].

Вышеперечисленные элементы системы будут ориентировать робота на последовательный анализ всех трех элементов, что, конечно же, не вызывает вопросов. Однако в случае с принципом активной ответственности возникают некоторые проблемы. Необходим тщательный контроль в отношении лиц, которые будут допущены к разработке тех или иных алгоритмов ИИ. Это важно хотя бы с той точки зрения, что для некоторых преступников использование информационных технологий, вредоносного программного обеспечения и вирусов как бы ставит барьер при осознании ответственности за такое деяние. Чувство безнаказанности за совершение преступления на территории иностранного государства снимает внутренние психологические барьеры и способствует развитию киберпреступности.

Безусловно, на развитие преступности оказывает влияние целый ряд факторов: низкая правовая грамотность, социальное окружение, экономическое состояние в стране и пр. В подтверждение данного тезиса можно привести пример, который связан с состоянием преступности во время пандемии COVID-19, когда практически во всех странах наблюдалось снижение общего уровня преступности, но при этом отмечался значительный рост киберпреступности (в том числе кибербуллинга и кибермоббинга) [13]. Но возможное «формирование» инновационного правосознания напрямую связано с правосознанием граждан той страны, в которой он разрабатывается. Связь достаточно простая: прежде чем установить этические начала ИИ необходимо определиться с аналогичным началом у человека, который будет его создавать.

Возникновение инновационного правосознания у преступников связано зачастую с теми навыками и умениями, которые они приобретают в процессе осуществления профессиональной деятельности (это IT-специалисты). Однако и другие лица, осведомленные о низкой раскрываемости такой категории преступлений, пользуются возможностями сети Интернет.

Одним из препятствий в привлечении киберпреступника к уголовной ответственности является транснациональный характер самого деяния: лицо находится в одном государстве и совершает преступление против интересов другого государства или его граждан. Использование VPN также затрудняет идентификацию личности преступника. Как правило, профессиональные IT-специалисты, хакеры, опытные мошенники, в целом, обладают достаточным объемом навыков для того, чтобы определить уязвимость в определенной информационной системе, а также предусмотреть необходимые меры для собственной анонимизации. Именно поэтому многие киберпреступники совершают противоправные деяния: они прекрасно осознают, что за это они не понесут наказание. В таком случае формируются определенные представления о возможности совершить противоправное деяние в сети Интернет. В конечном счете, совокупность представлений перетекает уже в правосознание. Если же лицо коммуницирует с другими специалистами и продвигает свои взгляды, то в таком случае идея безнаказанности и «легких денег» продвигается в массы.

Наличие таких устоявшихся взглядов и ценностных установок наглядно демонстрирует как ряд громких примеров и общемировая тенденция, так и специальная статистика. Например, в 2020 году была взломана база данных Vastaamo – психотерапевтический центр в Финляндии[8]. База содержала конфиденциальную информацию о пациентах, записи о встречах с терапевтами. Каждый пациент понес ущерб около 200-635 евро, а сам центр около 450-530 тысяч евро. Однако самое главное в этом деле то, что преступники так и не были найдены и не привлечены к уголовной ответственности, а информация о пациентах затем появилась в «даркнете»[9]. В России же процент раскрываемости киберпреступлений крайне низкий (не более 25 %)[10], при этом наблюдается непрерывный и масштабный рост киберпреступности.

Применимость или замена искусственным интеллектом ряда юридических профессий вызывает многочисленные споры и дискуссии. Человечество в силу объективных причин пока не может представить, каким оно будет через много лет, и какими новыми функциями и навыками будет обладать искусственный интеллект в юридической сфере, не говоря уже о формировании нового инновационного правосознания. С другой стороны, даже несмотря на разъясняющие положения судов (в Российской Федерации это Постановления Пленума Верховного Суда), на данный момент искусственный интеллект не может превзойти или даже в значительной степени сравниться с логикой человека в юридической сфере.

Напротив, что касается формирования инновационного правосознания у физических лиц, то оно не означает наличие исключительно преступного умысла на использование информационных технологий. Во-первых, необходимо общественное порицание использования Интернета как способа и средства совершения преступления. Неотвратимость наказания, высокая раскрываемость преступлений правоохранительными органами, «контркибервойска», подотчетность IT-специалистов – это лишь некоторые меры, которые могут позволить снизить преступную мотивацию использования информационных технологий для совершения преступления.

Сноски

Нажмите на активную сноску снова, чтобы вернуться к чтению текста.

[1] Artificial intelligence ‘judge’ developed by UCL computer scientists // The Guardian. URL: https://www.theguardian.com/technology/2016/oct/24/artificial-intelligence-judge-university-college-london-computer-scientists (дата обращения: 01.04.2021).

[2] Machine Bias // ProPublica. 2016. May 23. URL: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (дата обращения: 02.05.2022).

[3] AI in Law and Legal Practice – A Comprehensive View of 35 Current Applications // Emerj’s AI research and advisory services. URL: https://emerj.com/ai-sector-overviews/ai-in-law-legal-practice-current-applications/ (дата обращения: 01.03.2021).

[4] Disruptive technologies: Advances that will transform life, business, and the global economy // McKinsey Global Institute. May 1, 2013. Report.

[5] В Китае начал работать первый интернет суд. URL:  https://www.rbc.ru/rbcfreenews/59967de79a7947504ed97aa5 (дата обращения: 13.07.2021).

[6] Юридический баттл: робот от МегаФон vs Роман Бевзенко. URL: https://pravo.ru/lf/story/202675/ (дата обращения: 10.05.2021).

[7] NLP may use machine learning but also other techniques such as network diagrams and question answering which are described by Kevin D Ashley [5].

[8] Hackers Are Holding Psychotherapy Data Ransom // Vice. URL: https://www.vice.com/en/article/n7vw9d/hackers-are-holding-psychotherapy-data-ransom (дата обращения: 13.12.2022).

[9] Десять самых громких кибератак XXI века // РБК. URL: https://trends.rbc.ru/trends/industry/600702d49a79473ad25c5b3e (дата обращения: 13.12.2022).

[10] Генпрокуратура поделилась шокирующими цифрами раскрываемости киберпреступлений // Infox. URL: https://www.infox.ru/news/251/256735-genprokuratura-podelilas-sokiruusimi-ciframi-raskryvaemosti-kiberprestuplenij?ysclid=lbm2rc4uai739994822 (дата обращения: 13.12.2022).

Список источников

  1. Вольтер, Франсуа-Мари Аруэ. Философские повести : пер. с фр. – Москва : Эксмо, 2016. – 672 с.
  2. Иншаков С. М. Криминология : учебник.– Москва : Юриспруденция, 2000. – 426 c.
  3. Alarie Benjamin, Niblett Anthony, Yoon Albert. How Artificial Intelligence Will Affect the Practice of Law // University of Toronto Law Journal. – 2018. – Vol. 68. – P. 106–114.
  4. Aletras N., Tsarapatsanis D., Preoţiuc-Pietro D., Lampos V. Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective // PeerJ Computer Science. – 2016. – Oct.
  5. Ashley Kevin D. Automatically Extracting Meaning from Legal Texts: Opportunities and Challenges // Georgia State University Law Review. – 2019. – Vol. 35 (4). – P. 1117–1151.
  6. Davis Joshua P. Artificial Wisdom: A Potential Limit on AI in Law (and Elsewhere) // Oklahoma Law Review. – 2019. – Vol. 72 (1). – P. 51–89.
  7. Ethics in human – AI teaming: principles and perspectives / M. Pflanzer, Z. Traylor, J. B. Lyons et al. // AI Ethics. 2022. – URL https://doi.org/10.1007/s43681-022-00214-z.
  8. Legg Michael, Bell Felicity. Artificial intelligence and the legal profession: becoming the ai-enhanced lawyer // The University of Tasmania Law Review. – 2019. – Vol. 38, no. 2. – P. 34–59.
  9. Ng Yee-Fui, O’Sullivan Maria. Deliberation and Automation – When is a Decision a “Decision?” // Australian Journal of Administrative Law. – 2019. – Vol. 26 (1). – P. 21–34.
  10. Remus Dana, Levy Frank. Can Robots Be Lawyers: Computers, Lawyers, and the Practice of Law // Georgetown Journal of Legal Ethics. – 2017. – Vol. 30 (3). – P. 501–508.
  11. Robbennolt Jennifer K., Sternlight Jean R. Behavioral Legal Ethic // Arizona State Law Journal. – 2013. – Vol. 45 (3). – P. 1107.
  12. Rostain Tanina. Robots Versus Lawyers: A User-Centered Approach // Georgetown Journal of Legal Ethics. – 2017. – Vol. 30 (3). – P. 559–574.
  13. Stickle B., Felson M. Crime Rates in a Pandemic: The Largest Criminological Experiment in History // American Journal of Criminal Justice. – 2020. – Vol. 45 (4). – P. 525–536.
  14. Surden Harry. Artificial Intelligence and Law: An Overvie  // Georgia State University Law Review. – 2019. – Vol. 35 (4). – P. 1305–1309.
  15. Wendel Bradley W. The Promise and Limitations of Artificial Intelligence in the Practice of Law // Oklahoma Law Review. – 2019. – Vol. 72 (1). – P. 21–49.
  16. Yoon Albert H. The Post-Modern Lawyer: Technology and the Democratization of Legal Representation // University of Toronto Law Journal. – 2018. – Vol. 66(4). – P. 456–466.
  17. Zalnieriute Monika, Moses Lyria Bennett, Williams George. The Rule of Law and Automation of Government Decision-Making // Modern Law Review. – 2019. – Vol. 82 (3). – P. 425–455.
  18. Završnik Aleš. Criminal justice, artificial intelligence systems, and human rights // ERA Forum. Journal of the Academy of European Law.– 2020. – Vol. 20 (4). – P. 567–583.

References

  1. Voltaire, Francois-Marie Arouet. Filosofskie povesti [Philosophical Stories]. Moscow, Ehksmo Publ., 2016. 672 p.
  2. Inshakov S. M. Kriminologiya [Criminology]. Moscow, Yurisprudentsiya Publ., 2000. 426 p.
  3. Alarie Benjamin, Niblett Anthony, Yoon Albert. How Artificial Intelligence Will Affect the Practice of Law. University of Toronto Law Journal, 2018, vol. 68, pp. 106–114.
  4. Aletras N., Tsarapatsanis D., Preoţiuc-Pietro D., Lampos V. Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective. PeerJ Computer Science, 2016, Oct.
  5. Ashley Kevin D. Automatically Extracting Meaning from Legal Texts: Opportunities and Challenges. Georgia State University Law Review, 2019, vol. 35 (4), pp. 1117–1151.
  6. Davis Joshua P. Artificial Wisdom: A Potential Limit on AI in Law (and Elsewhere). Oklahoma Law Review, 2019, vol. 72 (1), pp. 51–89.
  7. Pflanzer M., Traylor Z., Lyons J. B. et al. Ethics in human – AI teaming: principles and perspectives. AI Ethics, 2022. URL https://doi.org/10.1007/s43681-022-00214-z.
  8. Legg Michael, Bell Felicity. Artificial intelligence and the legal profession: becoming the ai-enhanced lawyer. The University of Tasmania Law Review, 2019, vol. 38, no. 2, pp. 34–59.
  9. Ng Yee-Fui, O’Sullivan Maria. Deliberation and Automation – When is a Decision a “Decision?” Australian Journal of Administrative Law, 2019, vol. 26 (1), pp. 21–34.
  10. Remus Dana, Levy Frank. Can Robots Be Lawyers: Computers, Lawyers, and the Practice of Law. Georgetown Journal of Legal Ethics, 2017, vol. 30 (3), pp.501–508.
  11. Robbennolt Jennifer K., Sternlight Jean R. Behavioral Legal Ethic. Arizona State Law Journal, 2013, vol. 45 (3), p. 1107.
  12. Rostain Tanina. Robots Versus Lawyers: A User-Centered Approach. Georgetown Journal of Legal Ethics, 2017, vol. 30 (3), pp.559–574.
  13. Stickle B., Felson M. Crime Rates in a Pandemic: The Largest Criminological Experiment in History. American Journal of Criminal Justice, 2020, vol. 45 (4), pp. 525–536.
  14. Surden Harry. Artificial Intelligence and Law: An Overvie. Georgia State University Law Review, 2019, vol. 35 (4), pp. 1305–1309.
  15. Wendel Bradley W. The Promise and Limitations of Artificial Intelligence in the Practice of Law. Oklahoma Law Review, 2019, vol. 72 (1), pp. 21–49.
  16. Yoon Albert H. The Post-Modern Lawyer: Technology and the Democratization of Legal Representation. University of Toronto Law Journal, 2018, vol. 66 (4), pp. 456–466.
  17. Zalnieriute Monika, Moses Lyria Bennett, Williams George. The Rule of Law and Automation of Government Decision-Making. Modern Law Review, 2019, 82 (3), pp. 425–455.
  18. Završnik Aleš. Criminal justice, artificial intelligence systems, and human rights. ERA Forum. Journal of the Academy of European Law, 2020, vol. 20 (4), pp. 567–583.