Развитие современного общества неразрывно связано с совершенствованием информационных технологий, которые проникли практически во все сферы жизни человека и общества. Эти процессы не могли не коснуться юридического поля в широком смысле этого слова. Сейчас многие люди задаются закономерными вопросами: возможно ли полностью заменить, например, судью, который выносит решение по конкретному делу? Сможет ли искусственный интеллект давать эффективные юридические консультации клиенту? Такие вопросы в какой-то мере имеют под собой определенные основания, однако при детальном анализе форм развития технологий, применимых в юридической сфере, они отпадают сами по себе.
Появление профессии «юриста» было неразрывно связано с постепенным становлением права и государственности. Правовые нормы должны соответствовать действительности, а люди, которые взяли на себя полномочия по охране закона и справедливости как высшей ценности права, должны отвечать современным вызовам и угрозам. Искусственный интеллект и алгоритмические системы могут выступать определенным вспомогательным инструментом в отдельно взятых ситуациях. Но они не могут оказывать разрушительное влияние на человека и его дальнейшую судьбу. Именно формирование общих представлений о законном и противозаконном, диспозитивном и императивном, справедливом и необоснованном должно быть поставлено во главе угла темы использования искусственного интеллекта в правовом пространстве.
На протяжении десятилетий формировались и видоизменялись способы и методы противодействия, борьбы, профилактики и контроля над неправомерным поведением. Следовательно, искусственный интеллект обучается исходя из этих существующих знаний, а количественные и в качественные показатели преступности дополняют работу этих алгоритмов [2, с. 40–45].
За последнее десятилетие были предприняты различные попытки использования информационных технологий в юридической среде. Подходы их применения варьировались в зависимости от той или иной правовой или политической системы, социокультурных факторов, традиций. Так, в 2016 году было разработано специальное программное обеспечение, которое на основе заложенных алгоритмов и общих представлений о правомерном и неправомерном поведении могло взвешивать имеющиеся в деле доказательства и выносить вердикт. Для создания такой системы разработчики передали искусственному интеллекту (далее по тексту – ИИ) 584 дела, рассмотренных ЕСПЧ. Все эти случаи были сопряжены с различными нарушениями прав человека: пытками, унижающим достоинство обращением, нарушением права на частную собственность и др. В итоге, в 79 % случаев ИИ выносил аналогичное решение, которое принял суд[1]. При этом сами разработчики из Университетского колледжа в Лондоне отметили, что «замена» судей, которые рассматривают дело по существу и выносят вердикт, не представляется возможной. Такой механизм может служить лишь определенным вспомогательным инструментом при рассмотрении дела, раскрывать определенные закономерности, но никак не предопределять финальное решение по делу [4].
Полная и безусловная «замена» в юридической сфере человека на ИИ, по крайней мере, на современном этапе развития, не является возможной. Одной из причин выступает непреодолимая сложность в формировании объективных, лишенных всяких предрассудков алгоритмов при обучении системы. Ярким тому доказательством служит опыт США: разработанное программное обеспечение по оценке вероятности рецидива преступления. Исходные данные содержали в себе несколько существенных и «ядовитых» факторов, которые и привели к дискриминации в отношении расовой принадлежности человека. Ввиду того, что данные основывались на предыдущих решениях судов, никто и не подумал о том, что такие решения могут быть несправедливыми. Поэтому система и отмечала повышенным риском людей в зависимости от их расовой принадлежности, и почти в два раза увеличивала потенциальную вероятность повторного совершения лицом преступления (23,5 % для белых против 44,9 % афроамериканцев[2]).
Прежде чем углубиться в аспекты формирования правосознания у лиц, осуществляющих деятельность юридической направленности, следует определить рамки использования термина «инновационное правосознание». Конечно, можно сказать о некоторых передовых и новых взглядах на право у юристов, однако речь все же не об этом. Инновационное правосознание в первую очередь следует определять как совокупность правовых взглядов, различных правовых ценностей и установлений конкретного субъекта деятельности, возникающих непосредственно при использовании информационных технологий, осуществлении деятельности в сети Интернет. Такое правосознание на данный промежуток развития общества пока может прослеживаться лишь у физического лица, хотя потенциально с течением времени может появиться и у самого ИИ. Первичным этапом в формировании и развитии инновационного правосознания у ИИ должно стать возникновение сознания как такового, что по сей день не произошло. Вместе с тем, формирование окончательного решения по делу искусственным интеллектом не является инновационным правосознанием, поскольку ИИ лишь разрешает дело на основании изученных или запрограммированных норм права, а не представляет свою личную самобытную оценку и определяет применимость конкретной нормы на определенном этапе общественного развития.
Для того, чтобы оценить хотя бы теоретическую возможность возникновения инновационного правосознания у искусственного интеллекта, следует проанализировать такие процессы у представителей юридической профессии. Так, юристы общеправового профиля достаточно часто используют в своей работе различные инструменты по упрощению задач[3], будь то поиск или анализ судебной практики, консультирование клиентов специальными ботами, создание типовых договоров и соглашений между доверителем и адвокатом [8]. Исследование международной юридической фирмы McKinsey & Company[4] показывает, что некоторые юридические фирмы уже используют ИИ для составления необходимых документов. ИИ генерирует такие документы за считанные минуты, а человеку потребовалось бы несколько дней.
По нашему мнению, ключевым решением казуса и его соотнесением с интересами клиента должен заниматься исключительно доверитель, по сути, юрист или адвокат [3, 16]. В целом, можно полностью роботизировать судебный процесс (имеется опыт судебных онлайн платформ в Китае[5]), однако в действительности это касается далеко не всех видов судопроизводства. Например, рассмотрение уголовных дел не может подпадать под исключительное руководство ИИ. Суд должен самостоятельно, независимо и беспристрастно разрешать уголовные дела и выполнять одну из главных функций уголовного судопроизводства – установление вины обвиняемого и признание какого-либо деяния уголовно-наказуемым. Если искусственный интеллект будет отправлять правосудие в этой сфере, то может произойти подмена истинных понятий[6], что приведет к нарушению такой функции права как установление справедливости, ведь кто, как не юрист или адвокат обладает способностью чувствовать настроения и представления общества о такой, хотя и размытой, но все же существующей правовой категории [10, 15]. ИИ не сможет как оценить психоэмоциональное состояние человека и отношение к деянию в уголовном деле, так и установить отягчающие и смягчающие обстоятельства преступления. Несомненно, ИИ не обладает специфическими свойствами, позволяющими определить, в каком случае имеет место необходимая самооборона, а также иные обстоятельства, исключающие уголовную ответственность, в отличие от того же юриста, поскольку лишь на уровне человеческого понимания можно со стороны взглянуть на нетипичные действия другого лица [11]. ИИ не сможет распознать и идентифицировать изменения психики лица в момент совершения преступления.
С другой стороны, можно выдвинуть тезис о том, что под эти ситуации можно заложить в ИИ определенные механизмы и последовательности определения психических изменений лица, но все равно это не будет в полной мере являться инновационным правосознанием. Именно поэтому вероятность совершения ошибки искусственным интеллектом в уголовном деле значительно увеличивается. Следует также обратить внимание на представителей стороны обвинения, а именно – сотрудников государственной прокуратуры. Как представляется, ИИ не может заменить прокуроров на данном промежутке времени, поскольку они – прокуроры – от имени государства самостоятельно и независимо оценивают степень текущей общественной опасности и впоследствии просят суд о соразмерной мере наказания за совершенное деяние в суде (особенно актуально для стран смешанной правовой семьи).
Другой юридической профессией, без которой нельзя представить развитое государство, являются депутаты законодательных собраний [9, 17]. Общепризнанно, что представители законодательной ветви власти опосредованно выражают мнение избирателей. Как следствие, в течение своей законотворческой деятельности у депутатов формируются определенные политические и правовые воззрения, исходя из которых и при условии одобрения граждан, они могут реализовывать общественные и государственные требования в форме законодательного акта. На постоянной основе оценить внешнюю общественную оценку своей законодательной деятельности ИИ вряд ли сможет. Скорее всего, прийти к полноценному доверию между ИИ и гражданами будет практически невозможно.
Напротив, следует отметить и такой положительный аспект искусственного интеллекта как формирование комплексного мнения на основе определенного количества вводных или исследуемых данных. Например, опыт различных соревнований в разрешении юридических кейсов между искусственным интеллектом и юристом показывает, что он может делать комплексный вывод на основе изученных правовых норм [5]. Искусственный интеллект может знать «букву» закона, но крайне редко осознает его «дух». Все же выступать схожим или конкурировать в высокой степени с правотворческой деятельностью законодателей он не может, хоть и упрощает механическую работу депутатов, а также формулирует некоторые стандартные положения закона по типу отсылочного указания необходимых нормативно-правовых актов (ссылочных и бланкетных норм).
По крайней мере, в ближайшем будущем искусственный интеллект не сможет заменить те сферы общественной и правовой жизни, где требуется представление интересов человека, поскольку на сегодняшний день наука заявляет о неспособности приведения к единому знаменателю сознания (в том числе, очевидно, и правосознания) человека и машины [10, 12]. Окончательный вердикт должен оставаться за человеком в силу того, что искусственный интеллект не может определить текущее состояние общества, культурные и национальные ценности, правовые традиции.
Вместе с тем роботизация и внедрение искусственного интеллекта позволяет упростить механические и рутинные процессы работы специалистов юридической профессии [14]. При крайне высокоразвитых технологиях можно допустить и ситуацию совместной работы машины и человека в праве, где то самое судьбоносное решение должно оставаться исключительно за человеком[7].
Появление искусственного интеллекта, конечно же, ознаменовало определенные качественные изменения в системе противодействия преступности. Использование алгоритмов, анализ большого количества информационных данных позволяет правоохранительным органам некоторых стран, которые имеют соответствующие технологии, «предсказывать» совершение того или иного преступления, устанавливать риски и криминогенные ситуации на раннем этапе их появления [18]. Вместе с тем технологии получают широкое распространение и в преступной среде, особенно в сфере киберпреступлений.
В этой связи будет справедливо высказывание Вольтера: «Нет такого зла, которое не порождало бы добро» [1]. С развитием преступности развиваются и средства, сдерживающие её. То есть, появление карты преступности («map crime») вызвано именно стремлением предотвратить противоправное деяние. Но как использование технологий отражается на личности преступника? Какое место при этом занимает этическая составляющая искусственного интеллекта?
Интересным является пример использования роботов для спасения людей из-под завалов. Его привели для того, чтобы показать необходимость взаимодействия человека и машины, без которого последствия могут быть необратимыми. Предположим, в США произошло землетрясение, аналогичное происшествию на Аляске 2021 года, под завалами находятся люди, которым нужна срочная помощь. ИИ просчитывает самый эффективный способ поиска таких жертв и возможные варианты их эвакуации. Однако возникает сложность: машина просчитала как можно достать человека, но это сопряжено с ампутацией его ног, какое решение примет машина? И сможет ли она вообще принять такое решение, если в основе её функционирования будет заложен принцип, запрещающий нанесение какого-либо вреда человеку? Именно поэтому необходим тщательный выбор возможных этических основ функционирования различных технологий. Помимо возможных ошибок в первоначальных данных (пример уже был приведен ранее), необходим анализ основных принципов деятельности того или иного инструмента, которые можно представить в виде следующей системы: предотвращение нежелательных результатов, принцип активной ответственности и устранение этических недостатков у искусственного интеллекта [7].
Вышеперечисленные элементы системы будут ориентировать робота на последовательный анализ всех трех элементов, что, конечно же, не вызывает вопросов. Однако в случае с принципом активной ответственности возникают некоторые проблемы. Необходим тщательный контроль в отношении лиц, которые будут допущены к разработке тех или иных алгоритмов ИИ. Это важно хотя бы с той точки зрения, что для некоторых преступников использование информационных технологий, вредоносного программного обеспечения и вирусов как бы ставит барьер при осознании ответственности за такое деяние. Чувство безнаказанности за совершение преступления на территории иностранного государства снимает внутренние психологические барьеры и способствует развитию киберпреступности.
Безусловно, на развитие преступности оказывает влияние целый ряд факторов: низкая правовая грамотность, социальное окружение, экономическое состояние в стране и пр. В подтверждение данного тезиса можно привести пример, который связан с состоянием преступности во время пандемии COVID-19, когда практически во всех странах наблюдалось снижение общего уровня преступности, но при этом отмечался значительный рост киберпреступности (в том числе кибербуллинга и кибермоббинга) [13]. Но возможное «формирование» инновационного правосознания напрямую связано с правосознанием граждан той страны, в которой он разрабатывается. Связь достаточно простая: прежде чем установить этические начала ИИ необходимо определиться с аналогичным началом у человека, который будет его создавать.
Возникновение инновационного правосознания у преступников связано зачастую с теми навыками и умениями, которые они приобретают в процессе осуществления профессиональной деятельности (это IT-специалисты). Однако и другие лица, осведомленные о низкой раскрываемости такой категории преступлений, пользуются возможностями сети Интернет.
Одним из препятствий в привлечении киберпреступника к уголовной ответственности является транснациональный характер самого деяния: лицо находится в одном государстве и совершает преступление против интересов другого государства или его граждан. Использование VPN также затрудняет идентификацию личности преступника. Как правило, профессиональные IT-специалисты, хакеры, опытные мошенники, в целом, обладают достаточным объемом навыков для того, чтобы определить уязвимость в определенной информационной системе, а также предусмотреть необходимые меры для собственной анонимизации. Именно поэтому многие киберпреступники совершают противоправные деяния: они прекрасно осознают, что за это они не понесут наказание. В таком случае формируются определенные представления о возможности совершить противоправное деяние в сети Интернет. В конечном счете, совокупность представлений перетекает уже в правосознание. Если же лицо коммуницирует с другими специалистами и продвигает свои взгляды, то в таком случае идея безнаказанности и «легких денег» продвигается в массы.
Наличие таких устоявшихся взглядов и ценностных установок наглядно демонстрирует как ряд громких примеров и общемировая тенденция, так и специальная статистика. Например, в 2020 году была взломана база данных Vastaamo – психотерапевтический центр в Финляндии[8]. База содержала конфиденциальную информацию о пациентах, записи о встречах с терапевтами. Каждый пациент понес ущерб около 200-635 евро, а сам центр около 450-530 тысяч евро. Однако самое главное в этом деле то, что преступники так и не были найдены и не привлечены к уголовной ответственности, а информация о пациентах затем появилась в «даркнете»[9]. В России же процент раскрываемости киберпреступлений крайне низкий (не более 25 %)[10], при этом наблюдается непрерывный и масштабный рост киберпреступности.
Применимость или замена искусственным интеллектом ряда юридических профессий вызывает многочисленные споры и дискуссии. Человечество в силу объективных причин пока не может представить, каким оно будет через много лет, и какими новыми функциями и навыками будет обладать искусственный интеллект в юридической сфере, не говоря уже о формировании нового инновационного правосознания. С другой стороны, даже несмотря на разъясняющие положения судов (в Российской Федерации это Постановления Пленума Верховного Суда), на данный момент искусственный интеллект не может превзойти или даже в значительной степени сравниться с логикой человека в юридической сфере.
Напротив, что касается формирования инновационного правосознания у физических лиц, то оно не означает наличие исключительно преступного умысла на использование информационных технологий. Во-первых, необходимо общественное порицание использования Интернета как способа и средства совершения преступления. Неотвратимость наказания, высокая раскрываемость преступлений правоохранительными органами, «контркибервойска», подотчетность IT-специалистов – это лишь некоторые меры, которые могут позволить снизить преступную мотивацию использования информационных технологий для совершения преступления.