СУЩНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И ПРОБЛЕМА ОПРЕДЕЛЕНИЯ ПРАВОСУБЪЕКТНОСТИ
Хисамова З.И., Краснодарский университет Министерства внутренних дел Российской Федерации, г. Краснодар
Бегишев И.Р., Казанский инновационный университет имени В.Г. Тимирясова, г. Казань
Аннотация
Цель. Цель данного исследования заключается в определении правовой сущности искусственного интеллекта и выработке единого подхода к установлению возможной правосубъектности, а также юридической ответственности искусственного интеллекта.
Процедура и методы исследования. Авторами проанализированы имеющиеся научная литература и нормативно-правовая база в сфере правового регулирования искусственного интеллекта. Методологическую основу исследования составляет совокупность методов научного познания, в т. ч. абстрактно-логического, корреляционного анализа и сравнения.
Результаты проведённого исследования. Анализ показал, что в настоящее время не разработано определения понятия «искусственный интеллект», имеет место проблема признания его субъектом права. Авторы утверждают, что, только решив вышеуказанные вопросы, можно сформировать модель правового регулирования, включающую ряд правоотношений с участием искусственного интеллекта и возложением на него юридической ответственности. Оптимальным видится наделение искусственного интеллекта ограниченной правосубъектностью (путём применения юридической фикции), обязанностью нести ответственность за причиняемый вред и негативные последствия.
Теоретическая / практическая значимость. Теоретическая и практическая значимость исследования обусловлена отсутствием в настоящее время возможности применения к отношениям с участием искусственного интеллекта правовых норм и правил, учитывающих их сущность. Основные положения и выводы исследования могут быть использованы для совершенствования механизмов правового регулирования искусственного интеллекта.
Ключевые слова: интеллектуальная система, искусственный интеллект, ответственность искусственного интеллекта, ответственность, понятие искусственного интеллекта, правосубъектность, субъект права, фикция, цифровые технологии, цифровая экономика
Abstract
THE NATURE OF ARTIFICIAL INTELLIGENCE AND THE PROBLEM OF LEGAL PERSONALITY DETERMINATION.
Z. Hisamova, Krasnodar University of the Ministry of Internal Affairs of the Russian Federation Krasnodar.
I. Begishev, Kazan Innovative University named after V. G. Timiryasov Kazan.
Purpose.
The purpose of the article is to determine the legal nature of artificial intelligence and develop a unified approach to establishing the possible legal personality, as well as the legal responsibility of artificial intelligence.
Methodology and Approach.
The authors analyzed the existing scientific literature and the legal framework in the field of legal regulation of artificial intelligence. The methodological basis of the research is a set of methods of scientific knowledge, including abstract-logical, correlation analysis and comparison.
Results.
The analysis has shown that currently there is no definition of the concept of «artificial intelligence», there is a problem of recognizing it as a subject of law. The authors argue that only by solving the above issues it is possible to form a model of legal regulation, including a number of legal relations involving artificial intelligence and assigning it legal responsibility. It is considered optimal to grant artificial intelligence limited legal personality (through the use of legal fiction), the obligation to bear responsibility for harm and negative consequences.
Theoretical and Practical implications.
The theoretical and practical significance of the research lies due to the current lack of the possibility of applying legal norms and rules that take into account their essence to relations involving artificial intelligence. The main provisions and conclusions of the study can be used to improve the mechanisms of legal regulation of artificial intelligence.
Keywords: intellectual system, artificial intelligence, responsibility of artificial intelligence, responsibility, concept of artificial intelligence, legal personality, subject of law, fiction, digital technologies, digital economy
Введение
Рассматривая действующие закономерности развития современного общества, можно констатировать значительное увеличение сфер деятельности, в которых применяется искусственный интеллект (ИИ). При этом очевидно, что выполняя многогранные задачи, делегированные людьми, ИИ самостоятельно включается в общественные отношения, становясь зачастую их неотъемлемой частью [2; 3; 6; 9; 17; 21; 26; 27].
Кроме того, в настоящее время ИИ начинает превосходить человека по многим параметрам, к примеру, побеждает людей в авиационных симуляторах, а особенно в воздушном бою [23]; автомобили, снабжённые системами ИИ, лишены правового нигилизма, неосведомлённостью об изменениях законодательства, субъективных ошибок в управлении [24]; благодаря самообучающимся алгоритмам ИИ может существенно повыситься качество медицинского обслуживания вне зависимости от наличия транспортных коммуникаций, инфраструктуры, удалённости больного и его материального состояния [30].
На современном этапе развитие научно-технической революции с цифровизацией различных сфер деятельности входит в новое русло. Цифровые технологии сделали огромный скачок вперёд за счёт разработок в области ИИ Потенциал использования ИИ в ряде областей человеческой деятельности достаточно высок, но, с правовой точки зрения, его изучение признаётся недостаточным
Нормативно-правовое регулирование процессов создания и применения ИИ является сегодня важнейшим элементом цифровой экономики. правосубъектность юридический искусственный интеллект
На протяжении последних нескольких лет наблюдаются попытки государственного регулирования ИИ как в России, так и в других странах [16]. Сегодня общепризнано, что в практике применения ИИ отсутствуют должные международно-правовая и национальная нормативные основы Вопросы применения и использования ИИ частично регулируются в Федеративной Республике Германии, Республике Кореи, Французской Республике. Понятие «искусственный интеллект» включено в некоторые нормативные акты стратегического характера, однако вопросы правового регулирования при использовании ИИ находятся всё ещё в стадии решения, тогда как внедрение ИИ в жизнедеятельность человека идёт активными темпами (это касается беспилотных летательных аппаратов, прогнозирования диагноза больных и пр.). Более того, на правовое регулирование ИИ направлена целая группа политических, нормативных правовых актов Послание Президента Российской Федерации В. В. Путина Федеральному Собранию Российской Федерации от 20.02.2019 // Российская газета. 2019; Послание Президента Российской Федерации В В Путина Федеральному Собранию Российской Федерации от 15.01.2020 // Российская газета. 2020. № 7 (8061). Указ Президента Российской Федерации от 10.10.2019. № 490 «О развитии искусственного интеллекта в Российской Федерации» // Собрание законодательства РФ. 2019. № 41. Ст. 5700. и распорядительных документов Перечень поручений по итогам совещания по во
просам развития технологий в области искусственного интеллекта (утв Президентом РФ 12 06 2019 № Пр-1030) // Официальный сайт Президента РФ. иКЬ: http://www.kremlin.ru/acts/assignments/60748 (дата обращения: 20.01.2020). Президента Российской Федерации и органов государственной власти Дорожная карта развития «сквозной» цифровой технологии «Нейротехнологии и искусственный интеллект» // Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации: [сайт]. иКЛ https://digital.gov.ru/ru/ documents/6658 (дата обращения: 20.01.2020)..
В качестве причины отставания развития правовой системы от плодов внедрения ИИ В.А. Шестак и А.Г. Волеводз называют «отставание теории права от научно-технического прогресса: отсутствие правовой регламентации в области взаимодействия человека и ИИ, проблемы морали, безопасности, правосубъектности, ответственности, неприкосновенности частной жизни» [18].
Правосубъектность ИИ необходимо определять с учётом всестороннего анализа данного явления. Согласно определению И.В. Понкина и А.И. Редькиной, «искусственный интеллект - это искусственная сложная кибернетическая компьютерно-программно-аппаратная система (электронная, в т ч виртуальная, электронно-механическая, биоэлектронно-механическая или гибридная) с когнитивно-функциональной архитектурой и собственными или релевантно доступными (приданными) вычислительными мощностями необходимых ёмкостей и быстродействия, обладающая:
- свойствами субстантивности (включая определенную субъектность, в т ч как интеллектуального агента) и в целом автономности, а также элаборативной (имеющей тенденцию совершенствования) операциональности;
- высокоуровневыми возможностями воспринимать (распознавать, анализировать и оценивать) и моделировать окружающие образы и символы, отношения, процессы и обстановку (ситуацию), самореферентно принимать и реализовывать свои решения, анализировать и понимать свои собственные поведение и опыт, самостоятельно моделировать и корригировать для себя алгоритмы действий, воспроизводить (эмулировать) когнитивные функции, в т ч связанные с обучением, взаимодействием с окружающим миром и самостоятельным решением проблем;
- способностями самореферентно адаптировать своё собственное поведение, автономно глубинно самообучаться (для решения задач определённого класса или более широко), осуществлять омологацию себя и своих подсистем, в т ч вырабатывать омологированные «языки» (протоколы и способы) коммуницирования внутри себя и с другими ИИ, субстантивно выполнять определённые антропоморфно-эмулирующие (конвенционально относимые к прерогативе человека (разумного существа)) когнитивные (в т ч познавательно-аналитические и творческие, а также связанные с самоосознанием) функции, учитывать, накапливать и воспроизводить (эмулировать) опыт (в т. ч. человеческий)» [13].
Если руководствоваться более ёмкими характеристиками ИИ, для правового регламентирования данного явления можно опереться на определение, данное О.А. Ястребовым, который понимает под ИИ «результат деятельности человека, который представляет собой сложную совокупность коммуникационных и технологических взаимосвязей, обладающую способностью логически мыслить, управлять своими действиями и корректировать свои решения в случае изменения внешних условий» [20].
Вопросы ответственности искусственного интеллекта
Если говорить об ответственности ИИ, уровень дискуссии здесь будет чрезвычайно высоким. Но превалирующим мнением является то, что меры юридической ответственности просто не применимы к нему. Так, Г. Халлеви касательно вопроса возможности привлечь ИИ к уголовной ответственности писал, что во главу угла здесь должна быть поставлена субъективная сторона правонарушения, которой у ИИ нет и быть не может по той причине, что последний не может осознавать последствия своих вредных действий [4; 25].
Важным также является высказывание главного исполнительного директора Института искусственного интеллекта (А12) О. Этциони Миссия Института искусственного интеллекта (А12) состоит в том, чтобы внести свой вклад в развитие человечества с помощью высокоэффективных исследований и разработок в области искусственного интеллекта. иИЬ: https://allenai.org (дата обращения: 20.01.2020). Интервью: Орен Этциони - директор Института ис, который считает следующее: ИИ как автономная система должен быть подчинён «полному спектру законов, которые применяются к её человеческому оператору» [18]. Рассматриваемое правило должно быть применимо к частным, корпоративным и государственным системам, при этом универсализации требуют и нормы международного права, чтобы у человека отсутствовала возможность утверждать, что «автономная система сделала то, что он не мог понять или предвидеть» [18].
Таким образом, исследователи придают особое значение ответственности создателя за незаконное поведение ИИ. Здесь важным является следующий момент: автономная система, вступая в общение, должна информировать оппонента, что она не является человеком, поскольку с ростом и усложнением возможностей программ-ботов людям необходимо вовремя идентифицировать системы, наделённые ИИ.
У российских правоведов указанный выше подход также получил признание. Так, в нашей стране ответственность за неправомерные последствия функционирования промышленных роботов полностью лежит на их владельцах, производителях или операторах [19]. Сходное положение включают и рекомендации Парламентской ассамблеи Совета Европыкусственного интеллекта им. Аллена // HardNews24: [сайт]. иИЬ: https://hardnews24. ги/Мегууи-огеп-еЬ cioni-direktor-instituta-iskusstvennogo-intellekta-im- а11епа/ (дата обращения: 20.01.2020)., где отмечено, что человек отвечает за действия ИИ без учёта обстоятельств произошедшего, при этом не имеют правового значения ссылки на независимость принятых юнитами ИИ решений [22]. С учётом вышеозначенного, международное право должно выполнять роль координатора развития правового регулирования, что должно повлечь за собой разработку руководящих принципов и восполнить правовые пробелы в рассматриваемой области [28].
Необходимо сказать, что усложнение, децентрализация, автономизация технологий ИИ создают ряд проблем для человека, осуществляющего контроль над такими технологиями: человек, даже управляющий системой ИИ, не всегда способен полностью контролировать все действия и реакции системы, а тем более предугадать её поведение Подобная ситуация, соответственно, нуждается в выработке единого подхода к определению возможной правосубъектности, а также юридической ответственности ИИ Игнорировать данную ситуацию уже не представляется возможным, т.к. ИИ реально овеществлён (материализован, реализован), обладает способностью к анализу и составлению поведенческого алгоритма и, следовательно, должен быть регламентирован с позиции права.
В литературе указан ряд юридических аспектов использования ИИ [5]. Так, не разработана единая юридическая дефиниция данного понятия, и это выступает сдерживающим фактором в решении различных юридических вопросов, касающихся определения правосубъектности ИИ, ответственности за вред, который причинён в процессе его применения, использования, технических регламентов работы ИИ
Имеет место также проблема признания ИИ субъектом права. Здесь предлагается 2 варианта: понимать ИИ технического средства, имеющего правовой режим вещи, или позиционировать ИИ как «электронное лицо» аналогично понятию «юридическое лицо». По нашему мнению, и первая, и вторая научные позиции имеют ряд недостатков, т.к. у рассматриваемой категории отсутствует способность к мышлению и принятию самостоятельных решений, и полностью уподобиться человеку он не может
Только решив вышеуказанный вопрос, можно сформировать модель правового регулирования, включающую ряд правоотношений с участием ИИ и возложением на него юридической ответственности. Однако общеизвестно, что субъекту права необходимо обладать волей, но при этом также бесспорен тот факт, что такой способности у ИИ нет. Все сказанное позволяет трактовать правосубъектность ИИ как фикцию.
Однако не лишена актуальности проблема ответственности за вред, причинённый таким ИИ Ответственным за такой вред, как считают правоведы, может выступать:
- обладатель прав на устройство, снабжённое ИИ;
- разработчик программного обеспечения;
- оператор, обслуживающий ИИ [5].
Интересным является следующий факт: ИИ достаточно активно проявляет себя в юридической профессии. Так, в соответствии с алгоритмом, он способен к выполнению ряда типичных юридических действий: составлению сделок, подготовке исковых заявлений и пр., -- и эта способность ИИ уже взята на вооружение крупными российскими банками [5].