Применительно к роботам их юридическая ответственность будет иметь особый характер. Вряд ли моральное порицание будет иметь значение для робота. Однако нельзя исключить возможного развития технологий и ис-кусственного интеллекта, позволяющих оценить морально-нравственную сторону в поведении AI-робота. Киберфизическая ответственность может быть имущественной (например, компенсация ущерба) или административ-ной (в частности, штраф или дисквалификация). По крайней мере, для этого будут все предпосылки. Возможно, в будущем будет применение мер уголов-ной ответственности к роботам как крайней меры в случае совершения ими действий, посягающих на жизнь и здоровье человека, а изменение програм-мы искусственного интеллекта не будет возможным в силу конструктивных особенностей искусственного интеллекта (например, тотальная утилизация робота).
Немаловажным будет вопрос о пределах юридической ответственности AI-робота. В частности, допускаем ли мы признание в будущем робота не-состоятельным (банкротом)? На первый взгляд, перспективы сомнительны. Вместе с тем нельзя исключать и такого хода развития законодательства, при котором будет реальным признание AI-робота несостоятельным и техниче-ское ограничение его участия в гражданском обороте на соответствующий период времени (по аналогии с последствиями банкротства гражданина).
Предлагается вспомнить конструкцию субсидиарной ответственности -- ответственности лица (субсидиарно обязанного, в рассматриваемом случае -- создателя) дополнительно к ответственности лица (основного должника, в данном случае AI-робота) в случае отказа или невозможности удовлетворения основным должником своих обязательств перед кредитором (ст. 399 ГК РФ). Создатель искусственного интеллекта не освобождается от ответственности, если его разработка, признанная субъектом права, не способна быть надлежа-щим и добросовестным участником правоотношений.
Предложенный тезис также нуждается в оговорке. В частности, например, если поведение AI-робота вышло за рамки возможного разумного предви-дения его создателя. При проектировании объектной функции для системы искусственного интеллекта разработчик задает цель, а не конкретные шаги для ее достижения; наделение большей автономией искусственного интел-лекта увеличивает шанс на ошибку [Sodhani S., 2018: 1]. Например, по анало-гии с эксцессом исполнителя в уголовном праве -- совершение исполните-лем преступления, не охватывающегося умыслом других соучастников (ст. 36 УК РФ). За эксцесс исполнителя другие соучастники преступления уго-ловной ответственности не подлежат (см. п. 1 Обзора законодательства и су-дебной практики Верховного Суда РФ от 29.12. 2006 за III квартал 2006 г.). Создатель искусственного интеллекта за его действия, даже повлекшие при-чинение вреда жизни и здоровья человека, при доказанности юридического факта -- эксцесса AI-робота, отвечать не должен.
Ответственность искусственного интеллекта -- важнейший вопрос для будущих правоведов. По данной проблематике следует выработать алго-ритм установления юридических фактов (событий и действий/бездействий), связанных с поведением робота или действиями киберфизической системы. Речь идет об аутентификации поведения (действия/бездействия) искус-ственного интеллекта и привязки его действий (решений) к конкретному роботу или процессору ЭВМ.
В данном направлении для оценки действий робота как в настоящее вре-мя, так и ближайшем будущем полезна система распределенного реестра данных, основанная на технологии блокчейн [Nakamoto S., 2008: 1-9], позволяющая последовательно фиксировать действия искусственного интел-лекта. Администратором данного реестра должен выступить на начальном этапе владелец искусственного интеллекта, а впоследствии -- сам робот, но при условии соблюдения достоверности. По крайней мере в случае при-знания за роботом свойств субъекта права, компетентные государственные органы должны обладать технической возможностью установления факти-чески совершенных действий, даже при поломке робота (аналог «черного ящика»). Предложенный подход позволяет утверждать, что ответственность за деятельность искусственного интеллекта будут нести: 1) AI-робот; 2) раз-работчик (создатель) AI; 3) владелец AI.
3.3. Развитие робототехники трансформирует все привычные понятия об участниках отношений. Наличие электричества и Интернета обеспечит вир-туальное пространство, в котором будут существовать как цифровые объек-ты, так и цифровые субъекты права. Виртуальное пространство представля-ет собой искусственно созданный цифровой мир, существование которого будут обеспечивать инструменты материального мира: процессоры (Intel, IBM, AMD) и системы облачных хранилищ данных (на многочисленных он- лайн-распределенных реестрах, включая архитектуру).
В будущем в ХХП веке возможно признание искусственного интеллекта, способного совершать цифровые действия -- решения (как с их материали-зацией в реальном мире, так и без таковой), субъектом права.
Предыдущий этап (среднесрочная перспектива) отличается от будуще-го, прежде всего тем, что признанию правосубъектности AI-робота пред-шествует материализация поведения робота в реальном мире посредством совершения им действий, порождающих юридические факты (например, предпринимательской деятельности). Таким образом, в среднесрочной пер-спективе процессор AI-робота выполняет лишь цифровую вычислительную функцию, аналогично мозгу человека, выступает составным элементом ро-бота и рассматривается как объект права. Искусственный интеллект в киберфизическом пространстве в будущем будет приобретать правосубъектность и признаваться участником кибер- физических отношений в цифровом пространстве даже с учетом того, что AI-система привязана к материальному носителю (вычислительному про-цессору).
Построение конструктивных правовых моделей решения вопроса о юри-дической ответственности AI-интеллекта в виртуальном мире, по понятным причинам, сейчас трудно. В данной проблематике помогут разобраться про-граммисты, способным логически и достоверно распознавать путь решений и иных вычислительных действий, совершенных искусственным интеллектом.
Разумеется, как и на втором этапе, не освобождается от ответственности и разработчик AI, поскольку, в первую очередь, его творение и начальные ал-
горитмы, заложенные при создании AI-интеллекта, также предопределяют его развитие и самоорганизацию. Разумеется, непреднамеренное самопро-извольное отклонение искусственного интеллекта от начально задолженной в нем цели, в том числе посредством вмешательства в его работу третьих лиц не должно автоматически налагать юридическую ответственность на его создателя. В каждом случае следует давать технико-правовую оценку харак-теру и последствиям действий искусственного интеллекта.
Важно отметить, что юридическая кибер-ответственность имеет прежде всего регулятивную и охранительную функции, обеспечивающие нормальную организацию отношений в киберпространстве и стабильность киберфизических отношений. Такие функции юридической ответственности, как воспита-тельная и предупредительная, не имеют значения для искусственного интел-лекта. Трудно представить, каким образом рассматриваемая ответственность позволит изменить в будущем сознание правонарушителя -- киберфизической системы, которой не свойственны такие присущие человеку чувства, как стыд или сострадание. Данное направление развития права потребует при-нятия Киберфизического кодекса или Цифрового кодекса, регулирующего киберфизические отношения участников цифрового пространства.
Рассматриваемый период развития робототехники и искусственного ин-теллекта также не исключает юридической ответственности создателя AI- интеллекта. Наглядным примером служат случаи с киберпреступлениями, а именно мошенничеством, связанным с операциями по банковским картам или конфиденциальной цифровой информацией. В частности, когда вы-числительная программа выходит из-под контроля оператора (владельца) и становится неуправляемой, в результате чего искусственный интеллект са-мопроизвольно и хаотически совершает преступления (например, хищение чужого имущества путем вмешательства в функционирование средств пере-дачи компьютерной информации или Интернета -- ст. 159.6 УК РФ). При этом судебная практика полагает обязательным дополнительно квалифици-ровать любое мошенничестве в сфере компьютерной информации, совер-шенное посредством неправомерного доступа к компьютерной информации или посредством создания, использования и распространения вредоносных компьютерных программ, по ст. 272, 273 и 274.1 УК РФ (п. 20 постановления Пленума Верховного Суда от 30. 11. 2017 №48 «О судебной практике по де-лам о мошенничестве, присвоении и растрате»).
Предложенный выше подход к третьему этапу развития искусственно-го интеллекта позволяет определить следующий круг ответственных лиц за деятельность искусственного интеллекта: 1) AI-интеллект; 2) разработчик (создатель) AI.
Заключение
Предлагаемые временные этапы развития робототехники, искусствен-ного интеллекта и законодательства, определяющего правосубъектность и юридическую ответственность искусственного интеллекта, характеризуется следующим.
Ближайшая перспектива
Робот с искусственным интеллектом будет рассматриваться в качестве объекта права. Юридическую ответственность за работу искусственного ин-теллекта несет оператор либо иное лицо, задающее параметры его работы и управляющее его поведением. Ответственным лицом также признается соз-датель (изготовитель) искусственного интеллекта.
Среднесрочная перспектива
AI-роботы приобретают правосубъектность и выступают участниками отношений, несут самостоятельную юридическую ответственность. Ответ-ственность создателя искусственного интеллекта приобретает субсидиар-ный характер, наряду с ответственностью робота.
Правовое регулирование поведения AI-робота будет основано на принципе автономии его воли, но в пределах основной цели его создания -- служить во благо человечества.
Управление роботом будет в режиме самоуправления.
Долгосрочная перспектива
Правосубъектность будет существовать у искусственного интеллекта уже в виртуальном (цифровом) пространстве в отрыве от материального мира.
Киберфизическая юридическая ответственность будет иметь регулятивную и охранительную функцию, в то время как воспитательная и предупреди-тельная функция уйдут на второй план.
Потребуется принятие кодифициро-ванного нормативного правового акта, определяющего правовое положение субъектов и содержание киберфизических отношений, юридические факты и механизмы привлечения к юридической ответственности.
Библиография
1. Алексеев С.С. Государство и право. М.: Юрист, 1994. 192 с.
2. Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России Закона о робототехнике // Труды СПИИ РАН. 2017. Вып. 6. С. 46-62.
3. Гурко А. Искусственный интеллект и авторское право: взгляд в будущее // Автор-ское право и смежные права. 2017. N 12. С. 7-18.
4. Занковский С.С., Михайлов Н.И. (ред.) Предпринимательское право в XXI веке: ис-токи и перспективы. М.: Проспект, 2018. 557 с.
5. Илющенко Р., Башелханов И. России будущего нужен Цифровой кодекс URL:http:// ruskline.ru/analitika/2018/02/7/rossii_buduschego_nuzhen_cifrovoj_kodeks/ (дата об-ращения: 25.06.2018).
6. Керимов Д.А. Проблемы общей теории государства и права. Т.1. М.: Наука, 2000. 265 с.
7. Лаптев В.В. Предпринимательское право и реальный сектор экономики. М.: Инфо- тропик, 2010. 88 с.
8. Морхат П.М. Искусственный интеллект: правовой взгляд. М.: Буки Веди, 2017. 257 с. Незнамов А. Законы робототехники. Как регулировать искусственный интеллект. URL: http://www.forbes.ru/tehnologii/355757-zakony-robototehniki-kak-regulirovat- iskusstvennyy-intellekt (дата обращения 15-06-2018).
9. Незнамов А., Наумов В. Модельная конвенция о робототехнике и искусственном ин-теллекте. Правила создания и использования роботов и искусственного интеллекта 2017. URL: http://robopravo.ru/modielnaia_konvientsiia (дата обращения 25-06-2018). Осипов Г.С. Искусственный интеллект: состояние исследований и взгляд в буду- щее//Новости искусственного интеллекта. 2001. N 1. С. 3-13.
10. Рябов И. 10 законов и ИИ от Сатьи Наделлы 2017. URL: http://droider.ru/post/10- zakonov-dlya-lyudey-i-ii-ot-sati-nadellyi-30-06-2016/ (дата обращения 22-06-2018).
11. Тягай Е.Д. (ред.) Корпоративные отношения: комплексные проблемы теоретиче-ского изучения и правового регулирования. М.: Норма, 2014. 144 с.
12. Харитонова Ю.С. Правовое значение фиксации интеллектуального права с помощью технологии распределенных реестров // Право и экономика. 2018. N 1. С. 15-21.
13. Amodei D. et al. Problems in AI Safety // arXiv:1606.06565v1 [cs.AI] 2016. URL: https:// arxiv.org/pdf/1606.06565v1.pdf (дата обращения 04.07.2018)
14. Azimov A. Robotaround. N.Y: Basic Books, 1960. 253 p.
15. Nakamoto S. Bitcoin: A Peer-to-Peer Electronic Cash System. URL: https://bitcoin.org/ bitcoin.pdf (дата обращения: 15.06.2018)
16. Sodhani S. Summary of Problems in AI Safety. 2018. URL: https://future of life.org/2018/ 06/26/a-summary-of-concrete-problems-in-ai-safety/ (дата обращения: 04.07.2018)
17. Williams R., Herrup K. (1988) The Control of Neuron Number. Annual Review of neuro-science, vol. 11, pp. 423-453.
References
1. Alekseev S.S. (1994) State and Law. Moscow: Yurist, 192 p. (in Russian)
2. Amodei D. et al. (2016) Problems in AI Safety // arXiv:1606.06565v1 [cs.AI] 21 Jun 2016 // https://arxiv.org/pdf/1606.06565v1.pdf (accessed: 04.07.2018)
3. Arhipov V.V., Naumov VB. (2017) Artificial Intelligence in Context of the Russia's First Law on Robotics. Trudy SPII RAN, no 6, pp. 46-62 (in Russian)
4. Azimov A. (1960) Robotaround. N.Y: Basic Books, 253 p.
5. Gurko A. (2017) Artificial intelligence and copyright: prospection. Avtorskoe pravo i smezhnyie prava, no 12, pp. 7-18 (in Russian)
6. Ilyuschenko R., Bashelhanov I. (2018) Is Necessary to Russia the Future of the Digital Code. Available at: http://ruskline.ru/analitika/2018/02/7/rossii_buduwego_nuzhen_ cifrovoj_kodeks/ (accessed: 25.06.2018)
7. Kerimov D.A. (2000) Theory of State and Law. Moscow: Prospect, 265 p. (in Russian)
8. KharitonovaYu.S. (2018) Legal Value of Fixing of Intellectual ight by technology of the distributed registers. Pravo iekonomika, no 1, pp. 15-21 (in Russian).
9. Laptev V.V. (2010) Enterprise Law and Real Sector. Moscow: Infotropik, 88 p. (in Russian) Morhat P (2017) Artificial Intelligence: a Legal Look. Moscow: Buki vedi, 257 p. (in Russian) Neznamov A. (2018) How to Regulate Artificial Intelligence. Available at: URL: http:// www.forbes.ru/tehnologii/355757-zakony-robototehniki-kak-regulirovat-iskusstvennyy- intellekt (accessed: 15.06.2018)
10. Neznamov A., Naumov V. (2017) Rules of Creation and Use of Robots and Artificial Intelligen-ce. Available at: http://robopravo.ru/modielnaia_konvientsiia (accessed: 25.06.2018)