Юридические последствия роботизации боевых действий
Сикач Артём Сергеевич, Емельянов Иван Витальевич
Аннотация
В данной статье рассматривается роль автономной системы вооружения, оснащённые искусственным интеллектом, во время проведения исследования применялись нормативно - правовые акты, конвенции, регламентирующие насчёт применения оружия во время ведения военных действий, приводятся подробности типов автономных систем вооружений с ИИ, а также примеры применения такого типа оружия во время войны между государствами. Приводится вывод по данной теме.
Ключевые слова: искусственный интеллект, автономная система вооружения, юридические последствия, МГП, боевые роботы, три закона робототехники.
Annotation
This article examines the role of autonomous weapons systems equipped with artificial intelligence. During the study, normative legal acts and conventions governing the use of weapons during warfare were applied, details of the types of autonomous weapons systems with AI are provided, as well as examples of the use of this type of weapon during a war between states. The conclusion on this topic is given.
Keywords: artificial intelligence, autonomous weapon system, legal consequences, IHL, combat robots, three laws of robotics.
В Российской Федерации долгое время не было легального определения «Искусственный интеллект». Но в 2020 году был разработан специальный Федеральный закон, который регулирует разработку и внедрение искусственного интеллекта в субъекты РФ. Согласно Федеральному закону N 123-ФЗ от 24.04.2020 "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных" «Искусственный интеллект (ИИ) - это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно - коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Одной из ключевых особенностей интеллектуальных вычислительных систем является их способность приобретать знания посредством обучения (самоидентификации) и применять эти знания для решения определенной проблемы. Робототехника и искусственный интеллект представляют собой наиболее перспективную комбинацию для автоматизации решения задач, не входящих в первичные заводские настройки. В последние годы искусственный интеллект все больше распространяется в роботизированных решениях, обеспечивая гибкость и возможность обучения там, где раньше использовались неизменные производственные настройки.
Без искусственного интеллекта невозможно повышение конкурентоспособности в мире и национальной безопасности. Искусственный интеллект и робототехника широко используются в сфере образования, медицинского обслуживания, пенсионного обеспечения, охраны окружающей среды, осуществления государственного управления, правоприменительной деятельности и цифровой экономики.
История показывает, что если новое оружие имеет существенные преимущества для одного государства, то оно будет постепенно приниматься и другими государствами. С учётом значительных преимуществ, которые могут предложить автономные системы вооружения, есть вероятность того, что их применение будет распространяться уже в следующее десятилетие.
Уже сегодня имеющее место применение подобных автономных систем вооружений в рамках вооружённых конфликтов и контртеррористических операций поднимает серьёзные этические вопросы. Вопрос о том, позволяют ли принципы гуманности принимать машинам решения по поводу жизни и смерти в рамках вооружённых конфликтов без участия человека в процессе принятия таких решений.
Филип Олстон в Промежуточном докладе Специального докладчика по вопросу о внесудебных, суммарных и произвольных казнях № А/65/321 от 23.08.2010 на Шестьдесят пятой сессии Генеральной Ассамблеи ООН отметил, что быстрое развитие технологий в области робототехники и автономных устройств, особенно тех, которые можно использовать для военных целей и в режиме пониженной управляемости со стороны человека - оператора, даёт основание для серьёзных опасений, которые почти не изучены правозащитниками или специалистами по гуманитарной деятельности. В настоящее время вопросы применения искусственного интеллекта и автономных систем вооружений нормами международного гуманитарного права не урегулированы.
Автономная система вооружения - это, по мнение Международного Комитета Красного Креста автономная система, обладающая автономией в выполнении своих “важнейших функций”, т.е. оружие, которое может выбирать (т.е. искать или обнаруживать, идентифицировать, отслеживать) и атаковать (т.е. перехватывать, применять силу против, нейтрализовывать, повреждать или уничтожать) цели без вмешательства человека. В энциклопедии Макса Планка по международному публичному праву указано профессором Уорикского университета Маркусом Вагнером, что “автономные системы вооружения” (далее - “АСВ”), иногда называемые как “летательные автономные роботы” (далее - “ЛАР”), “летательные автономные системы вооружения” (далее - “ЛАВС”) или “роботы - убийцы” являются беспилотными системами вооружения (далее - “БСВ”), которые не зависят от непосредственного участия человека перед или во время их использования. Ещё один исследователь в области международного права Кристоф Хейнс дал понятие боевым автономным роботизированным системам “боевые автономные роботизированные системы (БАРС) представляют собой системы оружия, которые после приведения их в действие способны выбирать и поражать цели без последующего вмешательства оператора”.
Автономность является важнейшей функцией систем искусственного интеллекта, которые при этом наделены и другими способностями, например, способностью к самообучению.
На сегодняшний день применяются некоторые системы вооружения, самостоятельно выполняющие такие “критически важные” функции, как выявление и поражение целей.
Например, некоторые оборонительные вооружения имеют автономные режимы перехвата управляемых и неуправляемых ракет, артиллерийских снарядов и летательных аппаратов противника на близком расстоянии. Пока что эти системы обычно являются стационарными и действуют автономно в течение короткого времени, только при строго определённых обстоятельствах (например, при наличии сравнительно небольшого числа гражданских лиц и объектов) и против ограниченного перечня видов целей (например, главным образом, боеприпасы или транспортные средства). Но в будущем автономные системы вооружения могут функционировать вне жёстко заданных пространственно - временных рамок, сталкиваясь с разнообразными быстро меняющимися обстоятельствами и, может быть, непосредственно выбирая людей в качестве цели. Ведь человек сначала активирует или вводит в действие автономную систему вооружений, после которого она самостоятельно запускается или наносит удар, реагируя на информацию, получаемую датчиками извне, и полагаясь на обобщённый “профиль цели” (набор характеристик/условий, при которых система будет применять силу). Сам оператор такие системы не выбирает данную цель или не знает, какая именно цель была выбрана, не знает он и точного времени и (или) места, где будет применена сила.
Такое оружие не будет соответствовать нормам международного гуманитарного права и увеличит риски причинения смерти или вреда здоровью мирному населению в период вооружённого конфликта. В п. 623 Сводной доктрины Великобритании 2011 г. “Подход Соединённого Королевства к беспилотным летательным аппаратам” отмечается, что истинный искусственный интеллект, благодаря которому машина будет обладать способностью мыслить, большей, чем человеческая. Будет полным изменением игры не только в военной отрасли, но и во всех аспектах современной мысли, а изменение парадигмы технологий искусственного интеллекта было бы разрушительным при их военном применении.
Применение автономных систем вооружений порождает риски, вызванных тем, что его последствия сложно прогнозировать и ограничивать. Утрата человеком контроля и невозможность учёта его мнения в случае применения силы и оружия вызывают серьёзную озабоченность с гуманитарной, правовой и этической точек зрения.
Сам процесс функционирования автономных систем вооружений:
- Порождает риск причинения ущерба всем, кого затрагивает вооружённый конфликт, - как комбатантам, так и гражданским лицам, - а также увеличивает опасность его эскалации;
- Создаёт серьёзные трудности с соблюдением норм международного права, в том числе международного гуманитарного права, а именно норм, призванных защитить гражданских лиц при ведении военных действий;
- Поднимает вопросы, вызывающие серьёзную озабоченность этического характера в том, что касается гуманности, фактически предоставляя датчикам, программам и машинным процессам принимать вместо человека решения, от которых зависит жизнь и смерть людей.
МГП нацелено на защиту человеческого достоинства и защиту жертв вооружённого конфликта посредством введения разных ограничений на применение силы. Международное гуманитарное право, в том числе, запрещает использование определённых средств и методов ведения войны.
Ключевым свойством АСВ, обусловливающее отдельное рассмотрение с точки зрения МГП, является их неподконтрольность человеку, приводящая к разрушительным последствиям, и с этой точки зрения следует рассматривать неподконтрольное человеку оружие как способное нанести вред гражданскому населению, а также вред комбатантам. Ч. 4 ст. 51 Протокола I запрещает нападения неизбирательного характера для целей обеспечения защиты гражданского населения. Согласно п. “в” ст. 23 Положения о законах и обычаях сухопутной войны (приложение к Конвенции о законах и обычаях сухопутной войны от 18 октября 1907 г.) запрещается убивать или ранить неприятеля, который, положив оружие или не имея более средств защищаться, сдался.
Автономная система вооружения, оснащённая искусственным интеллектом, не в состоянии учитывать законы человечности. Ведь для того чтобы АСВ считалась используемой для ведения военных действий, человеческие агенты воюющей стороны должны осуществлять непосредственный контроль над этой системой, чтобы использовать её в качестве средства ведения войны, т.е. не на всякое совершение действий АСВ даже в рамках вооружённого конфликта будет распространяться действие положений и требований МГП.
Автономные ударные системы с использованием искусственного интеллекта создают угрозы, которые можно разделить на три группы:
1. Первая группа включает риски, связанные с исключением человека из цикла принятия решений на применение оружия -- так называемая «проблема значимого человеческого контроля». Представители мировой общественности (неправительственные организации «Stop Killer Robots», «Article 36», «International Committee for Robot Arms Control», бизнесмены и ученые, в частности, Стивен Хокинг, Илон Маск, Стив Возняк) считают, что полностью автономное оружие с большой вероятностью не будет в состоянии соответствовать международному гуманитарному праву и правам человека, создаст проблему с определением ответственных лиц в случае противоправных действий автономных аппаратов. Боевым роботам ставится в вину неспособность испытывать сочувствие, то есть то человеческое чувство, которое нередко выступает сдерживающим фактором в отношении применения оружия. Еще один аргумент против САС -- их использование противоречит принципу гуманности и требованиям общественного сознания.
2. Вторая группа угроз связана с риском нарушения стратегической стабильности. Элементы автономности и искусственного интеллекта приходят во все сферы военного противостояния. Так, в ядерной сфере появляются высокоточные тактические ядерные бомбы и гиперзвуковые аппараты с новыми ядерными боеголовками; в космической области -- беспилотные космические дроны, системы низкоорбитальных спутников наблюдения и связи; в сфере ПРО -- связка системы слежения и наблюдения с системой управления и связи; в киберсфере -- кибероружие и автоматизированная система ответного киберудара. Некоторые из этих видов вооружений, как, например, гиперзвуковые ракеты или средства кибернападения, могут служить инструментом стратегического сдерживания наряду с ядерным оружием. То есть даже у неядерных стран возникает возможность резкого наращивания как потенциала сдерживания, так и ударных возможностей. За этими тенденциями стоит серия рисков:
— риск установления технологического и военного глобального превосходства одной из стран;
— новая гонка вооружений;
— повышение региональной и международной напряженности;
— сокращение транспарентности военных программ;
— игнорирование международного права;
— распространение опасных технологий среди негосударственных субъектов.
Основываясь на опыте военного использования военных и коммерческих дистанционно управляемых беспилотных летательных аппаратов (БПЛА), исследователи делают вывод о том, что технологии производства САС, их компоненты и программное обеспечение получат значительное распространение в мире, что станет толчком для гонки вооружений, приводящей к усилению нестабильности и эскалации разнообразных рисков.
Некоторые эксперты полагают, что поддержание стратегической стабильности в ближайшие десятилетия потребует пересмотра основ теории сдерживания в многополярном мире.
3. Третья группа угроз вытекает из радикального сокращения времени на принятие стратегических решений в рамках системы сбора и анализа разведывательной информации (Intelligence, Surveillance & Reconnaissance (ISR)) и военного управления и связи (Communications, Command and Control (C3)). Главный недостаток человека в сравнении с машиной состоит в том, что человеческому мозгу необходимо слишком много времени для оценки ситуации и принятия верного решения. Целый ряд военных программ в ведущих государствах мира (в частности программы Пентагона Maven, COMPASS, Diamond Shield) нацелен на то, чтобы суперкомпьютеры взяли на себя работу по анализу различных данных и подготовке сценариев для политического и военного руководства.