При этом Джон Уивер отмечает, что стандарт применения автономных интеллектуальных систем вооружений, согласно которому они должны никогда не ошибаться при различении комбатантов и гражданского населения, кажется не совсем корректным, так как даже люди не всегда могут его придерживаться [10].
Одной из проблем, связанных с использованием полностью автономных систем вооружений, также является некоторая вероятность возникновения угрозы для существования человека в силу того, что эти системы могут выйти из-под его контроля [3].
Кроме того, непредсказуемость сложных алгоритмов, реагирующих друг на друга, может приводить к мало контролируемой (и непредсказуемой) эскалации военного конфликта [4].
В целом при рассмотрении данного вопроса специалисты сходятся в том, что для решения указанных проблем необходимо обеспечение надлежащего человеческого контроля над действиями автономной системы вооружения.
В силу высокой актуальности рассматриваемой темы разработка принципов использования искусственного интеллекта в военных целях привлекает значительный интерес как исследователей, так и международных организаций.
Международный комитет Красного Креста отмечает, что существует как минимум три подхода, которые государства могут реализовывать для решения правовых и этических проблем, связанных с использованием автономного оружия:
* усиление национальных механизмов реализации положений международного гуманитарного права;
* разработка определения того, что представляют собой смертоносные автономные системы вооружений для установления конкретных ограничений на автономность систем вооружений;
* разработка конкретных параметров человеческого контроля за использованием такого оружия с учётом требований международного гуманитарного права и этических соображений для установления конкретных ограничений на автономность систем вооружений [9].
Алан Шуллер предлагает следующие принципы использования искусственного интеллекта во время военных действий, соблюдение которых позволит избегать ненадлежащей автономности искусственного интеллекта и соответственно нарушения требований и принципов международного гуманитарного права:
- решение убить принципиально никогда не может быть (и не должно быть) в полной мере делегировано компьютеру (поскольку цель может быть атакована только в том случае, если она является законной военной целью, а корректно классифицировать цели в состоянии только человек);
- автономная система вооружения может законно контролироваться только посредством программирования (для того, чтобы обеспечить разумную предсказуемость искусственного интеллекта);
- необходимо учитывать, что международное гуманитарное право не требует непосредственного взаимодействия человека с автономной системой вооружения в процессе смертоносного кинетического действия, т. е. «нажатия на кнопку» (такое требование было бы эффективным в некоторых ситуациях, однако оно не закрепляется; утверждение, что всегда желательно присутствие человека на этапе действия при реализации смертоносных решений, терпит неудачу, во-первых, по той причине, что системы, требующие участия человека на финальных этапах реализации смертоносных решений, скорее всего, не смогут в будущем конкурировать с более автоматизированными сложными системами противников, во-вторых, потому что обслуживаемые или пилотируемые человеком системы требуют слишком много человеческих и финансовых ресурсов, в том числе на обеспечение необходимого обучения и подготовки человеческих ресурсов, и в-третьих, из участия человека в таких действиях не следует автоматическое соблюдение норм международного гуманитарного права, т. е. сам факт того, что именно человек нажимает на кнопку, чтобы одобрить смертоносное кинетическое действие либо отказаться от него, не обязательно непосредственно коррелирует с совершенствованием соблюдения положений международного гуманитарного права);
- разумная предсказуемость автономной интеллектуальной системы вооружения требуется только в целях соблюдения международного гуманитарного права, но будет зависеть от конкретного фрагмента цикла принятия решений человеком, состоящего из элементов «наблюдение, ориентирование, принятие решения, совершение действия», делегированного автономной системе вооружения (т. е. предел возможной непредсказуемости автономной системы заканчивается там, где начинается вероятность совершения незаконного действия) [8].
Отметим, что полный запрет использования подобных систем вооружений на международном уровне весьма маловероятен.
Хотя как вариант могут быть внесены изменения в Конвенцию о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие, посредством включения в неё раздела про роботизированное оружие [6].
Дж. Кастел и М. Кастел отмечают, что, возможно, вместо установления на международном уровне запретов или ограничений для государств относительно исследования или разработки суперинтеллекта посредством принятия соответствующих международных конвенций, контроль за исполнением которых может быть ещё и затруднен, эффективнее было бы создать основу для сотрудничества государств в этой области. Такое сотрудничество снизило бы вероятность возникновения межгосударственных конфликтов на фоне одновременных попыток отдельных стран разработать конкурирующие автономные суперинтеллектуальные машины. По мнению данных исследователей, с точки зрения международного права искусственный суперинтеллект следует рассматривать как достояние всего человечества [3]. И в таком случае на него должен распространяться соответствующий правовой режим по аналогии, например, с исследованием космического пространства или Антарктики.
Армин Кришнан предлагает следующие принципы регулирования использования автономных интеллектуальных систем вооружений: 1) запрет создания систем автономных вооружений, способных вносить изменения в свой собственный программный код, что исключает использование эволюционирующего или самообучающегося искусственного интеллекта для управления оружием; 2) запрет на использование сверхразумных компьютеров в военных целях, поскольку могут возникнуть сложности с принудительным ограничением их действия; 3) обеспечение слабой связи с внешним миром сверхразумных военных компьютерных систем, а также предлагает установление запрета на разработку самовоспроизводящегося оружия (которое на настоящий момент серьёзной угрозы не представляет (помимо биологического оружия), но может стать реальностью в ближайшие десятилетия) [6].
В нашей авторской научной концепции дефиниция понятия «искусственный интеллект» следующая:
Искусственный интеллект - это полностью или частично автономная самоорганизующая компьютерно-программная виртуальная (virtual) или киберфизическая (cyber-physical), в том числе биокибернетическая (bio-cybernetic), система (юнит), наделённая/обладающая способностями и возможностями:
* антропоморфно разумных мыслительных и когнитивных действий, таких, как распознавание образов, символьных систем и языков, рефлексия, рассуждение, моделирование, образное (смыслопорождающее и смысловоспринимающее) мышление, анализ и оценка;
* самореферентности, саморегулирования, самоадаптирования под изменяющиеся условия, самоограничения, и при этом поддержания себя в гомеостазе;
- генетического поиска (genetic algorithm - эвристический алгоритм поиска, с сохранением важных аспектов «родительской информации» для «последующих поколений» информации), накопления информации и опыта;
- обучения и самообучения (в том числе на своих ошибках), опыта;
- самостоятельной разработки текстов под собственное тестирование, проведения самотестирований и тестирований компьютерной и, при возможности, физической реальности, самостоятельной разработки и применения алгоритмов собственной омологации;
- антропоморфно разумного самостоятельного (в том числе творческого) принятия решений и решения задач и проблем.
Оружие, оснащённое искусственным интеллектом, уже сегодня существует и даже ограниченно применяется, представляя собой, по мнению многих экспертов, одну из самых серьёзных этических и технологических проблем XXI в.
И для того чтобы обеспечить соблюдение требований и принципов международного гуманитарного права, необходимые меры должны приниматься в первую очередь на уровне законодательства конкретных государств, причём они должны быть направлены на регулирование разработки и применения искусственного интеллекта не только в военных целях, но и в целом, поскольку излишняя автономность и неподконтрольность таких систем человеку может привести к негативным последствиям в большинстве сфер общественной жизни.
ЛИТЕРАТУРА
1. Balkin J.B. The Path of Robotics Law // California Law Review. - 2015, June. - Vol. 6. - P. 45 - 60.
2. Brehm M. Defending the Boundary: Constraints and Requirements on the Use of Autonomous Weapon Systems Under International Humanitarian and Human Rights Law // Academy briefing. - 2017, May. - № 9. - 71 p.
3. Castel J.-G., Castel M.E. The road to artificial superintelligence: has international law a role to play? // Canadian Journal of Law and Technology. - 2016. - Vol. 14. - № 1. - P. 1 - 15.
4. Geiss R. The International-Law Dimension of Autonomous Weapons Systems // International Dialogue department of the Friedrich-Ebert-Stiftung. [Электронный ресурс]. - Режим доступа: http://library.fes.de/pdf-files/id/ipa/11673.pdf (дата обращения 18.02.2018).
5. Joint Doctrine Note 2/11 “The UK approach to unmanned aircraft systems” // Ministry of Defence of UK. - Swindon: The Development, Concepts and Doctrine Centre, 2011.
6. Krishnan A. Automating war: The need for regulation // Contemporary Security Policy. - 2009. - Vol. 30. - № 1. - P. 172 - 193.
7. Losing humanity: The Case against Killer Robots / Human Rights Watch. - New York: Human Rights Watch, 2012. - 49 p.
8. Schuller A.L. At the Crossroads of Control: The Intersection of Artificial Intelligence in Autonomous Weapon Systems with International Humanitarian Law // Harvard National Security Journal. - 2017. - Vol. 8. - P. 379 - 425.
9. Views of the International Committee of the Red Cross (ICRC) on autonomous weapon system // Convention on Certain Conventional Weapons (CCW), Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS) 11 - 15 April 2016, Geneva. [Электронный ресурс]. - Режим доступа: https://www.icrc.org/en/download/file/21606/ccw-autonomous-weapons-icrc-april-2016.pdf (дата обращения 18.02.2018).
10. Weaver J.F. Abhor a Vacuum: The Status of Artificial Intelligence and AI Drones Under International Law // New Hampshire Bar Journal. - 2013, Spring/Summer. - P. 14 - 21.