Казанский инновационный университет им. В. Г. Тимирясова (ИЭУП)
Краснодарский университет Министерства внутренних дел Российской Федерации
Криминологические риски применения искусственного интеллекта
И.Р. Бегишев, З.И. Хисамова
г. Казань, г. Краснодар, Российская Федерация
Аннотация
В современном цифровом мире тематика искусственного интеллекта и сфера разработки интеллектуальных технологий являются крайне актуальными и важными. За полувековую историю искусственный интеллект успел перерасти из теоретической концепции в интеллектуальную систему, способную самостоятельно принимать решения. В числе ключевых преимуществ внедрения искусственного интеллекта в первую очередь отмечается возможность освобождения человечества от рутинной работы и переход к творческой деятельности, на которую машины не способны. По данным международных консалтинговых агентств, инвестиции компаний в цифровую трансформацию к 2021 г. в глобальном масштабе достигнут 58 трлн дол., а в 2030 г. глобальный ВВП вырастет на 14 %, или на 15,7 трлн дол. США, в связи с активным использованием искусственного интеллекта. Однако его стремительное развитие поставило перед государством и обществом необходимость противостоять новым угрозам, связанным со способностью искусственного интеллекта к саморазвитию, в частности необходимость нормативной регуляции его деятельности и противодействия угрозам, возникающим при его функционировании. В статье приведены результаты подробного изучения мнений ведущих ученых, занимающихся социальными аспектами деятельности искусственного интеллекта. Определено, что вопрос правового регулирования правосубъектности искусственного интеллекта, не говоря уже о совершении им юридически значимых действий, на сегодняшний день остается открытым. В настоящее время началось формирование криминологических основ применения искусственного интеллекта, вызванных появлением новых интеллектуальных технологий, что требует принятия действий и решений по предупреждению возможных негативных проявлений его использования и государственному реагированию на них. В статье на основе анализа истории возникновения и развития искусственного интеллекта изложены его ключевые характеристики, несущие в себе криминологические риски, определены виды криминологических рисков применения искусственного интеллекта, предложена авторская классификация указанных рисков. В частности, выделены прямой и косвенный криминологические риски применения искусственного интеллекта. На основе детального анализа авторами выявлена объективная необходимость создания в стране компетентных органов по выработке государственной политики в сфере нормативного правового регулирования искусственного интеллекта, контроля и надзора за его использованием.
Ключевые слова Искусственный интеллект; интеллектуальные технологии; робот; машинное обучение; криминологический риск; криминологическая характеристика; риски применения искусственного интеллекта; угрозы применения искусственного интеллекта; криминальный потенциал искусственного интеллекта; преступления с применением искусственного интеллекта
Abstract
CRIMINOLOGICAL RISKS OF USING ARTIFICIAL INTELLIGENCE
Ildar R. Begishev1, Zarina I. Khisamova2
1 Kazan Innovative University named after V. G. Timiryasov (IEML), Kazan, the Russian Federation
2 Krasnodar University of the Ministry of Internal Affairs of the Russian Federation, Krasnodar, the Russian Federation
The topics of artificial intelligence (AI) and the development of intelligent technologies are highly relevant and important in the modern digital world. Over its fifty years of history, AI has developed from a theoretical concept to an intelligent system capable of making independent decisions. Key advantages of using AI include, primarily, an opportunity for mankind to get rid of routine work and to engage in creative activities that machines are not capable of. According to international consulting agencies, global business investments in digital transformation will reach 58 trillion USD by 2021, while global GDP will grow by 14 %, or 15.7 trillion USD, in connection with the active use of AI. However, its rapid evolvement poses new threats connected with AI's ability to self-develop that the state and the society have to counteract; specifically, they have to introduce normative regulation of AI activities and to address threats arising from its functioning. The authors present a thorough analysis of the opinions of leading researchers in the field of social aspects of AI's functioning. They also state that the regulation of the status of AI as a legal personality, not to mention its ability to commit legally meaningful actions, remains an open question today. At present, the process of creating a criminological basis for applying AI, connected with the development of new intelligent technologies, is underway, it requires actions and decisions aimed at preventing possible negative effects of its use and reacting to them on a state level. The authors' analysis of the history of AI's emergence and development has allowed them to outline its key features that pose criminological risks, to determine criminological risks of using AI and to present their own classification of such risks. In particular, they single out direct and indirect criminological risks of using AI. A detailed analysis has allowed the authors to identify an objective need for establishing special state agencies that will develop state policy in the sphere of normative legal regulation, control and supervision over the use of AI.
Keywords
Artificial intelligence; intelligent technology; robot; machine learning; criminological risks; criminological features; risks of using artificial intelligence; threats of using artificial intelligence; criminal capacity of artificial intelligence; crimes involving artificial intelligence
Введение
Мир находится на пороге новой цифровой эры. Цифровая экономика становится все более важной частью глобальной экономики, открывая новые возможности для бизнеса и устойчивого развития всего мирового сообщества.
Цифровизация сегодня касается не только технологического сектора и цифровых компаний, но и производственных цепочек в самых разных секторах глобальной экономики [1, с. 3]. По данным International Data Corporation, занимающейся изучением мирового рынка информационных технологий и телекоммуникаций, в 2017 г. расходы компаний на цифровую трансформацию в глобальном масштабе составили 958 млрд дол. [2]. По прогнозам аналитиков, в 2017 г. мировые затраты на технологии и сервисы, обеспечивающие цифровые преобразования бизнес-практик, продуктов и организаций, превысят 1,1 трлн дол., а к 2021 г. инвестиции достигнут 58 трлн дол. [3].
Большая часть указанных инвестиций приходится на производственный сектор экономики, преимущественно на внедрение в автоматизированные системы управления технологическими процессами искусственного интеллекта (ИИ). Согласно результатам исследования авторитетной международной компании PwC, специализирующейся в области консалтинга и аудита, в 2030 г. глобальный ВВП вырастет на 14 %, или на 15,7 трлн дол. США, в связи с активным использованием ИИ. Также, по данным компании PwC, 72 % крупнейших корпораций мира считают ИИ фундаментом будущего Искусственный интеллект: не упустить выгоду.
ИИ окружает нас повсюду. Мы живем в эпоху больших данных, когда ежедневно обрабатывается огромный объем информации, слишком громоздкой для обработки человеком. Среднестатистический житель планеты использует ИИ намного чаще, чем думает: только 33 % респондентов считают, что они применяют технологию с поддержкой ИИ, в то время как 77 % фактически используют услугу или устройство с ИИ What Consumers Really Think About AI // Pega..
Стоит отметить, что несомненные плюсы внедрения ИИ, предполагающего освобождение человечества от рутинной работы и переход к творческой деятельности, на которую машины не способны, видят не только крупные корпорации, но и обычные жители: 61 % из опрошенных 6 тыс. чел. заявили, что, по их мнению, ИИ сделает мир лучше Global Artificial Intelligence Survey // Arm Limited..
Так ли это на самом деле? Знаем ли мы, современное общество, что такое ИИ и какие риски несет в себе его создание и оборот? Сможем ли извлечь преимущества из применения ИИ, избежав негативных последствий? Существуют ли регулятивные механизмы контроля ИИ? Готово ли отечественное законодательство к регулированию ситуаций, когда ИИ станет участником посягательств на охраняемые законом правоотношения? И не станет ли заглавие книги Д. Бар- рата «Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens» [4] пророческим?
В рамках настоящего исследования предпринята попытка найти ответы на столь неоднозначные и одновременно животрепещущие вопросы, в связи с чем была проанализирована история возникновения и развития ИИ [5-7].
История возникновения и развития ИИ
Человечество с древнейших времен не покидала мысль о создании устройств или приспособлений, способных упростить жизнь. Механизировав и автоматизировав тяжелый физический труд, общество задумалось о создании машины, способной выполнять интеллектуальную (умственную) работу -- сугубо человеческую прерогативу. К 1950-м гг. в научном сообществе появилось поколение молодых ученых, математиков и философов, с концепцией ИИ, культурно ассимилированного в их умах. Одним из таких людей был А. Тьюринг, который сегодня считается основоположником теории ИИ. Он выдвинул тезис о том, что машины, как и люди, способны использовать доступную информацию, а также разум, чтобы решать проблемы и принимать решения [8]. Кроме того, им был описан тест (впоследствии получивший имя автора), позволяющий определить, когда машины смогут сравняться с человеком [9]. Однако идеи Тьюринга в середине XX в. не могли быть воплощены в жизнь в силу ряда объективных причин. До 1949 г. компьютеры не имели ключевой характеристики для интеллекта -- они могли только выполнять команды, а не запоминать их. Вычислительная техника была чрезвычайно дорогой: например, стоимость аренды компьютера доходила до 200 тыс. дол. в месяц [там же]. Только престижные университеты и крупные технологические компании могли себе их позволить. И, наконец, исследования возможностей развития ИИ [10] требовали финансирования и государственной поддержки, что также было весьма непростой задачей.
Шесть лет спустя доказательство возможности создания ИИ было представлено на конференции, организованной Д. Маккарти и М. Мински в Дартмутском университете. А. Ньюэллом, К. Шоу и Г. Саймоном была продемонстрирована программа «Теоретика логики» (The Logic Theorist), предназначенная для имитации навыков решения проблем человека. Большинство исследователей склонны считать указанную программу первым прототипом ИИ. Стоит отметить, что Д. Маккарти на упомянутом мероприятии было придумано само понятие ИИ (англ. artificial intelligence, AI). Конференция в Дартмуте стала отправной точкой исследований ИИ [11], которые на протяжении 70 лет переживали то бурный всплеск, то крайнее затишье.
Период с 1957 по 1974 г. стал эпохой расцвета изучения ИИ: увеличилась производительность, доступность и объем памяти компьютеров, значительный прогресс наблюдался в развитии алгоритмов машинного обучения. Первые прототипы ИИ в начале 60-х гг., такие как компьютерная программа General Problem Solver, разработанная А. Ньюэллом и Г. Саймоном, и Eliza Д. Вайзенбау- ма, имели многообещающее будущее в решении ряда проблем, особенно в части интерпретации разговорного языка. В 1971 г. корпорация Intel выпустила свой первый коммерчески доступный микропроцессор [3, р. 8]. Эти успехи, а также пропаганда ведущих исследователей убедили государственные учреждения, такие как Агентство передовых оборонных исследовательских проектов США, финансировать исследования ИИ в нескольких учреждениях. Правительство было весьма заинтересовано в механизме, который мог бы транскрибировать и переводить устную речь, а также обладал бы высокой производительностью в обработке данных. Оптимизм был высок, а ожидания еще выше: в 1970 г. М. Мински утверждал, что в течение трех -- восьми лет будет создана машина с интеллектом среднего человека [9].
Однако в конце 70-х гг. научное сообщество столкнулось с неожиданной проблемой недостатка вычислительных мощностей: компьютеры просто не могли хранить достаточно информации или обрабатывать ее достаточно быстро. Вплоть до середины 80-х гг. исследования ИИ замедлились и не имели значимых результатов, пока Д. Хопфилдом и Д. Румельхартом не были популяризированы методы глубокого обучения, ставшие возможными благодаря расширению алгоритмического инструментария и увеличению средств машинного обучения. Одновременно с ними Э. Фейгенбаум представил экспертные системы, которые имитировали процесс принятия решений экспертом-челове- ком. В указанный период интерес к изучению и развитию ИИ был проявлен и японским правительством: в 1982-1990 гг. оно инвестировало 400 млн дол. в проект создания «компьютера пятого поколения» с целью революционизации компьютерной обработки, внедрения логического программирования и улучшения ИИ [12].
Несмотря на то что большинство амбициозных целей создания «компьютера пятого поколения» не было достигнуто, все же можно утверждать, что проект стал новым толчком развития ИИ, продолжающимся по сей день.
Так, в 1997 г. действующий чемпион мира по шахматам гроссмейстер Г. К. Каспаров был побежден компьютерной программой компании IBM Deep Blue. Этот широко разрекламированный матч стал первым проигрышем компьютеру действующего чемпиона мира по шахматам [13]. В том же году на операционной системе Windows была реализована программа распознавания речи, разработанная компанией Dragon Systems. Это стало еще одним большим шагом вперед, но в направлении устного перевода. Казалось, что не было проблем, с которыми машины не могли справиться. Даже человеческие эмоции стали доступны для машины, о чем свидетельствует Kismet -- робот, который мог распознавать и отображать эмоции и мимику. Начало 2000-х гг. ознаменовалось победой автомобиля-робота команды Стэндфордского университета в DARPA Grand Challenge -- соревнованиях автомоби- лей-роботов, созданием нейронных сетей, появлением первого виртуального ассистента Siri и победой программы Alpha Go с глубоким самообучением компании Google в матче с Ли Седо- лем, чемпионом мира по игре Go [3, p. 8].
На сегодняшний день наблюдается активное прикладное применение ИИ во всех предметных областях и непрекращающееся расширение его возможностей. Выделяют несколько ключевых областей развития ИИ:
- крупномасштабное машинное обучение -- разработка алгоритмов обучения, а также масштабирование существующих алгоритмов для работы с очень большими наборами данных;
- глубокое обучение -- модель, составленная из входных «сигналов», таких как изображение или аудио, и нескольких спрятанных слоев подмодели, которые служат входными данными для следующего слоя и в конечном счете выходными данными или функцией активации;
- обработка естественного языка -- алгоритмы, которые обрабатывают ввод на человеческом языке и преобразуют его в понятные представления;
- совместные системы -- модели и алгоритмы, помогающие разрабатывать автономные системы, которые могут работать совместно с другими системами и людьми;
- «компьютерное зрение» (анализ изображений) -- процесс вытягивания релевантной информации от изображения или наборов изображений для предварительных классификации и анализа;
- алгоритмическая теория игр и вычислительный социальный выбор -- системы, которые учитывают экономические и социальные аспекты ИИ;
- робототехника в приложениях (роботизированная автоматизация процессов) -- автоматизация повторяющихся задач и общих процессов, таких как ИТ, обслуживание клиентов и продаж Artificial intelligence and life in 2030 // Stanford University. 2016. P. 9..