Статья: Криминологические риски применения искусственного интеллекта

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

В рамках настоящего исследования мы исходили из понимания ИИ как собирательного термина интеллектуальной компьютерной программы (системы ИИ, ИИ-технологий), которая может анализировать окружающую среду, думать, учиться и реагировать в ответ на то, что она «чувствует». В широком смысле слова ИИ -- некая интеллектуальная система, способная самостоятельно принимать решения.

Данная система представляет собой направление разработки компьютерных функций, связанных с человеческим интеллектом, таких как рассуждение, обучение и решение проблем. Иными словами, ИИ -- это перенос человеческих возможностей мыследеятельности в плоскость компьютерных и информационных технологий, но уже без свойственных человеку пороков [14, с. 9]. Ученые, занимающиеся данным вопросом, усиленно изучают перспективы признания электронного лица и место человека в таком мире [15].

Мы солидарны с мнением И. В. Понкина и А. И. Редькиной в том, что ИИ -- это искусственная сложная кибернетическая компьютерно- программно-аппаратная система (электронная, в том числе виртуальная, электронно-механическая, био-электронно-механическая или гибридная) с когнитивно-функциональной архитектурой и собственными или релевантно доступными (приданными) вычислительными мощностями необходимых емкостей и быстродействия [16, с. 95].

К сходным выводам пришел П. М. Мор- хат, считающий, что ИИ -- это полностью или частично автономная самоорганизующая (самоорганизующаяся) компьютерно-аппарат но-программная виртуальная (virtual) или ки- берфизическая (cyber-physical), в том числе биокибернетическая (bio-cybernetic), система (юнит), наделенная/обладающая способностями и возможностями [17, с. 69]. При этом автор отмечает, что активное использование юнитов ИИ уже сегодня влечет возникновение в правовом пространстве множественных неопределенностей, сложностей, проблем [там же, с. 70]. Мы разделяем данную позицию.

В современной научной и технической литературе приводится достаточно много различных классификаций систем ИИ и возможностей их применения [18-20]. Однако, принимая во внимание методологию настоящего исследования, мы придерживались классификации ИИ, учитывающей прикладные аспекты современных информационно-телекоммуникационных технологий.

Стоит отметить, что в исследовании компании PwC все виды ИИ разделены на две группы в зависимости от взаимодействия с человеком. Так, к видам ИИ, взаимодействующего с людьми, относят специальные устойчивые системы, такие как вспомогательный интеллект, помогающий людям выполнять задачи быстрее и лучше. Устойчивые системы неспособны обучаться в их взаимодействиях. К указанной группе также принято относить адаптивный (дополненный) интеллект, который помогает людям принимать правильные решения и способен к самообучению во время взаимодействия с человеком.

Во вторую группу видов ИИ, не взаимодействующего с человеком, включают автоматизированный интеллект, предназначенный для автоматизации механических/когнитивных и рутинных задач. Его функционирование не связано с выполнением новых задач и находится в сфере автоматизации существующих задач. К указанной группе также относится автономный интеллект, который по своему функционалу и возможностям превосходит все предыдущие и может представлять угрозу для человечества и общества. Такой ИИ способен адаптироваться к различным ситуациям и действовать самостоятельно без участия человека Искусственный интеллект: не упустить выгоду., совершая, например, кражу личности [21].

Ключевые характеристики ИИ, несущие в себе криминологические риски

Тему угрозы ИИ для человечества впервые поднял профессор Оксфордского университета Н. Бостром в своей книге Superintendence: Paths, Dangers, Strategies, которая стала бестселлером по версии американской ежедневной газеты The New York Times и является одной из книг, обязательных для прочтения по рекомендациям Б. Гейтса и И. Маска Best Selling Science Books // The New York Times.. В ней профессор Бостром утверждает, что основная угроза для человечества не изменение климата, не пандемия и не ядерная зима; это неизбежное создание общего машинного интеллекта, большего, чем наш собственный [22]. Аналогичный тезис был высказан и величайшим ученым-космологом С. Хокингом в его последней книге: появление сверхумных машин станет либо лучшим, либо худшим событием в истории человечества. Умные компьютеры будут наделены собственной волей, которая совсем не обязательно совпадет с нашей. Человек эволюционирует с естественной скоростью, поэтому не сможет тягаться с искусственным разумом. Эту гонку вооружений мы можем и не выиграть, так что единственно верное решение -- ее предотвратить [23].

По прогнозам Н. Бострома, через 60 лет ИИ станет серьезной угрозой человечеству. К 2022 г. сходство процессов мышления робота и человека будет равняться примерно 10 %, к 2040 г. -- 50 %, а в 2075 г., согласно закону Мура, мыслительные процессы роботов уже нельзя будет отличить от человеческих, они достигнут 95 % [22].

На наш взгляд, А. Э. Радутный весьма удачно резюмировал опасения ученых:

- благодаря способности к саморазвитию ИИ может стать искусственным суперинтеллектом (ИСИ) [24];

- у ИСИ будут свои потребности и цели (он может быть менее гуманным, чем разумный инопланетянин);

- ИСИ может попытаться использовать людей против их воли (например, получить доступ к ресурсам);

- ИСИ, возможно, пожелает быть единственным видом на Земле;

- люди как система удобно сгруппированных атомов могут представлять интерес для ИСИ в качестве ресурса;

- человечество не готово к встрече с ИСИ и не будет готово еще много лет;

- человечество должно научиться держать ИИ под достаточным контролем [25].

Необходимо отметить, что не только величайшие умы человечества обеспокоены угрозами, которые несет развитие ИИ. Согласно независимому глобальному опросу, проведенному инновационными компаниями Northstar и ARM, чуть более трети опрошенных думают, что ИИ уже оказывает заметное влияние на их повседневную жизньSept. 8.

В рамках онлайн-опроса было изучено мнение 3 млн 938 тыс. чел. во всем мире (преимущественно в странах Северной Америки, Западной Европы и ЮгоВосточной Азии).

AI today. AI tomorrow. Awareness, acceptance and anticipation of AI: a global consumer perspective.. Несмотря на то что более половины жителей ожидают лучшее будущее для общества благодаря ИИ, пятая часть опрошенных ожидает худшего. Существуют и региональ-

ные различия. Жители североамериканского континента и европейцы выразили обеспокоенность относительно надежности машин с ИИ, в то время как в странах Азии существует подлинное опасение, что машины с ИИ становятся более умными, чем люди8. В целом подавляющее большинство опрошенных (85 %) обеспокоены обеспечением безопасности технологии ИИ.

Рассмотрим данную проблему с учетом различных практик применения ИИ.

Так, проблема обеспечения безопасности конфиденциальной информации, в том числе проблема обеспечения кибербезопасности с использованием ИИ, является одной из ключевых для всех субъектов цифровой экономики [26].

Согласно данным аналитического центра компании InfoWatch -- крупнейшего российского производителя решений для защиты организаций от внутренних и внешних угроз, а также от информационных атак, в первом полугодии 2017 г. было зарегистрировано более 920 инцидентов, связанных с утечкой конфиденциальной информации из организаций различных форм собственности. Данные об инцидентах включают все утечки во всех зарубежных странах, сведения о которых опубликованы в средствах массовой информации, блогосфере, социальных сетях и на иных сетевых ресурсах [27, с. 28].

Для решения указанной проблемы компании проводят постоянные исследования в рассматриваемой сфере. К примеру, американская корпорация Google разработала программу под названием Federated Learning, в которой облегченная версия программного обеспечения Sensorflow позволяет использовать ИИ на смартфоне и обучать его. Вместо сбора и хранения информации в одном месте, на серверах Google, для последующей работы с новыми алгоритмами процесс обучения происходит непосредственно на мобильном устройстве каждого пользователя. По сути, процессор телефона используется как вспомогательное средство обучения ИИ. Преимущество этого приложения заключается в том, что конфиденциальная информация никогда не покидает устройство пользователя, а обновления приложений применяются в режиме реального времени. Позже информация собирается Google анонимно и используется для внесения общих уточнений в приложение [28].

Таким образом, можно предположить, что ИИ может совершить общественно опасное деяние, связанное с нарушением конфиденциальности охраняемой законом информации.

Вопросами использования ИИ в преступных целях обеспокоено мировое сообщество. Так, в начале 2017 г. ФБР провело крупную конференцию, посвященную вопросам использования ИИ правоохранительными органами и криминалом. На конференции было отмечено: данные Интерпола, Европола, ФБР и правоохранительных органов других стран, результаты исследований ведущих университетов указывают на отсутствие активности криминальных структур по созданию своих разработок в сфере ИИ [29, с. 149]. По мнению В. С. Овчинского, несмотря на отсутствие сведений о разработках кибепреступников в сфере ИИ, потенциальная возможность такого явления существует: «У киберкриминала есть из чего выбрать для создания собственных мощных платформ ИИ. Практически все разработки ИИ с открытым исходным кодом представляют собой контейнеры. Контейнер -- это платформа, на которой при помощи API могут монтироваться любые сторонние программы, сервисы, базы данных и т. п. Если раньше каждый при создании собственной программы или сервиса должен был от начала до конца первоначально разработать алгоритмы, а затем, пользуясь тем или иным языком программирования, перевести их в код, то сегодня возможно создавать продукты и сервисы так же, как строители строят дом -- из стандартных, доставленных на стройплощадку деталей» [там же, с. 150].

Таким образом, процессы применения ИИ в преступных целях имеют повышенную общественную опасность [30]. Однако использование коммуникаций с открытым исходным кодом для оценки преступности видится перспективной идеей [31], в том числе в эпоху больших данных [32].

Согласно исследованиям, основными наиболее активными сферами внедрения ИИ являются медицинские приложения (программы диагностики заболеваний), цифровые сервисы -- помощники, автономные транспортные средства AI today. AI tomorrow. Awareness, acceptance and anticipation of AI: a global consumer perspective.. При этом, например, ошибка ИИ программы диагностики заболеваний [33], поставившей неверный диагноз, может повлечь неправильное лечение больного и, как следствие, возможное нарушение его здоровья. искусственный интеллект криминологический риск

Отметим, что изучение юридических аспектов, связанных с общественно опасными последствиями применения ИИ, представляет собой самостоятельный пласт серьезных и достаточно глубоких уголовно-правовых исследований, результатом которых должно стать формирование концептуально новой правовой модели регулирования отношений в указанной сфере. Вместе с тем в рамках настоящего исследования авторами выделены ключевые риски (потенциальные угрозы) применения ИИ, что, в свою очередь, должно не только послужить основой для дальнейших глубоких теоретических изысканий в криминологии, но и в целом стать импульсом для проведения исследований в рамках иных наук криминального цикла.

Проведенный анализ тенденций в области создания и использования ИИ позволил нам выделить два вида криминологических рисков применения ИИ -- прямой и косвенный.

Прямой криминологический риск применения ИИ -- риск, связанный с непосредственным действием на человека и гражданина той или иной опасности, вызванной применением ИИ. К таким рискам можно отнести:

- умышленное совершение системой ИИ общественно опасного посягательства на жизнь и здоровье человека; свободу, честь и достоинство личности; конституционные права и свободы человека и гражданина; общественную безопасность; мир и безопасность человечества, повлекшего общественно опасные последствия;

- умышленные действия с программным обеспечением системы ИИ, повлекшие общественно опасные последствия.

Косвенный криминологический риск применения ИИ -- риск, связанный с непреднамеренными опасностями в контексте применения ИИ. К таким рискам можно отнести:

- случайные ошибки в программном обеспечении системы ИИ (ошибки, допущенные разработчиком системы ИИ);

- ошибки, совершенные системой ИИ в процессе его работы (ошибки, допущенные системой ИИ).

Выводы

Изложенная в работе информация подтверждает существование высоких криминологических рисков применения ИИ, заключенных как в самой интеллектуальной технологии, так и в слабой теоретической подготовленности криминологии к изучению рассматриваемой проблемы.

В связи с этим первоочередными видятся мероприятия по созданию федерального органа исполнительной власти Российской Федерации, осуществляющего функции по выработке государственной политики, нормативно-правовому регулированию, контролю и надзору в сфере применения ИИ, подготовке законодательства в области создания и использования ИИ, разработке юридических моделей предупреждения криминального поведения ИИ, в частности определению криминологических рисков его применения.

Cписок использованной литературы

1. Хисамова З. И. Международный опыт уголовно-правового противодействия преступлениям в сфере цифровой экономики / З. И. Хисамова. -- Краснодар : Изд-во Краснодар. ун-та МВД России, 2018. -- 119 с.

2. Rutten P. Worldwide AI Server Infrastructure Forecast, 2018-2022 [Electronic resource] / P. Rutten // Analyze the future. -- 2018.

3. McWaters R. J. The New Physics of Financial Services. Part of the Future of Financial Services series. Understanding how artificial intelligence is transforming the financial ecosystem [Electronic resource] / R. J. McWaters // Deloitte, World Economic Forum. 2018. -- 167 p.

4. Баррат Д. Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens : пер. с англ. / Д. Баррат. -- М. : Альпина нон-фикшн, 2015. -- 304 с.