Статья: Технология искусственного интеллекта и право: вызовы современности

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

О данной проблеме говорят и зарубежные исследователи. Например, Мартин Форд отмечает: «Дело не только в безработице. Это также о неравенстве. Ведутся дебаты о том, будет ли эта технология заменять людей или это скорее шаг вперед, когда новые технологии работают наряду с людьми?» [42]. Другие ученые также анализируют различные аспекты проблемы занятости, порождаемой все более широким распространением систем искусственного интеллекта.

Кей Ферт-Баттерфилд усматривает несомненную связь развития технологий искусственного интеллекта с количеством рабочих мест и отмечает следующие потенциальные проблемы при использовании данных систем: «Эти проблемы делятся на четыре основные категории: предвзятость, прозрачность, ответственность и конфиденциальность. Значительная ценность бренда может быть потеряна, если будут приняты неправильные решения об использовании искусственного интеллекта. Поэтому важно, чтобы различные регулирующие и другие механизмы управления были рассмотрены сейчас; быстрые темпы изменений в этой технологии таковы, что мы не можем ждать» [32].

В-третьих, идентифицированы проблемы интероперабельности, заключающиеся в отсутствии стандартных форматов представления данных, используемых либо получаемых с помощью систем искусственного интеллекта. Отсутствуют также требования к формированию обучающих и контрольных выборок, вследствие чего имеются существенные сложности для успешного встраивания систем искусственного интеллекта в информационно-коммуникационную инфраструктуру.

В современном промышленном производстве наблюдается тенденция комбинирования аппаратного и программного обеспечения (hardware и software), это необходимо для того, чтобы технологии искусственного интеллекта приобрели большую практическую значимость. Не случайно исследователи отмечают, что «для прикладных систем потребность в комбинации различных методов искусственного интеллекта с функциональными приложениями становится все более серьезной» [60, р. 33].

В-четвертых группа проблем, возникающих при создании и использовании систем искусственного интеллекта, с нашей точки зрения, связана с конфиденциальностью процессов получения, обработки и использования больших данных. Анализируя возможности применения систем искусственного интеллекта в правоприменительной практике, Деннис Гарсия, помощник главного юрисконсульта Microsoft, отметил следующее: «Чтобы системы искусственного интеллекта могли предоставлять ценные услуги, в основном им необходимо иметь доступ и использовать большие объемы данных. Системы искусственного интеллекта также, вероятно, будут генерировать значительные объемы информации. В результате покупатель услуг, связанных с использованием искусственного интеллекта, должен понимать, как поставщик решений искусственного интеллекта защищает и использует свои данные» [44]. Образное высказывание «IoT could feed the `big data beast'» [39] вполне отражает те проблемы, которые могут возникнуть в связи с использованием больших данных.

Таким образом, вопрос о конфиденциальности тесно связан с большими данными (Big Data) и является весьма актуальным. Их использование больших данных необходимо для эффективного функционирования систем искусственного интеллекта, что порождает целый комплекс правовых и этических вопросов, в частности о границах использования персональных данных. В Европейском Союзе уже действует процедура PIA (privacy impact assessment) - оценка влияния функционирования роботов и иных подключаемых к Интернету устройств на конфиденциальность персональных данных. Она регулируется специальным актом по сбору, обработке и хранению больших данных - General Data Protection Regulation (GDPR) Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repрealing Directive 95/46/EC (General Data Protection Regulation). URL: http: // eur-lex.europa. eu/legal-content/EN/TXT/PDF /?uri= CELEX: 32016R0679&from=EN., согласно которому каждому гражданину также предоставляется право на заявление возражений в отношении факта осуществления в отношении него сбора данных (профайлинга) и обработки его результатов, способной оказать существенное влияние на его права и обязанности.

Полагаем, однако, что в данной сфере необходимо более масштабное правовое регулирование: законодатель, осуществляя правовую и / или техническую регламентацию процессов функционирования искусственного интеллекта, должен иметь в виду базовые принципы, на основе которых эти процессы построены, а именно автономность и непрозрачность. Andrea Ottolia, анализируя особенности использования больших данных в деятельности систем искусственного интеллекта, весьма образно указала на следующую его особенность: «Большинство систем искусственного интеллекта являются “системами черных ящиков”» [55].

В науке идут дискуссии о том, каким образом можно регламентировать использование больших данных, предлагаются различные правовые режимы - авторского права либо смежных прав, коммерческой тайны, антимонопольное регулирование и т. д.

В отношении авторско-правовой охраны, предоставляемой компьютерным программам, следует отметить, что она не распространяется на содержание данных, охрана предоставляется форме произведения. Поэтому невозможно использовать ее для охраны, например, персональных данных. Что касается охраны в качестве баз данных, то эти данные, используемые системами искусственного интеллекта система может самостоятельно структурировать, делать выборки в соответствии с заданными самой этой системой параметрами, не придерживаясь заданного разработчиком этой базы принципа подбора и расположения материала.

Режим коммерческой тайны применим лишь для охраны информации, имеющей действительную или потенциальную коммерческую ценность, в то время как и иные данные могут быть важны для функционирования систем искусственного интеллекта.

С нашей точки зрения, антимонопольное законодательство в этом отношении может быть наиболее полезным, поскольку обладает надлежащими возможностями в предотвращении монополизации процессов сбора, обработки и хранения данных, использование его инструментов способно облегчить доступ к данным, однако необходимо это делать не только в соответствии с нормами права, но и определенными техническими стандартами.

Таким образом, целый ряд исследователей правовых, социальных, экономических и иных проблем разработки и использования систем искусственного интеллекта приходят к выводу о необходимости унификации и стандартизации процедур в данной сфере. Необходимо как можно более точно прогнозировать и решать взаимосвязанные технологические и правовые проблемы, которые возникнут, когда использование роботов станет повсеместным, они будут широко внедрены во все сферы жизни общества. А мы полагаем, что такое внедрение произойдет в ближайшее десятилетие. Именно поэтому вопросы, касающиеся стандартов поведения автономных роботов, тесным образом связаны с безопасностью их использования.

Считаем также, что в современных условиях цифровизации очередной этап правового регулирования отношений, складывающихся в сфере сбора, хранения и использования больших данных, а также в сфере интеллектуальной собственности связан с необходимостью унификации и стандартизации систем искусственного интеллекта и технологии блокчейн.

Унификация позволяет выработать единые подходы к правовой регламентации соответствующих отношений, в результате чего происходит не только сближение законодательства различных стран, но и совершенствование правоприменительной практики. Начало процессу установления унифицированных требований к процедурам и средствам хранения больших данных, используемых при разработке, тестировании и эксплуатации систем искусственного интеллекта было положено сначала на международном уровне.

При обращении к анализу международного правового регулирования в указанной сфере становится очевидно, что еще начиная с 2000 г., в период бурного, революционного развития информационно-телекоммуникационных технологий, осуществлялось принятие в первую очередь актов общего характера - программных документов, признающих современный этап развития общества в качестве информационного общества и закрепляющих основные его характеристики.

Не случайно в указанный период по итогам Всемирной встречи на высшем уровне по вопросам информационного общества в Женеве (декабрь 2003 г.), а также встречи, состоявшейся в Тунисе (ноябрь 2005 г.), были приняты весьма значимые документы: Окинавская хартия глобального информационного общества, Окинавская хартия глобального информационного общества. URL: http://www.iis.ru/library/okinawa/charter. ru.html. План действий Тунисского обязательства План действий Тунисского обязательства. URL: http://rodmaprav.mfo/mdex.php/zakonodatelstvo/43-tunisskoeobyazatelstvo. и др., в которых основной целью, стоящей перед современным обществом, было провозглашено ускорение процессов формирования постиндустриальных тенденций во всех сферах его жизни - экономической, социально-политической и духовной. Декларация принципов по вопросам информационного общества, принятая в Женеве в 2003 г. Декларация принципов по вопросам информационного общества: принята в Женеве в 2003 г. URL: http://rodinaprav.mfo/index.php/zakonodatelstvo/36-deklaratsiyaprintsipov-postroenie-informatsionnogo-obshchestva-globalnaya-zadacha-v-novom-tysyacheletii., провозгласила построение данного общества в качестве глобальной задачи в новом тысячелетии и определила принцип обеспечения повышения доверия и безопасности при использовании информационных технологий как один из ключевых.

Европейским парламентом в 2017 г. был опубликован Отчет с рекомендациями для Комиссии по гражданскому праву о правилах робототехники, в котором было, в частности, отмечено, что «тенденция к автоматизации требует, чтобы те, кто занимается разработкой и коммерциализацией приложений искусственного интеллекта, изначально строили систему безопасности и этики, тем самым признавая, что они должны быть готовы принять юридическую ответственность за качество производимой ими технологии» (пункт N) Report of the European Parliament with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103 (INL)) dated as of 27th of January, 2017. URL: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT - REP0RT - A8-2017-0005 - 0 - D0C - XML - V0//EN.. Также подчеркивается необходимость сбалансированного подхода, предполагающего обязательность стандартизации аппаратного и программного обеспечения систем искусственного интеллекта и в то же время, недопустимость создания препятствий инновациям.

Как отмечено в Рекомендации Парламентской ассамблеи Совета Европы № 2102 от 28 апреля 2017 г. «Слияние с технологиями, искусственный интеллект и права человека» Recommendation № 2102 (2017) of Parliamentary Assembly of the Council of Europe «Technological convergence, artificial intelligence and human rights», 28 April 2017. URL: http: // assembly.coe. int/nw/xml/XRef/Xref-xML2HTML-en. asp?fileid=23726&lang=en., законодателям все труднее адаптироваться к темпу развития науки и технологий и разрабатывать необходимые нормативные акты и стандарты (п. 3), в связи с чем требуется разработать руководящие принципы, в частности, по вопросу автоматической обработки операций, направленных на сбор, обработку и использование персональных данных, а также общие рамки стандартов (п. 9.1). В данном документе сделан важный вывод о том, что любая машина, любой робот или любой искусственный интеллект должны оставаться под контролем человека.

В рамках Евразийского экономического союза принят технический регламент «О безопасности машин и оборудования», в котором, однако, не затронуты вопросы ответственности Решение Комиссии Таможенного союза от 18 окт. 2011 № 823 (ред. от 16.05.2016) [Электронный ресурс]. Доступ из справ.-правовой системы «КонсультантПлюс»..

В течение последнего десятилетия основные положения вышеобозначенных и иных стратегических, программных документов были внедрены в национальное законодательства целого ряда стран: в частности, Великобритания, Германия, Китай, США, Япония, Южная Корея предпринимают важные шаги в направлении регламентации базовых стандартов в сфере робототехники и искусственного интеллекта Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)), 31.05.2016 / Committee on Legal Affairs / European Parliament; Rapporteur: Mady Delvaux. URL: http://www.europarl.europa.eu/ sides/getDoc.do?pubRef=-//ep//nonsgml%2bcomparl%2bpe582.443%2b01 %2bdoc%2bpdf%2bv0//en. P. 4. [2, с. 3; 26].

Японский Комитет по политике в сфере робототехники в качестве меры, позволяющей решить либо предотвратить проблемы, связанные с функционированием роботов нового поколения, назвал в том числе разработку стандартов проектирования и производства роботов, где предполагается определить ответственность производителей за вред, причиненный действиями роботов Japan Ministry of Economy, Trade and Industry Robot Poli [5, с. 216].

Российская Стратегия 2030 определяет искусственный интеллект как комплекс технологических решений. Данные решения могут быть объектами стандартизации, поскольку в соответствии с Федеральным законом от 29 июня 2015 г. № 162-ФЗ (ред. от 03.07.2016) «О стандартизации в Российской Федерации» (подп. 6 ст. 2)cy Council. Robot Policy Council Report, May 2006 (in Japa-, такими объектами могут являться: продукция (работы, услуги), процессы, системы менеджмента, терминология, условные обозначения, исследования (испытания) и измерения (включая отбор образцов) и методы испытаний, маркировка, процедуры оценки соответствия и иные объекты.

Данный подход соответствует Стратегии развития информационного общества в Российской Федерации, утвержденной Президентом РФ в 2017 г.6, и учитывает основные положения перечисленных выше международных документов.

Методические рекомендации по внедрению интернета вещей для оптимизации контрольно-надзорной деятельности содержат определение понятия «промышленный интернет вещей, применяемый в контрольно-надзорной деятельности»: это совокупность автоматических или автоматизированных средств измерения, передачи и обработки данных, систем реагирования и дистанционного мониторинга, обеспечивающих контрольно-надзорные органы достоверными сведениями о состоянии проверяемых объектов. Достоверность этих сведений может быть обеспечена только с помощью стандартизации. В данных рекомендациях также содержатся предложения об отказе от избыточного сбора персональных данных, ограничении его сообразно целям обработки, а также об установлении регламентированного порядка их раскрытия, допустимых сценариев агрегации и деперсонификации.