Приведенные дискуссии служат ярким примером того, что сегодня перед юристами всего мира остро встает вопрос правового обеспечения интересов разработчиков, бизнеса и инвесторов, а также государства в решении сложнейших задач прояснения правового режима объектов, создаваемых с помощью технологии искусственного интеллекта.
Борьба идет не столько за сам контент, сколько за финансовые потоки, которые генерируют разные способы доступа к контенту, и связанные с ними рекламные доходы. Главным становится вопрос, какие минимальные требования должны быть вознаграждены путем предоставления исключительных прав или прав авторства? То есть заинтересованные лица в любом случае ищут способы организации всего процесса таким образом, чтобы получить распространение, но не потерять доходы. При этом государствам приходится включаться в регулирование соответствующих отношений. И чем раньше и мягче это происходит, тем больше возможностей для защиты интересов общества, конечных пользователей. Ту же ситуацию мы вскоре увидим на рынке объектов, созданных с помощью технологии искусственного интеллекта.
В этих условиях задачей права является создание справедливой и адекватной потребностям правообладателей и широкого круга пользователей (потребителей) правового механизма защиты их прав и законных интересов.
С одной стороны, для российского права справедливым кажется подход: если форма подпадающего под признаки охраноспособности объекта была детерминирована соображениями функциональности либо технической применимости, либо имеющимися в распоряжении художественными либо техническими средствами, не превышающими по своему уровню то, что для среднего автора представляет собой механическую работу, такой объект может не признаваться объектом авторского права (п. 1 ст. 1228 ГК РФ) [8, с. 48].
С другой стороны, отнесение объектов, созданных роботами, к общественному достоянию имеет свое негативное последствие - прекращение инновационного развития в данной сфере [35]. Если посмотреть на опыт иных рынков, то можно обнаружить, что в условиях обобществления результатов развитие замедляется либо прекращается. А пока в отсутствие четкого видения решения этого вопроса возникает масса проблем, связанных с обладанием таким изобретением, возможностями передачи прав на данное решение, обеспечением конфиденциальности данных и защиты прав потребителей.
Возникшая проблема определения режима результата применения искусственного интеллекта заставляет государства и экспертов задуматься в целом о назначении права интеллектуальной собственности и применении механизмов его защиты. На наш взгляд, такие объекты сегодня вполне заслуживают охраны как объекты исключительных прав, однако в силу формулировок действующего Гражданского кодекса Российской Федерации не могут признаваться объектами исключительных авторских, смежных или патентных прав. Полагаем, в праве интеллектуальной собственности для подобного рода объектов возможно создание самостоятельного правового режима sui generis. По существу в этом контексте обществу предстоит выбрать, предоставлять право на результат применения искусственного интеллекта или это будет общественным достоянием. Однако вопрос о возможности предоставления результатам деятельности роботов правового режима объекта исключительных прав, а именно смежных, требует отдельного рассмотрения.
Технология искусственного интеллекта и управление
В Стратегии 2030 сделан акцент на соотнесение результатов применения технологии искусственного интеллекта с результатом интеллектуальной деятельности человека. При этом важно подчеркнуть, что не только создание результатов, сопоставимых с охраноспособными результатами интеллектуальной деятельности, является следствием применения технологии искусственного интеллекта.
Так, технология искусственного интеллекта выступает инструментом бизнес-аналитики.
Сегодня все более актуальной становится тема интеллектуализации организационных и информационных процессов, внедрения интеллектуальных систем поддержки принятия решений и рекомендательных систем.
Рекомендательные системы - технологии, которые на основе информации о профиле предсказывают, какие объекты (фильмы, музыка, книги, новости, веб-сайты) будут интересны пользователю [30, р. 109]. Рекомендательные системы широко используются в индустрии развлечений, бизнес-маркетинге и биомедицинской индустрии.
Суть работы рекомендательных систем заключается в следующем: эти программы собирают данные о пользователях и их предпочтениях (например, путем проведения тестирования пользователей либо посредством получения доступа к содержимому устройства пользователя, записи звука/видео, слежения за действиями пользователя в Интернете и приложениях, просмотра истории поисков пользователя в браузере). Все эти действия необходимы для работы данной системы и выполнения ею основной функции [58, р. 20; 61, р. 230]. Две основные стратегии создания рекомендательных систем - контентная фильтрация (content-based filtering) и коллаборативная фильтрация (collaborative filtering) [4]. Рекомендательные системы сравнивают однотипные данные из разных источников и вычисляют список рекомендаций для конкретного пользователя. Они являются альтернативой поисковых алгоритмов, так как позволяют обнаружить объекты, которые не могут быть найдены последними.
Таким образом, рекомендательная система на основе заранее собранных и обработанных данных (Big Data) описывает возможные пользовательские предпочтения. Выводы алгоритма служат важной основой для дальнейших рекомендаций пользователю того или иного контента. Этот эффект используется как часть механизма принятия решений в бизнесе и государственном управлении, а также весьма востребован в экономике как современный инструмент маркетинга (продвижения) для прогнозирования продаж, внедрения продуктов и др. Поскольку некоторые потребители и компании нуждаются в рекомендации или прогнозе для будущего бюджета, координации труда и цепочки поставок, динамические системы рекомендаций крайне востребованы сегодня для точного прогнозирования. Кажется очевидным, что такие результаты применения технологии искусственного интеллекта не приводят к созданию охраноспособных объектов, порождающих исключительное право на данные. В то же время не представляется возможным приравнять такие случаи применения технологии искусственного интеллекта к договорным отношениям в сфере услуг.
Еще одним направлением применения технологии искусственного интеллекта являются интеллектуальные системы поддержки принятия решений (Decision Support System, DSS). Это компьютерные автоматизированные системы, целью которых является помощь лицам, принимающим решение в сложных условиях для полного и объективного анализа предметной деятельности.
В технической среде под системами поддержки принятия решений понимают «комплекс математических и эвристических методов и моделей, объединенных общей методикой формирования альтернатив управленческих решений в организационных системах, определения последствий реализации каждой альтернативы и обоснования выбора наиболее приемлемого управленческого решения. Поддержка принятия решений и заключается в помощи лицу, принимающему решение, в процессе принятия решений» [15, с. 5].
Управление решениями на основе данных (Data-driven decision management, DDDM) - это такой подход к управлению бизнесом, когда принимаются решения, которые могут быть подкреплены проверяемыми данными. И если ранее необходимо было обращаться к специалисту, чтобы добывать данные для получения информации, поскольку этому человеку было необходимо понять, как работают базы данных и хранилища данных, то теперь такой сбор, анализ и обработка данных создается с применением технологий искусственного интеллекта на периодической основе.
В программу системы поддержки принятия решений входят: поиск информации, анализ базы данных, определение приоритетных задач, моделирование, генерация возможных решений и их альтернатив, выработка последствий выбора конкретных решений и определение в заданных условиях наиболее оптимального решения. Для решения наиболее сложных задач по принятию решений используются системы искусственного интеллекта [11]. То есть и в данной сфере мы можем разграничить системы, основанные на информационных технологиях, направленных на автоматизацию деятельности человека (например, создание баз данных, электронный документооборот), что обеспечивается за счет специального программного обеспечения и по существу не включает искусственный интеллект, и непосредственно системы искусственного интеллекта, где используются интеллектуальные алгоритмы (например, разрешение спора и вынесение решения).
Причем особенностью применения технологии искусственного интеллекта в системах принятия решений является то, что она применяется в сочетании с другими «сквозными» технологиями. В частности, активно задействуется технология больших данных. Успех подхода, основанного на данных, зависит от качества собранных данных и эффективности их анализа и интерпретации.
Таким образом, мы видим, что сферы применения и получаемые результаты технологии искусственного интеллекта далеко не всегда связаны с правами интеллектуальной собственности. В связи с этим практики заключают: несмотря на то что было использовано и разработано много продуктов искусственного интеллекта, он не производил результаты, которые были бы общедоступны или которые обязательно были интеллектуальными созданиями сами по себе URL: https://www.wipo.int/about-ip/en/artificial_ intelligence/..
В то же время применение технологии искусственного интеллекта в данном ключе требует разрешения вопросов публично-правового характера: получения согласия на обработку данных от субъектов этих данных, определения правосубъектности указанных лиц, установления юридической ответственности в связи с недобросовестным использованием данных, полученных для принятия решения.
Унификация и стандартизация систем искусственного интеллекта
На наш взгляд, следует признать справедливость позиции, согласно которой целый ряд проблем, возникающих в связи с применением технологии искусственного интеллекта и введением в оборот результатов функционирования искусственного интеллекта (либо прав на эти результаты в случае их возникновения у определенных субъектов), могут быть разрешены путем разработки стандартов, а также с помощью создания реестра таких результатов.
Полагаем, что ключевыми проблемами, возникающими при разработке, тестировании и эксплуатации систем искусственного интеллекта, являются следующие.
Во-первых, это риски, связанные с отсутствием доверия к системам искусственного интеллекта. Они обусловлены отсутствием транспарентности процесса принятия решений и вследствие этого - отсутствием гарантий качества выполненной работы. Поэтому этого имеются определенные ограничения в отношении использования систем искусственного интеллекта в процессе выполнения задач, предполагающих повышенную ответственность лица, принимающего решения.
Предсказуемость действий при выполнении конкретных задач, процессов и сервисов по обработке данных и поиску решений необходима, и использование машин, управляемых человеком, вполне способно обеспечить такую предсказуемость. Однако, как справедливо отмечают исследователи, роботы и системы искусственного интеллекта нового поколения являются самообучающимися, «архитектура интеллекта роботов продвинулась от интеллектуального действия к автономному интеллекту, благодаря чему роботы могут адаптироваться к сложным средам и взаимодействовать с людьми....Поскольку роботы становятся более способными к автономному поведению, правила, связанные с промышленными роботами, больше не будут эффективными», а возникающие при этом риски могут быть связаны с производством самообучающихся роботов и с процессом осуществления ими той или иной деятельности [59, р. 206].
Вопросы безопасности при разработке и тестировании систем искусственного интеллекта представляют особый интерес с позиций права, именно поэтому целый ряд ученых обращаются к их анализу. П. М. Морхат отмечает, что именно «такие риски поддаются управлению посредством нормативно-правового и нормативного технического регулирования, посредством процессов оценки и планирования», в то время как «риски, проистекающие из автономной деятельности роботов (автономная деятельность роботов нового поколения делает связанные с их деятельностью риски сложными, изменчивыми и непредсказуемыми и, следовательно, требует совершенно иного подхода к оценке рисков)» [9, с. 129].
Среди зарубежных ученых, предпринимавших попытки выявления ключевых рисков безопасности, связанных с радикальным развитием технологий искусственного интеллекта, следует назвать Ника Бострома, который также усматривает существенные риски именно в процессе эксплуатации, применения технологии искусственного интеллекта, указывая на то, что «существуют опасения по поводу автономных автомобилей и кибератак, а также причинения вреда» [31].
Рональд Линес и Федерика Люсиверо указывают на необходимость регулирования процесса проектирования систем искусственного интеллекта с нормами и стандартами таким образом, чтобы их использование было максимально безопасным и исключалось причинение вреда пользователям данных систем, а также третьим лицам. Для этого ими предлагается регламентация указанных процессов путем не только принятия законов, но и разработки системы технической регламентации и стандартизации в указанной сфере [49, р. 6].
Ряд исследователей отмечают, что регулирование новых технологий является сложной задачей, поскольку оно предполагает «борьбу с неопределенностью и быстро распространяющимися, часто невидимыми технологиями» [45, р. 2]. А.П. дель Кастильо обращает внимание на то, что для создания прозрачного и демократического игрового поля необходим минимальный набор правил и что в настоящее время в отсутствии какого-либо специального нормативного акта о робототехнике могут являться Директива ЕС по машиностроению 2006/42 / EC и Директива об ответственности за качество продукции 85/374 / EEC) [36, р. 10].
Во-вторых, сложности при сопоставлении функциональных возможностей систем искусственного интеллекта друг с другом, а также с возможностями квалифицированного специалиста-оператора данной системы. В настоящее время имеется объективная необходимость в разработке стандартных процедур сравнения для того, чтобы иметь возможность оценить полезный эффект от использования систем искусственного интеллекта.