Отмеченное обстоятельство присутствует и в других областях правоохранительной деятельности. Рассматривая области риска при использовании технологии ИИ в процессе раскрытия и расследования преступлений, Д. В. Бахтеевым справедливо отмечается, что в силу наличия таких характеристик, как скрытые слои, глубокое обучение и т. п., системы ИИ могут оказаться для человечества черным ящиком: неочевиден механизм принятия ими решений, известен лишь результат, для проверки которого может и не найтись корректного алгоритма [8, с. 371].
Кроме того, ст. 16 Федерального закона от 27 июля 2006 г. № 152-ФЗ «О персональных данных» устанавливает принципы их автоматизированной обработки, в частности, запрещается принятие на основании исключительно автоматизированной обработки персональных данных решений, порождающих юридические последствия в отношении субъекта персональных данных или иным образом затрагивающих его права и законные интересы, за исключением случаев, предусмотренных ч. 2 рассматриваемой статьи.
Соответственно, наиболее существенное значение при поиске ответа на вопрос о возможных направлениях использования технологий ИИ в деятельности по выявлению, раскрытию, расследованию и предупреждению преступлений имеет доверие к ним при определении возможности их применения при решении ответственных задач обработки данных. Оно характеризует уверенность правоприменителя и иных заинтересованных сторон в том, что система способна выполнять возложенные на нее задачи с требуемым качеством1.
В этих условиях на передний план выходят вопросы оценки качества систем ИИ на стадиях разработки, создания и эксплуатации в целях обеспечения необходимого уровня их соответствия установленным требованиям. Наличие грамотно выстроенной системы оценки качества позволяет повысить доверие к системам ИИ на физическом уровне путем подтверждения требований к надежности, безопасности и функциональности.
Приказом Росстандарта от 25 июля 2019 г. № 1732 создан специальный технический комитет по стандартизации ТК-164 «Искусственный интеллект», в рамках которого разработан комплекс из более 100 национальных стандартов, регламентирующих как общие, так и отраслевые требования к качеству систем ИИ и методам их испытаний. Указанная деятельность способствует обеспечению безопасности создания и применения систем ИИ.
Качество определяет способность системы ИИ в заданных условиях удовлетворять установленным или предполагаемым потребностям различных заинтересованных сторон, что позволяет таким образом оценить ее достоинства на основании множества характеристик, субхарактеристик, метрик и отношений между ними1. Показателем качества системы ИИ выступает при этом степень соответствия представительного набора существенных (значимых) характеристик системы ИИ заданным требованиям, т. е. потребностям или ожиданиям, которые установлены, обычно предполагаются или являются обязательными для этой системы. Указанный набор характеристик позволяет потребителю или любой другой заинтересованной стороне достоверно оценивать качество системы при решении конкретной прикладной задачи2.
При разработке программ и методик тестирования (испытаний) систем ИИ и определении номенклатуры показателей качества и критериев оценки следует использовать действующие отраслевые, национальные и международные стандарты (например, для оценки биометрических технологий и систем - ГОСТ Р ИСО/МЭК 19795-1, ГОСТ Р 58292, ГОСТ Р ИСО/МЭК 19795-6, ГОСТ Р 58624.1,ГОСТ Р 58667.3).
Программа тестирования должна быть разработана таким образом, чтобы полученные результаты тестирования (испытаний) позволили оценить, подходит ли исследуемая система ИИ для цели (целей) предназначения, и при этом обеспечить надежность, валидность и репрезентативность результатов тестирования. Надлежит четко определить гипотезу и цели (первичные и вторичные) программы тестирования, а также требования к тестовому набору данных, заявленные показатели качества и критерии оценки.
При подготовке программы тестирования (испытаний) следует провести объективный анализ доступных научных данных, позволяющий обосновать полноту и достаточность набора показателей качества, правильность критериев оценки, достаточность и репрезентативность тестовых наборов данных.
Для получения достоверных результатов оценки качества систем ИИ целесообразно, чтобы установленные показатели обладали следующими характерными свойствами, определяющими точность проводимых измерений согласно ГОСТ Р ИСО 5725-13:
достоверность - влияние случайных ошибок на результат измерения незначительно или может быть учтено в процессе анализа, т. е. не влияет на результат измерения;
воспроизводимость - повторное измерение показателя для той же системы с использованием той же самой шкалы ранжирования и оценки, входные данные и условия проведения тестирования различными специалистами по оценке должны привести к тем же самым результатам в пределах соответствующей погрешности;
повторяемость (также сходимость результатов измерений) - близость друг к другу результатов измерений одной и той же величины, выполненных повторно одними и теми же средствами, одним и тем же методом, в одинаковых условиях и с одинаковой тщательностью.
Для оценки функциональных возможностей систем ИИ применяется следующий набор функциональных субхарактеристик:
полнота, используемая для оценки степени покрытия совокупностью функций исследуемой системы всех определенных задач и целей пользователя в условиях отсутствия предвзятости (необъективности);
корректность (правильность) - для оценки обеспечения системы степени точности результатов, а также частоты встречаемости ошибок и недопустимых отклонений;
пригодность - для оценки степени функционального упрощения выполнения определенных задач и достижения целей;
способность к самообучению - для оценки уровня владения системы умением автоматически извлекать знания из накопленного опыта и применять их для улучшения качества решения поставленных задач.
Говоря о достоверности результатов использования систем ИИ, необходимо обратить внимание на еще одно важное обстоятельство - достоверность исходных данных. Э. В. Лантух, А. А. Смольяков и О. В. Гаврилова на этот счет справедливо отмечают, что остается открытым вопрос о том, насколько полные, достоверные и качественные данные с места совершения преступления и предоставленные анализы будут предложены на рассмотрение ИИ. Если предположить, что изначальные данные будут содержать ошибку или неточность, то высока вероятность того, что ИИ воспримет их неправильно и сделает неточные и ошибочные выводы [9, с. 32-37].
Таким образом, обеспечение доверия к системам ИИ в процессе выявления, раскрытия, расследования и предупреждения преступлений должно строиться на основе национальных стандартов, регламентирующих как общие, так и отраслевые требования к качеству систем ИИ и методам их испытаний.
Список источников
Васюков В. Ф., Шеметов А. К. Возможности использования искусственного интеллекта в раскрытии преступлений // Вестник Академии Следственного комитета Российской Федерации. 2022. № 1 (31). C. 82-87.
Ржанникова С. С. К вопросу о правовом регулировании использования искусственного интеллекта в экспертно-криминалистической деятельности // Технологии XXI века в юриспруденции: материалы V междунар. науч.-практ. конф., Екатеринбург, 19 мая 2023 г. / отв. ред. Д. В. Бахтеев. Екатеринбург: КримЛиб, 2023. C. 170-174.
Зинин А. М., Дьяконова О. Г. Мышление человека и искусственный интеллект в аспекте сравнительного исследования внешнего облика человека по его изображениям // Эксперт-криминалист. 2023. № 3. C. 2-4.
Бессонов А. А. Перспективы использования технологии искусственного интеллекта в экспертно-криминалистической деятельности // Судебная экспертиза и исследования. 2022. № 1. C. 16-21.
Федорович В. Ю., Химичева О. В., Андреев А. В. Внедрение технологий информатизации и искусственного интеллекта как перспективные направления развития современного уголовного судопроизводства // Вестник Московского университета МВД России. 2021. № 2. C. 205-210.
Батоев В. Б. Применение искусственного интеллекта в деятельности правоохранительных органов // Вестник Московской академии Следственного комитета Российской Федерации. 2020. № 4 (26). C. 83-87.
Гаврилин Ю. В., Салеева Ю. Е. О концепции государственной научной и научно-технической политики в области криминалистического обеспечения борьбы с преступностью // Труды Академии управления МВД России. 2023.
№ 4 (68). C. 80-87.
Бахтеев Д. В. Концептуальные основы теории криминалистического мышления и использования систем искусственного интеллекта в расследовании преступлений: дис. … д-ра юрид. наук. Екатеринбург, 2022. 504 с.
Лантух Э. В., Смольяков А. А., Гаврилова О. В. Актуальные проблемы внедрения новейших цифровых технологий для подготовки сотрудников экспертнокриминалистических подразделений // Психолого-педагогические проблемы безопасности человека и общества. 2023. № 4 (61). C. 32-37.
References
Vasyukov V. F., Shemetov A. K. Possibilities of using artificial intelligence in solving crimes. Bulletin of the Academy of the Investigative Committee of the Russian Federation, 82-87, 2022. (In Russ.).
Rzhannikova S. S. On the issue of legal regulation of the use of artificial intelligence in expert and forensic activities. In: Technologies of the 21st century in jurisprudence: materials of the 5th International scientific and practical conference, Ekaterinburg, May 19, 2023. Resp. ed. D. V. Bakhteev. Ekaterinburg: CrimLib; 2023: 170-174. (In Russ.).
Zinin A. M., Dyakonova O. G. Human thinking and artificial intelligence in the aspect of comparative research of human appearance according to his images. Forensic expert, 2-4, 2023. (In Russ.).
Bessonov A. A. Prospects for the use of artificial intelligence technology in forensic science. Forensic examination and research, 16-21, 2022. (In Russ.).
Fedorovich V. Yu., Khimicheva O. V., Andreev A. V. The introduction of information technologies and artificial intelligence as promising directions for the development of modern criminal proceedings. Bulletin of the Moscow University of the Ministry of Internal Affairs of Russia, 205-210, 2021. (In Russ.).
Batoev V. B. Application of artificial intelligence in the activities of law enforcement agencies. Bulletin of the Moscow Academy of the Investigative Committee of the Russian Federation, 83-87, 2020. (In Russ.).
Gavrilin Yu. V., Saleeva Yu. E. About the concept of state scientific and scientific and technical policy in the field of forensic support for the fight against crime. Proceedings of the Academy of Management of the MIA of Russia, 80-87, 2023. (In Russ.).
Bakhteev D. V. Conceptual foundations of the theory of forensic thinking and the use of artificial intelligence systems in crime investigation. Dissertation of doctor of juridical sciences. Ekaterinburg; 2022: 504. (In Russ.).
Lantukh E. V., Smolyakov A. A., Gavrilova O. V. Current problems of introducing the latest digital technologies for training employees of forensic units. Psychological and pedagogical problems of human and social security, 32-37, 2023. (In Russ.).