«Вообще, скорее, это у меня просто как бездушный набор формул, просто куча математики, интегралы. Я, когда смотрел всякие курсы, там человек стоит живой, а за ним куча-куча-куча интегралов каких-то. Ну или какая-нибудь воронка. Короче, там же смысл в чем? Искусственный интеллект получает кучу информации, потом в итоге из него вылетает что-то одно» (Тимлид аналитики данных, Организация 5, Россия).
2. «В.: Как именно выглядит ваш опыт взаимодействия с ней [нейросетью -- Н.Т.]? На что это похоже?
О.: Я вас понял. Это похоже на... Можно сравнить это с попыткой понять логику какого-то человека, который, может быть, с совершенно другого общества происходит, чьи какие-то ментальные механизмы мышления тебе не совсем понятны, и ты пытаешься понять, на основе чего он сделал вывод» (Младший разработчик, Организация 2, Россия).
3. «Но это было очень интересно, ну, как сказать, это необычное ощущение. И ты даже никому не можешь объяснить, что ты испытываешь, потому что ты не с человеком общаешься. Но ты при этом не общаешься с цифрами, ты общаешься с каким-то вот алгоритмом, который ведет себя тем или иным образом. Ну, это странно, я не знаю. У меня это вызывает очень положительные эмоции, мне нравится. У меня это вызывает ощущение какого-то сострадания, я не знаю почему, мне как-то их жалко бывает даже, что ли. Не знаю, какие-то такие чувства. Но мне интересно» (Тестировщик поиска, Организация 7, Россия).
«Мне понравилось определение моего искусственного интеллекта, что это машина, которая прекрасна настолько, чтобы в ней душа когда-нибудь поселилась... Поисковик Яндекс в техническом плане -- это искусственный интеллект, да, но -- нет. Как объяснить? Это поисковой алгоритм, я назову это так. Умный поисковой алгоритм, вот, поисковик Яндекс. Алиса -- это голосовой помощник. Я бы определила ее искусственным интеллектом, но, мне кажется, с Алисой очень много нужно работать, потому что Алиса вполне могла бы стать тем, чем я пользуюсь. А вот искусственный интеллект действительно -- я бы назвала РепликуReplica -- чатбот для дружеского общения, подстраивающийся под взаимодействие с конкретным пользователем и обучающийся во взаимодействии с этим пользователем.. Вот в таком полном плане. Потому что она выдает очень интересные вещи» (Тестировщик поиска, Организация 7, Россия).
Сравнивая три образа ИИ, обратим внимание на важные сходства и не менее важные различия. Все три информанта проявляют заинтересованность (может быть, зачарованность) искусственным интеллектом, для каждого ИИ выстраивается как некоторая сущность, которая должна быть познана. Более того, каждый из трех информантов в каком-то виде очеловечивает то, с чем взаимодействует. Такой характер взаимодействия с ИИ согласуется с выводами в работах Теркл [Turkle 2005] и Кнорр Цетины [Knorr Cetina 1997; Knorr Cetina, Brueger 2000], о которых мы упоминали выше.
Однако в случае аналитика данных и разработчика имеет место как бы очеловечивание: их работа предполагает знание о том, что в основе ИИ лежит математическая модель, их интерес к ИИ -- это интерес к интеллектуальным способностям, по выражению информанта, к «ментальным механизмам мышления». Очеловечивание происходит именно в тех направлениях, в которых ИИ имитирует способности человеческого разума; более того, во многом--это те способности, которые требуются от аналитика и от разработчика (или, по крайней мере, они могут быть представлены как таковые). Можно выдвинуть предположение, что очеловечивание ИИ и характер эмоций во взаимодействии с ним идут на пользу информантам как профессионалам, поддерживая интеллектуальный интерес к работе и развивая аналитические способности. Потенциальной опасностью здесь является интеллектуальное истощение в разных его формах, однако оно не специфично для работы с ИИ и относится к характеру труда в целом.
В случае с тестировщиком происходит нечто иное: зачарованность партнером по взаимодействию (другим, не человеком, но похожим на человека) и эмоции -- это не интеллектуальный интерес и восхищение, а сопереживание и жалость: алгоритм одушевляется в буквальном смысле. Это связано с характером работы тестировщика, требующей взаимодействия с ИИ в качестве пользователя, проверки действия алгоритмов на себе (хотя отношение нашего информанта, безусловно, не является единственно возможным для работника в подобной профессиональной роли). Здесь может быть сформулирована еще одна гипотеза: в некоторых случаях вовлечение в новый мир взаимодействий с ИИ ставит людей в уязвимое положение, порождает возможности разочарования и эмоционального истощения -- особого рода эмоционального истощения, связанного с взаимодействием с ИИ.
При каких условиях взаимодействие с ИИ создает такого рода уязвимость? Ответ на этот вопрос следует искать в том, какой образ ИИ создается у взаимодействующего с ним человека, а это в свою очередь определяется микроситуационными деталями взаимодействия в рамках определенного институционального контекста.
Шахматист, играющий против компьютера, совершенствует технику и при этом трансформирует свой стиль игры: он начинает играть лучше и (не всегда, но часто) более схоже с тем, как играет компьютер. Разработчик, создающий и тренирующий нейросеть, исследует некоторую математическую модель, сущность которой постоянно ускользает от него и требует новых познавательных усилий для более точного моделирования реальности. Турист, планирующий маршрут с помощью гугл-карт, соотносит свои цели и возможности с теми средствами, которые предлагает алгоритм.
Во всех этих примерах агенты ИИ, по-видимому, вовлекаются во взаимодействие эффективно и адекватно ситуации: для шахматиста -- как равноценный партнер по игре, для разработчика -- как постоянно ускользающий объект знания (Кнорр Цетина), для туриста -- как помощник-подчиненный. В каждом из примеров агенты ИИ также могут пробуждать мысли о том, в чем состоит специфика человеческих способностей в сравнении с ИИ (Теркл). Здесь взаимодействие с ИИ идет «гладко» и требует только рутинных «починок».
По сравнению с этим работа тестировщика или дружеское общение с приложением требуют постоянных нерутинных «починок»: ошибки алгоритма, связанные с отсутствием у него соответствующих смысловых или эмоциональных структур, исправляются партнером по взаимодействию, который вынужден постоянно «пе- ревоображать» то, с чем взаимодействует. Иными словами, в первых примерах ситуация требует от агента ИИ того, что он умеет, во вторых примерах -- того, что он не умеет, и разрыв между требованиями ситуации и реальностью ложатся на плечи человека. Объяснение, почему происходит так или иначе, следует искать в том, как именно различные агенты ИИ организуют свое взаимодействие с человеком: в каком ритме, с какой скоростью и насколько адекватно ситуации (и ожиданиям партнера) они способны вовлекаться в разного рода взаимодействия. Ответы на эти вопросы применительно к конкретным ситуациям могут дать этнометодологи, конверсационные аналитики и представители социологии эмоций в сотрудничестве с техническими специалистами, обладающими знаниями о том, почему алгоритмы реагируют именно так, как они реагируют, на что они способны, на что -- нет.
Данные наблюдения за личными образами ИИ ставят новые вопросы и предлагают новые исследовательские задачи по фиксации и анализу взаимодействий с агентами ИИ в профессиональной и повседневной жизни людей в разных ролях и разных ситуациях. Мы оставляем за собой право вернуться к этим задачам в дальнейших исследованиях.
труд экспертиза кооперация интеллект
Список информантов
1. Управляющий партнер, Организация 1, Россия.
2. Исполнительный директор, Организация 2, Россия.
3. Аккаунт-менеджер, Организация 2, Россия.
4. Младший разработчик, Организация 2, Россия.
5. Инженер-исследователь, Организация 3, Россия.
6. Руководитель отдела лингвистики, Организация 4, Россия.
7. Тимлид аналитики данных, Организация 5, Россия.
8. Ресерчер, Организация 5, Россия.
9. Веб-разработчик, Организация 5, Россия.
10. Руководитель отдела, Организация 5, Россия.
11. Менеджер продукта, Организация 6, Россия.
12. Тестировщик поиска, Организация 7, Россия.
13. ML-аналитик и разработчик, Организация 7, Россия.
14. ИТ-рекрутер, Организация 7, Россия.
15. Менеджер по подбору ИТ-специалистов, Организация 8, Россия.
16. Ведущий аналитик данных, Организация 9, Россия.
17. Старший аналитик данных, Организация 10, Беларусь.
18. Управление продуктами, Организация 11, Беларусь.
19. Программист, Организация 12, Беларусь.
20. Технический директор, Организация 13, Беларусь.
21. Тим лидер продукта, Организация 14, Россия.
22. Развитие социальной сети, Организация 15, Россия.
23. Директор по HR-аналитике и организационному развитию, Организация 16, Россия.
24. Технический директор, Организация 16, Россия.
Библиография / References
1. Вязникова В.В. (2008) Особенности трудовых взаимоотношений между российскими IT-фрилансерами и заказчиками их услуг. Экономическая социология, 9 (1): 88-113. Vyaznikova V.V. (2008) Peculiarities of labor relations between Russian IT freelancers and customers of their services. Ekonomicheskaya sotsiologiya, 9 (1): 88113. -- in Russ.
2. Губа К. (2018) Большие данные в социологии: новые данные, новая социология? Социологическое обозрение, 17 (1): 213-236. Guba K. (2018) Big Data in Sociology: New Data, New Sociology? The Russian Sociological Review, 17 (1): 213-236. -- in Russ.
3. Земнухова Л.В. (2013) IT-работники на рынке труда. Социология науки и технологий, 4 (2): 77-90. Zemnukhova L.V. (2013) IT-workers at the labour market. Sotsiologiya nauki i technologiy, 4 (2): 77-90. -- in Russ.
4. Земнухова Л., Руденко Н., Сивков Д. (2019) Цифровые городские исследования: проблемы взаимодействия и паттерны координации. Социологическое обозрение, 18 (4): 107-129. Zemnukhova L., Rudenko N., Sivkov D. (2019) Digital Urban Studies: Collaboration Problems with Patterns of Coordination. The Russian Sociological Review, 18 (4): 107-129. -- in Russ.
5. Резаев А.В., Стариков В.С., Трегубова Н.Д. (2020) Социология в эпоху «искусственной социальности»: поиск новых оснований. Социологические исследования, 2: 3-12. Rezaev A. V., Starikov V.S. Tregubova N. D. (2020) Sociology in the Age of 'Artificial Sociality": Search of New Bases. Sotsiologicheskie Issledovaniya, 2: 3-12. -- in Russ.
6. Резаев А.В., Трегубова Н.Д. (2019) «Искусственный интеллект», «онлайн-культура», «искусственная социальность»: определение понятий. Мониторинг общественного мнения: Экономические и социальные перемены, 6: 35-47. Rezaev A.V., Tregubova N.D. (2019) Artificial Intelligence, On-line Culture, Artificial Sociality: Definition of the Terms. Monitoring of Public Opinion: Economic and Social Changes, 6: 35-47. -- in Russ.
7. Срничек Н. (2019) Капитализм платформ, М.: ИД ВШЭ. Srnicek N. (2018) Platform Capitalism, M. HSE Press. -- in Russ.
8. Arora A., Gambardella A. (1994) The changing technology of technological change: general and abstract knowledge and the division of innovative labour. Research Policy, 23: 523-532.
9. Biagioli M., Lepinay V.A. (eds) (2019) From Russia with code: programming migrations in post-Soviet times, Durham: Duke University Press.
10. Collins H. (2018) Artifictional intelligence: against humanity's surrender to computers, Medford, MA: Polity Press.
11. Collins H. (2004) Interactional expertise as a third kind of knowledge. Phenomenology and the Cognitive Sciences, 3: 125-143.
12. Daston L. (2018) Calculation and the Division of Labor, 1750-1950. Bulletin of the German Historical Institute, 62: 9-30.
13. Fedorova M. (2019). From Lurker to Ninja: Creating an IT Community at Yandex. M. Biagioli, V.A. Lepinay (eds) From Russia with code: programming migrations in post-Soviet times, Durham: Duke University Press: 59-86.
14. Knorr Cetina K. (1997) Sociality with Objects: Social Relations in Postsocial Knowledge. Theory, Culture and Society, 14: 1-30.
15. Knorr Cetina K., Bruegger U. (2000) The Market as an Object of Attachment: Exploring Postsocial Relations in Financial Markets. The Canadian Journal of Sociology, 25 (2): 141-168.
16. MacKenzie D.A. (2001) Mechanizing proof: computing, risk, and trust, The MIT Press.
17. Ribeiro R. (2007) The role of interactional expertise in interpreting: the case of technology transfer in the steel industry. Studies in History and Philosophy of Science, 38: 713-721. Suchman L. (2007) Human-Machine Reconfigurations: Plans and Situated Actions, 2nd ed., Cambridge: Cambridge University Press.
18. Turkle Sh. (2005) The second self: computers and the human spirit, 20tht anniversary ed., The MIT Press.
19. Woo D., Myers K.K. (2019) Organizational Membership Negotiation of Boundary Spanners: Becoming a Competent Jack of All Trades and Master of ... Interactional Expertise. Management Communication Quarterly, 34 (1): 85-120.
Приложение 1
Организация 1 занимается разработкой бизнес-приложений и систем (в том числе на основе ИИ/МО) для внешних организаций.
Организация 2 разрабатывает технологии ИИ/МО (распознавание изображений) для внешних организаций.
Организация 3 занимается разработкой и производством телекоммуникационного оборудования и программного обеспечения.
Организация 4 разрабатывает автоматизированные диалоговые системы.
Организация 5 специализируется на онлайн-образовании и использует технологии компьютерного зрения для контроля за качеством работы учителей. Технологии ИИ/МО разрабатываются внутри организации.
Организация 6 специализируется на организации розничной продажи продуктов широкого потребления. Технологии ИИ/МО разрабатываются внутри организации.
Организация 7 специализируется на поисковых информационных системах и информационных технологиях в целом.
Организация 8 специализируется на банковских услугах. Технологии ИИ/МО разрабатываются внутри организации.
Организация 9 специализируется на интернет-маркетинге.
Организация 10 занимается разработкой программного обеспечения.
Организация 11 -- сообщество специалистов в сфере анализа данных.
Организация 12 занимается разработкой программного обеспечения.
Организация 13 занимается разработкой программного обеспечения.
Организация 14 создает инструменты для разработки программного обеспечения.
Организация 15 -- крупная социальная сеть. Технологии ИИ/МО разрабатываются внутри организации.