Статья: О некоторых вопросах архитектуры искусственной личности

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

О некоторых вопросах архитектуры искусственной личности

Винник Дмитрий Владимирович

В статье обсуждается возможность создания искусственной личности (ИЛ) как модели человеческой психики. Утверждается, что для создания искусственной личности радикальный коннекционизм неприемлем - мозг есть гибридная система, которая, помимо механизмов самообучения, содержит алгоритмические процедуры. Предлагается гипотеза функциональной роли феномена осознания самосознания как рефлексивного ранга, с которого начинается подлинная разумность. ИЛ как модель может быть построена как гибридная мультиагентная система, сочетающая цифровые и аналоговые модули, алгоритмические и самообучающиеся функции. Успехи перцептроники свидетельствуют в пользу того, что уровень моделирования ощущений может быть самообучающимся. Уровень эмоций может быть реализован в форме первичных репрезентаций в аналоговой форме с возможностью их обобщений в форме суждений как вторичных репрезентаций. Уровень самосознания или метапсихологических состояний подразумевает некую возможность обучения самообучению (как аналога осознания самосознания) с использованием на входе вторичных репрезентаций.

Ключевые слова: искусственный интеллект, коннекционизм, когнитивные функции, эмерджентизм, перцептрон, эмоции, разум, рефлексия, интенциональность, самосознание, сознание

Some aspects of artificial personality architecture

Dmitriy V. Vinnik

This paper examines the possibility of artificial personality as a form of strong AI and as a model of the human psyche. It is argued that connectionism is not relevant for creating an artificial personality - brain is a hybrid system, which, in addition to self-learning circuits, contains algorithmic procedures. A hypothesis of the functional role of the awareness of self-consciousness property as a reflexive rank, since genuine intelligence arise, is proposed. AI as a model can be built as a hybrid multi-agent system. Some circuits may be analog, others - digital; some systems may be self-learning, others may operate under algorithmic rules and mathematical functions. The success of percep- tronical inclines to idea that sensation modeling can be self-learning. The level of emotions can be realized as primary representations in the analog form. The later may be abstracted in judgments treated as secondary representations. The level of self-consciousness or meta-psychological states implies certain possibility of learning to self-learning (as an analogue of awareness of self-awareness) using secondary representations at the input.

Keywords: artificial intelligence, connectionism, cognitive functions, cognitivism, emergentism, perceptron, emotions, mind, reflection, intentionality, self-awareness, consciousness

Критика искусственной личности

Понятие сильного искусственного интеллекта (ИИ или «искин») означает возможность создания искусственной личности (ИЛ), обладающей всеми полноценными психическими атрибутами: способностью к восприятию, экспрессивному оцениванию (эмоциям), суждению, вплоть до самосознания и творческого мышления. Иными словами, понятия сильного искина и искусственной личности можно рассматривать как тождественные. Споры о возможности конструирования личности ведутся с привлечением аргументов из самых разнообразных дисциплин, начиная от респектабельной эволюционной биологии [Shulman, Bostrom, 2012] и заканчивая сомнительной метафизикой экстерна- листского толка [Manzotti, 2018].

Следует отдавать отчет, что, даже если концепция «механизма» или функционализм как его наиболее известная форма [Целищев, 2021, с. 9] истинны, а ментализм ложен, создание сильного искина в форме человекоподобного робота в обозримой перспективе следует оценивать как крайне сомнительное событие. Подразумевается, что такой робот должен иметь подлинное самосознание и, следовательно, - личность (как ту сущность, что обладает этим свойством). Эта перспектива сомнительна как с точки зрения алгоритмического подхода, так и противоположного ему коннекционизма.

С точки зрения алгоритмического подхода мы наталкиваемся на фундаментальные проблемы воспроизводства т.н. «неконцептуального содержания» феноменальной природы сознания некими формальными средствами [Crane, 1998, web]. Кроме того, нет достаточных знаний о физических ограничениях, накладываемых элементной базой мозга на реализацию тех или иных свойств, которые считаются вычислительными. Имеют ли значение для работы мозга эффекты: 1) квантового туннелирования на клеточных мембранах [Plenio, Huelga, 2008, web]; 2) «эфаптической», т.е. полевой несинаптической передачи информации [Arvanitaki, 1942, web, p. 108]; 3) устойчивой квантовой когерентности биомолекул [Chenu, Scholes, 2015]; 4) нейронных лавин как механизма амплификации квантовых эффектов [Beggs, web, 2007, p. 1344] до макроуровня и в конечном счете - до поведения [Koch, Hepp, 2006, p. 611]. Если хотя бы на 1-й и 4-й вопрос ответы окажутся положительными, можно будет утверждать, что т.н. гипотеза квантового мозга верифицирована и теории параллельных вычислений для полноценного объяснения работы мозга недостаточно. Это будет означать, что функционализм ложен. Если это так, нельзя исключать, что феноменальные свойства сознания являются не вычислительным феноменом или эпифеноменом, а неким вполне конкретным квантовым макро-феноменом функционирования нервной ткани (по аналогии с макро-феноменами сверхтекучести, сверхпроводимости и когеренции) [Винник, 2020].

С точки зрения радикального коннекционизма (концепции, что мозг есть не более чем семантически бессмысленная статистическая машина) перспективы создания ИЛ представляются более оптимистичными: если человеческий мозг есть нейронная сеть, то любая вычислительная структура, сопоставимая с ним по сложности (количеству логических вентилей и связей между ними), с необходимостью будет являться личностью. Субстрат не имеет принципиального значения - это может быть конкретный суперкомпьютер, кластер или глобальная компьютерная сеть как целое. Бытуют многочисленные спекуляции, что сама глобальная компьютерная сеть может усложниться настолько, что в ней зародится новое качество - сознание.

Допустим, что эмерджентизм (концепция спонтанного зарождения нового качества как результата эволюционного скачка сложности субстрата) истинен и компьютерная сеть может в какой-то момент стать сопоставимой с мозгом живого существа по уровню комбинаторной сложности. Достаточное ли это основание для проявления принципиально нового качества - ментальности? Наверняка, с точки зрения приверженцев идеи нейросоциума или церебрально-открытого общества [Эпштейн, 2003, с. 358], все обстоит еще лучше - на элементном уровне разум уже встроен в глобальную сеть в виде агентов- пользователей. М. Эпштейн на данный аспект не обращает внимания, но с этой точки зрения глобальная сеть является гибридной системой из логических вентилей разной природы. В таком виде она на порядки мощнее и ближе к эмерджентному порогу феномена самосознания, чем в чистом транзисторнопроводном представлении.

Даже если между естественным разумом и искусственным интеллектом нет онтологической пропасти, из этого не следует, что техническое воспроизводство такой сокровенной сущности как разум является задачей конструктивного типа. Тому есть несколько причин, но одна из них представляется самой значительной. Дело в том, что любая естественная личность, человека или животного, является результатом сотен миллионов лет эволюции нервной системы. Те комбинации психических свойств, которые представляют единства, именуемые нами личностями, есть результат калибровки параметров торможения/возбуждения миллиардов нейронов живых существ в триллионах итераций естественного отбора.

Даже если радикальный коннекционизм ложен, отрицать существенное эволюционное значение самообучения нервных систем нельзя. Те формы сознания, которые нам известны, есть всего лишь одна из комбинаций в многомерном универсуме психических способностей. Иными словами, далеко не все сопоставимые по сложности с мозгом вычислительные системы обладают сознанием и являются личностями. Более того, может оказаться, что личностями являются не все системы, обладающие сознанием. Здравый смысл и классическая философская традиция склоняют нас рассматривать сознание именно в качестве атрибута личности, а не как самостоятельную сущность любых сложных вычислительных систем. Однако ничто не обязывает нас рассуждать именно так. Например, еще Э. Гуссерль утверждал, что, «безусловно мыслимо и бесплотное, а также, сколь парадоксально это бы ни звучало, и бездушное, не одушевляющее человеческую телесность сознание, т.е. такой поток переживания, в котором не конституировались бы интенциональные единства опытного постижения - тело, душа, эмпирический “я”-субъект». Для всех этих понятий опыта «не было бы никакой опоры, они бы были лишены всяческой значимости» [Гуссерль, 1999, с. 123].

Самонадеянно полагаться на то, что в обозримое время человеческие вычислительные ресурсы будут способны успешно воспроизвести веса (пороги возбуждения) искусственных нейронов, необходимых для самой простой модели самой примитивной личности. Способности к эмуляции эволюции и сам процесс эволюции пока несопоставимы по масштабам. Моделирование отдельных когнитивных функций, вроде распознавания образов, оказалось крайне успешным, однако этот факт часто переоценивается. Когнитивных функций великое множество, их природа различна. Кроме того, разница между количеством искусственных нейронов количеством нейронов в мозге составляет много порядков. Сколько нейронов минимально необходимо для существования самой примитивной личности? Наверняка счет начинается как минимум с шестого порядка. Таков порядок ганглий у насекомых. Для искусственных нейронов это число должно быть еще больше, поскольку у такого нейрона есть только один тип состояния (вес от 0 до 1, моделирующий спайк), а у живых нейронов - множество дополнительных, которые обуславливают сам спайк. Кстати, по характеру спайка до сих пор нет полного согласия, является мозг цифровой или все-таки аналоговой машиной [Tee, Taylor, 2020, p. 199].

Тех, кто отрицает принципиальную возможность создания робота с подлинным самосознанием или отказывает возможности эмердженции разума в сложных кибернетических системах как реальной, как правило, относят к сторонникам слабого искина. Последние обычно допускают отчуждение когнитивных функций без полного проникновения в сущность того, что мы считаем разумностью и человечностью. Однако это не означает, что моделирование личности как некой целостности когнитивных функций не имеет смысла.

А.Ю. Алексеев выделяет 4 разных понятия ИЛ: 1) имитация; 2) модель; 3) репродукция естественной человеческой личности; 4) креация - создание «сверхличности» [Алексеев, 2014, с. 157]. Относительно второго понятия автор пишет, что в рамках этого «когнитивно-модульного подхода» компьютерная система должна включать в свой состав блок «псевдосознания» [Там же, с. 159]. Именно о некоторых проблемных аспектах подобного программно-аппаратного моделирования личности как некоего антропоподобного единства когнитивных функций будет идти речь в настоящей статье. Ниже будут рассмотрены аспекты моделирования таких когнитивных способностей, как ощущения, эмоции, рефлексии, осознания самосознания, соответствующие разным уровням психической организации.

Ощущения и пригодность феноменологического знания

Может ли феноменологическое знание о содержании ощущений быть пригодным для задач конструирования искусственной личности? Этот вопрос полемичен. С точки зрения радикальных коннекционистов и эмерджентистов, это знание бесполезно, поскольку они считают, что структура информации на выходе системы, будь то поведение или иные ментальные феномены, есть результат калибровки параметров нейронной сети. Знание об интерфейсе ничего не дает для построения модели самой нейросетевой самообучающейся вычислительной системы: осмысленная информация может быть только на входе и на выходе, а внутри - статистический хаос весов или любых других аппроксимирующих параметров.

Сейчас очевидно, что для объяснения работы естественного интеллекта радикальный коннекционизм не годится - мозг есть гибридная система, которая, помимо механизмов самообучения, содержит алгоритмические процедуры, реализуемые разными слоями. Например, так устроена зрительная кора - она представляет собой многослойный перцептрон, в котором каждый слой исполняет известную функцию. Базовые слои распознают геометрические примитивы: линии и углы. Более высокие слои конструируют сложные и абстрактные образы как геометрические фигуры: овалы, прямоугольники и треугольники. На верхних уровнях распознаются сложные образы и человеческие лица. Характерно, что реакции более высоких уровней менее зависят от точки зрения, реагируют на более широкую область зрительного поля и более устойчивы к искажениям. Именно это воспроизводство архитектуры зрительной коры позволило К. Фукусиме в 1980 г. создать «когнитрон» - нейросеть для распознания образов на основе конкурентного обучения, т.е. «без учителя» [Fukushima, 1988].

Вообще говоря, исследования нейрофизиологии зрения предоставили немало аргументов в пользу когнитивистов (сторонников алгоритмического понимания ментальных состояний) и против коннекционистов. П. Бреслов и Дж. Кован обратили внимание на типичность геометрических галлюцинаций - под воздействием надавливания на глаза и психофармакологических средств люди обычно видят совершенно характерные геометрические фигуры: многогранники, логарифмические спирали, матричные текстуры, решетки и туннели. Авторы утверждают, что им удалось выявить в зрительной коре те устойчивые генераторы сигналов, которые продуцируют настоящие изображения. Эти сигналы имеют вполне понятную математическую форму. Судя по всему, сигналы работают постоянно в фоновом режиме, выполняя, например, функцию опорной частоты. При определенных обстоятельствах этот скрытый уровень синтеза изображений становится доступен сознанию [Bressloff, Cowan et al., 2001, p. 299].