Размещено на http: //www. allbest. ru/
Институт философии РАН, Российская Федерация, 109240, Москва, ул. Гончарная, 12
Репрезентации в науках о человеке: время переосмысления
И.Ф. Михайлов
Аннотация
Понятие репрезентации играло фундаментальную роль в когнитивной науке с момента ее появления в середине прошлого века. Акцент на репрезентации был сделан, поскольку когнитивная психология и лингвистика с самого начала опирались на «компьютерную метафору» и, соответственно, на классическую Тьюрингову концепцию вычислений как операций с символами, которые рассматривались как репрезентации (представления) некоторых данных или содержания. В связи с появлением многочисленных неклассических моделей вычислений (распределенные, аналоговые, генетические, квантовые и т. д.) в последние десятилетия она подвергается атакам со стороны различных антирепрезентационалистских или посткогнитивистских школ. Как показывается в статье, полный отказ от понятия репрезентации в теоретических схемах радикального коннекционизма и радикального энактивизма, равно как и иррелевантность этого понятия в когнитивной парадигме «динамических систем», означает шаг назад к традиционному естествознанию с его слабой способностью объяснения когнитивных явлений, в то время как сильный репрезентационализм, тесно связанный с когнитивным классицизмом, чреват парадоксами типа парадокса гомункула, и его интерпретация на реальных нейрофизиологических фактах составляет теоретическую проблему. Напротив, умеренный или слабый репрезентационализм исходит из того, что сложные вычислительные системы так или иначе используют репрезентации результатов вычислений своих подсистем или уровней в качестве данных для вычислений в других подсистемах или на других уровнях. Поэтому понятие репрезентации представляет операциональную ценность для когнитивных наук, но при этом не может быть универсальным ключом для когнитивных или философских проблем.
Ключевые слова: репрезентация, вычисление, когнитивная наука, символизм, коннекционизм, энактивизм, динамические системы, посткогнитивизм.
Annotatіon
Representations in human sciences: time for reconsideration
I. F. Mikhailov
Institute of Philosophy, Russian Academy of Sciences,
12, ul. Goncharnaya, Moscow, 109240, Russian Federation
The concept of representation has played a fundamental role in cognitive science since its inception in the 1950s. Representation gained this emphasis insofar as cognitive psychology and linguistics since their beginnings were based on a “computer metaphor” and, accordingly, on the classical Turing concept of computations as operations with symbols construed as representations of some data or content. With the emergence of numerous non-classical models of computing in recent decades (distributed, analog, genetic, quantum, etc.), representation has been attacked by various anti-representationalist or “post-cognitive” schools. This article shows that the complete rejection of representations in theoretical schemes of radical connectionism and radical enactivism, as well as the irrelevance of this concept in the cognitive paradigm of “dynamic systems,” means a step back to traditional natural science with its weak ability to explain cognitive phenomena. Meanwhile, the strong representationalism closely related to computational symbolism is fraught with paradoxes, such as the “homunculus paradox,” and its interpretation on real neurophysiological facts is a theoretical problem. On the contrary, moderate, or weak, representationalism proceeds from the fact that complex computing systems use representations of computational outcomes in their subsystems or at their particular levels as input for computations in other subsystems or at other levels. Therefore, the concept of representation is of operational value to cognitive science, but it cannot be a universal clue to cognitive or philosophical problems.
Keywords: computation, representation, cognitive science, symbolism, connectionism, enactivism, dynamic systems, predictive mind.
1. Понятие репрезентации в исторической перспективе
Если существуют способы, которыми философы могут помочь когнитивным исследователям, то, безусловно, один из них состоит в том, чтобы помочь этим исследователям определить уместность использования таких понятий, как репрезентация, в различных контекстах. Уильям Рэмзи [1, р. 36].
Компьютерная революция XX в. открыла новые перспективы не только в математике и прикладных науках, но и в психологии и даже в лингвистике. Поскольку компьютер воспринимался как интеллектуальная машина, он естественным образом стал моделью человеческого интеллекта, породив «компьютерную метафору» в психологии. И, поскольку Тьюрингова модель вычислений представляла их как правилосообразные операции с символами, науки о языке также оказались включенными в новую парадигму. Необихевиоризм как непосредственный предшественник когнитивной психологии видел идеал научности в отказе от менталистских терминов. Новой психологической школе удалось восстановить их в правах без малейшего намека на метафизику. Это случилось благодаря возрождению на новой основе старой идеи Томаса Гоббса: мышление есть вычисление. Вычисления в их классическом Тьюринговом понимании суть операции над символами, которые представляют некое внешнее содержание и, следовательно, являются репрезентациями. Таким образом, вычисления и репрезентации -- два опорных концепта в рамках когнитивных подходов в различных науках. Вокруг них разворачиваются основные философские дискуссии об основаниях когнитивной парадигмы.
Тема вычислений как специального предмета теории -- прежде всего и в основном математической -- привлекла внимание в 1930-х годах, когда Алан Тьюринг, думая над проблемами гильбертовского обоснования математики, предложил теоретическую абстракцию, известную как машина Тьюринга [2], позволившую лучше обозначить класс вычислимых функций. Поскольку идеи Тьюринга легли в основу теории и практики современных компьютеров, его подход долгое время считался -- а многими и по сей день считается -- теорией вычислений в собственном смысле слова. Однако с появлением новых подходов -- квантовые, аналоговые, генетические, параллельные вычисления -- встал вопрос о границах Тьюринговой парадигмы, породив широкий спектр исследований в области нетьюринговых моделей [3]. Таким образом, проблема вычислений -- их определения, онтологии, спектра применимости понятия -- постепенно стала общенаучной и в какой-то степени философской. В общем виде вычислительные процессы, в отличие от простых динамических, можно охарактеризовать как алгоритмические и существенно независимые от материальных реализаций. Иными словами, любые структурные изменения, которые можно описать как последовательность состояний, смена которых подчиняется определенным правилам («если -- то») и которые можно реализовать более чем в одном материальном субстрате, суть вычисления. Естественным образом появилась концепция «натуральных вычислений» [4] -- вычислительных процессов в природе, таких как трансляция РНК и последующий синтез протеинов. Это дало начало таким научным дисциплинам, как вычислительная термодинамика, вычислительная биология, вычислительная астрономия, экономика и т. д. Так как в самом понятии вычислений присутствует изрядная доля антропоморфизма, дело часто представляется так, что вычисления непременно связаны с обработкой информации. Но поскольку эта тема до сих пор является в высшей степени дискуссионной, ограничимся лишь следующим соображением: об информационном аспекте в вычислениях можно говорить, если имеет место инвариантная функциональная взаимозависимость изменений в различных структурах -- как в уже упомянутых РНК и протеинах. Можно с некоторыми оговорками сказать, что информация как бы добавляет телеологическое измерение в мир: изменение a в структуре A происходит для того, чтобы вызвать изменение Ь в структуре B. Вопрос же о том, является ли информация необходимым элементом вычислений, безусловно, заслуживает отдельного обсуждения, для которого здесь недостаточно места. Однако, как станет ясно далее, сама его постановка проливает свет на концептуальные проблемы когнитивных наук. Так, если некая структура или последовательность элементов обрабатывается в вычислительном процессе именно как информация о состоянии другой структуры, то первая как бы представляет -- репрезентирует -- вторую, т. е. является ее репрезентацией в данном вычислительном процессе.
Поскольку первые инкарнации когнитивной психологии и лингвистики в 1950-х годах существенно направлялись восходящей звездой компьютерной теории и промышленности, вычисления и репрезентации стали двумя концептуальными столпами, на которых зиждется когнитивистская парадигма. Они оставались таковыми на классическом этапе развития когнитивных наук, который в литературе принято обозначать терминами «символизм», «классицизм» и «компьютационализм». В основу современных компьютеров архитектуры фон Ноймана была положена машина Тьюринга, идея которой основана на алгоритмической обработке последовательностей символов. Несмотря на то что, по некоторым свидетельствам, сам Алан Тьюринг незадолго до смерти начал разрабатывать альтернативные модели вычислений -- в том числе распределенные и генетические, -- его соответствующие рукописи не были вовремя опубликованы, и слава за эти открытия досталась другим людям [5]. Ирония истории состоит в том, что Тьюринг de facto заложил основы нетьюринговых вычислений, но об этом мало кто знает. Серийные же символьные вычисления, теория которых связана с его именем, оказались «на коне» по исключительно практическим соображениям -- в те времена (а во многом и в наши тоже) любая альтернатива была более ресурсоемкой [6]. Исследования Питтса и Маккалока в области нейронов и «перцептрон» Розенблатта (соответственно, в 1940-е и в 1950-е годы) не принесли результатов, пригодных к использованию в промышленности или в обороне, и попытки реализации распределенных вычислений в нейронных сетях были приостановлены до начала 1980-х годов. Поэтому компьютер фон-ноймановской архитектуры стал на десятилетия главной метафорой для когнитивных способностей живых субъектов.
В 1986 г. выходит фундаментальный труд группы авторов под названием «Параллельный распределенный процессинг» [7]. Там были продемонстрированы теоретические разработки и результаты экспериментов с когнитивными моделями, представляющими собой эмулированные нейронные сети. В таких моделях данные, подаваемые на входной слой сети, случайным образом прокладывают себе путь через внутренний слой к выходному слою, меняя по пути количественные характеристики связей между нейронами, называемые «весами». Вес каждой связи означает сравнительную вероятность прохождения сигнала по этой связи в будущем. Данные, получаемые на выходе, интерпретируются как ответ сети на вопрос, заданный ей на входе. Если ответ неправильный с точки зрения экспериментатора-тренера, то запускается алгоритм «обратного распространения ошибки», и уже вычисленные веса связей вновь пересчитываются. Так происходит обучение сети на большом количестве данных, пока сеть не научается давать правильные ответы. В качестве данных может использоваться что угодно: изображения животных, форма прошедшего времени неправильных глаголов и т. п.
Новый подход в когнитивных исследованиях долгое время после его появления был известен как коннекционизм2. Его успехи в биологически реалистичных объяснениях когнитивных способностей поставили новые вопросы перед философами-методологами: вместо правилосообразных операций с символами мы имеем теперь многочисленные итерации пересчета весов межнейронных связей, вместо простого семантического отношения символа к значению -- векторные величины активации нейронных ансамблей. Стала очевидной потребность в переосмыслении опорных концептов -- вычислений и репрезентаций, референты которых в новой когнитивной модели локализовались не на уровне процессинга, а на уровне архитектуры. Многие считают, что вектор значений весов связей внутри обученной сети можно рассма¬тривать как репрезентацию категориальной структуры пропущенных через нее данных.
Сигналом к такому переосмыслению была известная в истории науки атака Джерри Фодора и Зенона Пилишина на семантические возможности коннекционистских сетей [8]. Авторы -- основоположники классицистского взгляда на когнитивную архитектуру -- выдвинули аргументы, основанные на комбинаторном характере ментальных репрезентаций, следствием которого являются их продуктивность (способность порождать неопределенно большое количество мыслей из конечного числа элементов), систематичность (способность мыслить некоторые содержания, отличные от данного, но семантически связанные с ним) и композициональность (зависимость значения целостной репрезентации от значений ее составных частей). По их мнению, этот аргумент показывает, что архитектура сознания не является коннекционистской на когнитивном уровне, поскольку коннекционистские репрезентации не демонстрируют этих свойств. Впрочем, они допустили, что коннекционизм может давать представление о нейронных (или «абстрактно неврологических») структурах, на которых реализована классическая когнитивная архитектура.
Затем последовала дискуссия с участием Пола Смоленски [9], утверждавшего, что критики не учли распределенный характер коннекционистских репрезентаций и что коннекционистские исследования должны предложить новые формализации фундаментальных вычислительных понятий, которые до сих пор были формализованы одним определенным образом в традиционной символической парадигме -- очень важное замечание в контексте нашего обсуждения основополагающих понятий когнитивной науки. Часто цитируемая статья Уильяма Рэмзи [1] многими рассматривается как важный вклад в интересующую нас дискуссию. Рэмзи показал, что однонаправленные сети с обратным распространением ошибки не нуждаются в понятии репрезентации как таковом. Это породило целый букет антирепрезентационалистских концепций, в том числе отрицающих какую-либо роль этого понятия в когнитивных науках вообще. Сюда относятся как новое направление, которое основывается на математической теории динамических систем [10], так и работы исследователей, сочетающих коннекционизм с подходами, восходящими к Выготскому [11].
Следующим вызовом классическому когнитивизму оказались нетождественные, но соотносимые концепции, известные как энактивизм и embodied mind. Сторонники этих подходов, в многом черпающие вдохновение в феноменологической философии, противопоставляют пониманию когнитивного аппарата как встроенного компьютера, манипулирующего символами, новый подход, располагающий когниции в пространстве между мозгом, телом и окружающей средой. Сторонники этого направления сосредоточиваются скорее на моторике и бессознательных реакциях, а не на символьных вычислениях. Как и в коннекционизме, антирепрезентационализм здесь не необходим, но возможен. Так, «радикальный энактивизм», манифест которого сформулирован в работах Дэниела Хутто [12; 13], провозглашает отказ не только от репрезентационализма, но и от компьютационализма как такового, обозначая новую парадигму как посткогнитивизм.
Сюда же примыкает относительно новое направление, которое исследователи часто называют «динамическими системами», имея в виду используемый там математический аппарат [14]. Когнитивные процессы помещаются здесь в многомерное «пространство состояний», измерения которого представляют параметры системы, выраженные переменными с изменяющимися во времени значениями. Когнитивные процессы описываются как сложные траектории в этом n-мерном динамическом пространстве. Когнитивная наука должна обнаруживать инварианты в этих движениях и устанавливать функциональные связи между ними -- во многом подобно тому, как действуют естественные науки довычислительной эпохи. Если попытки проникнуть в конкретные механизмы когнитивных процессов предполагают обращение к понятиям вычислений и репрезентаций, то в динамическом подходе они оказываются в общем и целом неуместны.
На другом конце спектра позиций относительно роли репрезентаций располагается, пожалуй, новейшее из конкурирующих направлений -- predictive mind [15] -- возвращающее нас, по мнению некоторых авторов, в лоно строгого и крайнего репрезентационализма [16]. «Предсказывающий разум» -- именно так переводится самоназвание нового движения -- основывается на модели когнитивного аппарата как иерархии статистических вычислительных машин, задача которых -- предсказание входных данных. В качестве математического аппарата используется байесовская статистика. Эти машины детерминируют другие машины, расположенные рядом и ниже в иерархии, создавая антиципаторную модель мира. Входящие данные оцениваются системой по энергетической интенсивности их воздействий и передаются дальше поверхностных датчиков только в случае их несовпадения с построенной моделью. Причем статистические предсказания начинаются уже на уровне сенсорных модулей, преодолеть который способны только не ожидаемые ими данные. По мнению создателей и адептов этого направления, заложенная здесь методология исключительно перспективна не только в изучении традиционных тем когнитивной психологии, но и в поиске решений «трудных проблем», таких как квалиа, эмоции и даже психические расстройства. Однако в задачи настоящей статьи не входит какая-либо оценка конкурирующих концепций: их широкий спектр интересует нас в отношении к основополагающим когнитивным понятиям.