Введением термина «знание» предполагает появление понятия «осознаваемости», то есть «понимания» своих интеллектуальных возможностей. В свою очередь, это означает не что иное, как рефлексию.
Философская приемлемость проблематики искусственного интеллекта была обусловлена лежащим в ее основе представлением о том, что «порядок и связь идей те же, что порядок и связь вещей». Создать структуру, воспроизводящую «мир идей», означало бы попросту создать структуру, изоморфную структуре вещественного мира. Эта модель интерпретировалась как компьютерная модель человеческих знаний о мире. Процесс человеческого мышления интерпретировался в компьютере как машинный поиск таких трансформаций модели, которые должны были перевести компьютерную модель в определенное конечное состояние. Для этого система искусственного интеллекта нуждалась в знаниях о том, как осуществлять трансформации состояний модели, приводящие к заранее заданной цели (состоянию с определенным набором свойств). Поначалу было распространено убеждение в способности компьютера к самостоятельному исследованию хранящейся в нем модели.
Такая предполагаемая «способность» компьютера интерпретировалась как возможность машинного творчества, как основа создания «умных машин». Несмотря на то, что в разрабатывавшихся системах достижение цели осуществлялось на основе человеческого опыта при помощи алгоритмов, идеи построения самообучающихся систем казались вполне перспективными. Лишь в 80-х годах прошлого столетия с осознанием значимости проблемы использования в интеллектуальных системах человеческих знаний о действительности стали разрабатываться базы знаний и методов извлечения личных знаний экспертов.
С развитием данного направления и возникла идея рефлексивного управления. Рефлексивное управление - это передача информации, воздействующей на имеющийся у объекта образ мира. Именно шахматные программы поначалу оказались столь важными для отработки методов искусственного интеллекта.
Возникает закономерный вопрос: стоит ли считать рефлексию неотъемлемой частью систем искусственного интеллекта? Ответ можно сформулировать следующим образом. Как и любая компьютерная программа, наделенная средствами самодиагностики, системы искусственного интеллекта должны контролировать происходящие процессы, внешние и внутренние. Может показаться, что в этом смысле будет достаточной развитая структура обратных связей. Обратная связь лишь предоставляет данные, но не интерпретирует их. Норберт Винер в своей книге «Кибернетика, или управление и связь в животном и машине» привел пример нарушения нервной системы людей и его последствия. Так, люди с нарушением системы ориентации собственных конечностей в пространстве должны были визуально контролировать свои действия. Это было типичное нарушение обратной связи. Рефлексия же подразумевает анализ полученной картины.
Анализ функционирования собственной модели, контроль над ее состоянием, прогнозирование состояния есть реализация рефлексии. С применением языков программирования высокого уровня, позволяющих формулировать цели и строить логические выводы достижимости этих целей, задача реализации рефлексии может быть частично решена. С их помощью возможно построение некоторой метаструктуры, позволяющий оценивать поведение предыдущего. Однако, при рассмотрении термина «глубокая рефлексия» или «многоуровневая рефлексия» встает проблема построения моделей самой системой. Здесь на помощь приходят абстрактные типы данных. Они позволяют оперировать структурами данных любой конечной сложности. Таким образом, считать интеллектуальную систему полноценной без умения оценивать и «понимать» свои действия, то есть рефлексировать, нельзя. Более того, рефлексию следует считать одним из главных инструментов построения поведения систем, так как она является необходимым условием существования интеллектуальной системы.
ГЛАВА 2. ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И ГНОСЕОЛОГИЧЕСКИЙ АНАЛИЗ
.1 Проблематика искусственного интеллекта
Раскрытие роли таких познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное знание возможно, проведя гносеологический анализ проблемы искусственного интеллекта. Категории обнаруживаются не через исследования физиологических или психологических механизмов познавательного процесса, а выявляются в знании и его языковом выражении. Орудия познания, формирующиеся в результате практической деятельности, необходимы для любой системы, которая выполняет функции абстрактного мышления, безотносительно к ее конкретному материальному субстрату и структуре. Поэтому, чтобы создать систему, выполняющую функции абстрактного мышления, формирующую адекватные схемы внешних действий в изменяющихся средах, необходимо наделить такую систему этими орудиями. Развитие систем искусственного интеллекта уже давно идет по этому пути, хотя степень продвижения в данном направлении в отношении каждого из указанных познавательных орудий неодинакова.
Чаще всего системы искусственного интеллекта используют формально-логические структуры, что объясняется их неспецифичностью для мышления и алгоритмическим характером. Это дает возможность относительно легкой их технической реализации. Однако и здесь имеются свои сложности. В системах искусственного интеллекта еще слабо используются модальная, императивная, вопросная и иные логики, функционирующие в интеллекте человека и не менее необходимы для успешных познавательных процессов, чем давно освоенные логикой формы вывода. Повышение «интеллектуальности» технических систем связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием на практике. Более остро обстоит дело с семиотическими системами, без которых интеллект не представляется возможным. Языки программирования пока достаточно далеки от семиотических структур, которыми оперирует мышление. Для решения целого комплекса задач необходимо приблизить семиотические системы компьютеров к естествен-ному языку (к использованию его ограниченных фрагментов). Здесь предпринимаются попытки ввести во входные языки ЭВМ универсалии человеческого языка (например, свойства, характерные для полисемии). Разработаны проблемно-ориентированные фрагменты естественных языков. Важнейшим итогом этой работы является создание и формализация семантических языков, слова-символы в которых имеют интерпретацию. Однако же многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках искусственного интеллекта либо слабо реализованы, либо используются ограниченно.
Современные системы искусственного интеллекта способны осуществлять перевод с одномерных языков на языки многомерные и наоборот: например, построение диаграмм, схем и чертежей, построение кривых, а также перевод графических элементов в символы. Такой перевод является важным элементом интеллектуальной деятельности, но системы искусственного интеллекта конца прошлого столетия не были к такому способны. Даже современные разработки, приходящиеся на 2008-2010 годы, существенно продвинувшиеся вперед, не до конца способны к непосредственному использованию изображений или воспринимаемых сцен для «интеллектуальных» действий. Поиск путей именно глобального оперирования информацией составляет одну из важнейших и перспективных задач теории искусственного интеллекта.
Воплощение в информационные массивы и программы систем искусственного интеллекта аналогов категорий находится пока на стадии разработки. Аналоги отдельных категорий - «целого», «части», «общего», «единичного», - используются в некоторых системах представления знаний в качестве базовых отношений. В понятийном аппарате некоторых систем представления знаний предприняты отдельные попытки выражения моментов содержания и других категорий (например, «причина», «следствие»), однако ряд категорий (например, «сущность», «явление») в языках систем представления знаний отсутствует. Разработчиками систем эта проблема в полной мере не осмыслена. Философам, логикам и кибернетикам предстоит выполнить большую работу по внедрению аналогов категорий в системы представления знаний и другие компоненты интеллектуальных систем.
Современные системы искусственного интеллекта практически не имитируют сложную иерархическую структуру образа, и это не позволяет им перестраивать проблемные ситуации, комбинировать локальные части сетей знаний в блоки и так далее. Не является совершенным и взаимодействие поступающей вновь информации с совокупным знанием в системах. В семантических сетях и фреймах пока недостаточно используются методы, благодаря которым интеллект человека легко пополняется новой информацией, находит нужные данные, перестраивает свою систему знаний.
Незначительно системы искусственного интеллекта способны активно воздействовать и на внешнюю среду, что делает невозможным осуществление самообучения и совершенствования «интеллекта».
Несмотря на то, что определенные шаги к воплощению гносеологических характеристик мышления сделаны, такие системы еще далеки от владения комплексом гносеологических орудий, которыми располагает человек для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе к интеллекту человека будет и их «интеллект». В этой связи возникает сложный вопрос. При анализе познавательного процесса гносеология отвлекается от психофизиологии, хотя это не означает, что для построения систем искусственного интеллекта такте механизмы не имеют значения. Возможно, что механизмы, необходимые для воплощения характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или в технической системе. Не исключено, что хотя мы можем познать все гносеологические закономерности, их совокупность реализуема лишь в системе, субстратно тождественной человеку. Такой взгляд обосновывал X. Дрейфус:
«Телесная организация человека позволяет ему выполнять функции, для которых нет машинных программ - таковые не только еще не созданы, но даже не существуют в проекте... Эти функции включаются в общую способность человека к приобретению телесных умений и навыков. Благодаря этой фундаментальной способности наделенный телом субъект может существовать в окружающем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся».
Подчеркивание значения «телесной организации» для понимания особенностей психических процессов заслуживает внимания. Различия в способности конкретных систем отражать внешний мир тесно связаны с их структурой, которая, обладая некоторой самостоятельностью, все-таки не может преодолеть рамок, заданных субстратом. В процессе эволюции развитие свойства отражения происходило пропорционально усложнению нервной системы - субстрата отражения. Различие субстратов компьютера и человека может обусловить и различия в их способности к отражению. Ряд функций человеческого интеллекта недоступен машинам.
В источниках по философии часто говорится о том, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего к низшему и, что противоречит материалистической диалектике (это одна из причин отсталости разработок СССР). Но здесь не учитывается, что пути усложнения материи однозначно не предначертаны. Не исключено, что общество сможет создать сложные и способные к отражению системы из неорганических компонентов. Эти системы являлись бы компонентами общества, социальной формой движения. Следовательно, вопрос о наделении интеллектом технических систем, о возможности наделения их рассмотренными выше гносеологическими орудиями, не может быть решен исключительно с позиций философии. Он должен быть подвергнут анализу и конкретным научным исследованиям.
X. Дрейфус указывал, что информация, которой оперирует ЭВМ, не имеет значения, смысла. Для него необходим перебор большого числа вариантов. Организация человека и его организма позволяет отличать значимое от незначимого и осуществлять поиск только первого. Для ЭВМ, утверждает Дрейфус, это невозможно. Понятно, что определенный тип организации тела позволяет человеку ограничивать пространство предполагаемого поиска. Это происходит на уровне анализаторной системы. Однако когда в кибернетике ставится задача распознания образов, то эта задача переводится с чувственно-наглядного уровня на уровень абстрактный. Таким образом, снимаются ограничения, содержащиеся «теле», в структуре органов чувств и организма в целом. Компьютер их игнорирует. Поэтому пространство поиска увеличивается. Значит, к «интеллекту» машины предъявляются более высокие требования, чем к интеллекту человека, к которому приток информации ограничен физиологически.
Системы, обладающие психикой, отличаются от компьютера тем, что им присущи биологические потребности, и отражение внешнего мира происходит именно через эти потребности, в чем выражается активность психической системы. ЭВМ не имеет потребностей, информация для нее незначима.
Значимость, заложенная в человеке генетически, имеет два типа последствий: первый - круг поиска сокращается, и облегчается решение задачи; второй - нестираемые из памяти фундаментальные потребности организма обусловливают односторонность психической системы. Дрейфус пишет:
«Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений».
Утверждение весьма спорно. Если марсианин имеет иную биологию, чем человек, то он имеет и иные потребности, и принять ему «человеческие устремления» значительно труднее, чем компьютеру, который может быть запрограммирован на любую цель. Животное в принципе не может быть перепрограммировано по отношению к данному фундаментальному слою, хотя и существует дрессировка. В этом смысле потенциальные интеллектуальные возможности машины шире таких возможностей животных. У человека над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и информация для него значима не только биологически, но и социально. Человек универсален, и эта универсальность присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и сами системы искусственного интеллекта.
Таким образом, можно сказать, что телесная организация дает не только дополнительные возможности, но дополнительные препятствия. Поэтому интеллекту человека важно иметь такие системы, которые были бы свободны от его собственных телесных и иных потребностей. От таких систем нельзя требовать самостоятельности в распознавании образов, классификации их по признакам, по которым это делает человек. Цели задаются в явной форме.
Технические системы могут иметь аналоги телесной организации. Развитая кибернетическая система обладает рецепторными и эффекторными придатками. Начало развитию этих систем положили интегральные промышленные роботы, в которых компьютер выполняет функцию памяти. В роботах третьего поколения ЭВМ уже выполнял «интеллектуальные» функции. Их взаимодействие с миром было призвано совершенствовать собственный «интеллект». Такие роботы имели «телесную организацию», конструкция их рецепторов и эффекторов содержала определенные ограничения, сокращающие пространство поиска цифровой машины.
При анализе проблем искусственного интеллекта применяют также математический аппарат нечетких множеств, идея которого принадлежит американскому математику Л. А. Заде. Суть этого подхода состоит в отказе от принципа детерминизма. Наиболее интересным свойством человеческого интеллекта является способность принимать решения в обстановке неполной и нечеткой информации. Построение моделей приближенных рассуждений человека и использование их в компьютерных системах будущего представляет сегодня одну из приоритетных проблем науки.
Смещение исследований нечетких систем в сторону практических приложений привело к появлению целого ряда проблем: новые архитектуры компьютеров для нечетких вычислений, элементная база нечетких компьютеров и контроллеров, инструментальные средства разработки, инженерные методы расчета и разработки нечетких систем управления и другое. Математическая теория нечетких множеств Заде позволяет описывать нечеткие понятия и знания, оперировать ими и делать нечеткие выводы. Методы построения компьютерных нечетких систем, построенные на этом методе, существенно расширяют область применения компьютера.