Те же самые рассуждения применимы к «универсальной характеристике» (универсальному алгоритму) Г.Лейбница и программе формализации математики Д.Гильберта.
«Универсальная характеристика» Г.Лейбница и программа формализации математики, предложенная Д.Гильбертом
Прежде чем описывать смысл «универсальной характеристики» Г.Лейбница и программы формализации математики, выдвинутой Д.Гильбертом, дадим определение формальных систем. Формальные системы - это теории, достигшие строгой формализации, предполагающей полную абстракцию от смысла слов используемого языка. В такой теории все условия, регулирующие употребление этих слов, явно высказаны посредством аксиом и правил, позволяющих вывести одну фразу из другой. Формальная система считается определенной, если а) задано конечное или счетное множество произвольных символов; б) имеется подмножество выражений, называемых формулами; в) выделено подмножество формул, называемых аксиомами; г) имеется конечное множество отношений между формулами, называемых правилами вывода.
Успехи формализации ряда математических теорий, т.е. изложения результатов этих теорий в аксиоматико-дедуктивной форме, заставили некоторых ученых поверить в то, что вся наука может быть формализована. Кроме того, они поверили, что и сам метод открытия научных истин может представлять собой формальную систему, четко определенную совокупность предписаний (инструкций), позволяющих постигать законы природы без обращения к опытам (экспериментам). Возникло убеждение, что единственный путь «проникновения в тайны Вселенной» - использование строгих (детерминированных) алгоритмов и, прежде всего, дедуктивных методов обработки информации. Разумеется, подобные алгоритмы - прямая противоположность нестрогих (вероятностных) алгоритмических стратегий.
Одним из тех, кто разделял подобное убеждение, был немецкий математик и философ Готфрид Вильгельм Лейбниц (1646 -1717), который выдвинул проект создания «универсальной характеристики», «универсального языка», под которым он понимал некий универсальный (строгий, детерминированный) алгоритм исследования окружающего мира. Парадоксально, но основой этого алгоритма он считал «механические манипуляции с символами», а не эксперимент и наблюдения. Восхищаясь строгостью геометрии Евклида, в которой те или иные утверждения дедуктивно выводятся из небольшого числа аксиом, Г.Лейбниц пришел к выводу, что вся наука и все ее методы изучения природы м ожно свести к дедуктивному выведению одних утверждений из других. Он предполагал, что любая истина (любая природная закономерность), еще неизвестная нам, может быть открыта при помощи алгоритма, подобного дедукции, опирающейся на «самоочевидные» аксиомы. При этом немецкий математик забыл поинтересоваться, откуда берутся сами аксиомы. Другими словами, факт эмпирического происхождения этих аксиом оказался за пределами его внимания.
В начале XX века проект «универсальной характеристики» Г.Лейбница возродился в несколько необычном виде: немецкий математик Давид Гильберт основал программу «формализации математики». Но на пути к достижению этой цели он предложил сначала формализовать арифметику - один из разделов математической науки. В частности, в 1900 г. на II Международном конгрессе математиков в Париже Д.Гильберт выступил с докладом, в котором изложил список 23 -х математических проблем, ожидающих решения. В этом списке под номером 2 фигурировала задача «доказать непротиворечивость арифметики формальными средствами самой арифметики». Д.Гильберт верил в положительное решение этой задачи, так как считал возможным аксиоматизировать всю математику, превратить ее в строгую формальную систему, в которой новые математические истины открываются путем оперирования абстрактными символами, на основе дедуктивных правил, подобных правилам «универсального алгоритма» Г.Лейбница.
Однако вскоре выяснилось, что Д.Гильберт серьезно заблуждается. В 1931 г. австрийский логик Курт Гедель опубликовал работу «О принципиально неразрешимых положениях в системе Principia Mathematica и родственных ей системах», в которой доказал свою знаменитую теорему о неполноте. Этот результат показал невозможность положительного решения задачи доказать непротиворечивость арифметики средствами самой арифметики. Кроме того, теорема Геделя показала невозможность аксиоматизировать всю математику, т.е. неосуществимость предложенной Д.Гильбертом программы формализации всей математической науки (и методов, с помощью которых открываются новые математические истины).
В 1936 г. английский математик Алан Тьюринг доказал теорему о неразрешимости проблемы остановки «универсальной машины Тьюринга». Этот результат показал алгоритмическую неразрешимость еще одной задачи Д.Гильберта («проблемы разрешимости», сформулированной им в 1928 г.): найти алгоритм, который, функционируя на основе формального языка, мог бы после конечного числа шагов определить истинность или ложность произвольного математического утверждения.
Описывая указанную «проблему разрешимости», поставленную Д.Гильбертом в 1928 г., и оценивая теоремы К.Геделя и А.Тьюринга, которые «разрушили надежды» Д.Гильберта, Н.Бурбаки в книге «Очерки по истории математики» [38] констатирует: «Уже среди обширных проектов Лейбница вопрос о решении этой проблемы занимал почетное место, и одно время школа Гильберта, по-видимому, считала, что подошла совсем близко к его разрешению. Действительно, для формализмов, содержащих мало первоначальных знаков и аксиом, можно описать эти процессы. Но усилия, направленные на уточнение проблемы разрешимости посредством четкого определения того, что следует понимать под «универсальным процессом», до сих пор приводили только к отрицательным результатам» [38, с.59].
По большому счету, теоремы Геделя и Тьюринга продемонстрировали, что процесс математического (и вообще научного) исследования не может сводиться к «механическому» использованию каких -либо детерминированных алгоритмов, к манипуляциям символами и правилами какого-либо формального языка. Научные открытия, расширяющие горизонт наших знаний, не могут быть результатом одной лишь дедукции. Мы можем делать эти открытия на основе правил, но эти правила (как показывает история науки) часто представляют собой вероятностные алгоритмы, а в ряде случаев - «обычный» метод проб и ошибок, в котором существуют элементы непредсказуемости (стохастичности). Метод проб и ошибок, часто применяемый в новой области исследований, можно рассматривать как инструмент получения исходной информации для индуктивной обработки, т.е. как «поставщика» исходных посылок для индуктивного обобщения.
Таким образом, теоремы Геделя и Тьюринга показали неосуществимость двух проектов, которые в свое время «наделали много шума» в науке: проекта Г.Лейбница по разработке универсального алгоритма и проекта Д.Гильберта по формализации всей математики (и вообще науки и научного познания). Одна из причин «несбыточности» этих проектов заключается в том, что в них делалась ставка на алгоритмическую надежность (строгость) дедукции. Той дедукции, которая, как мы сказали, практически не связана с какими-либо затратами вещества и энергии и достается нам «бесплатно», создавая иллюзию легкости научных исследований. Г.Лейбниц и Д.Гильберт не захотели делать ставку на такие методы изучения природы, как эксперимент и наблюдение, результаты которых, как мы увидели, являются основой для индуктивных выводов и одновременно причиной высокой величины энтропии этих выводов. Можно выразиться так: Г.Лейбниц и Д.Гильберт отказались от эмпирической индукции, поскольку не нашли в ней атрибутов строгого алгоритма, похожего на алгоритм дедукции.
Справедливость сказанного иллюстрируется простым примером. Если проекты (программы) Г.Лейбница и Д.Гильберта реализуемы, то тогда можно обосновать вывод о способности человека посетить Луну чисто дедуктивно, при помощи механических манипуляций с абстрактными символами, относящимися к определенной формальной системе. Однако в действительности этот вывод удалось обосновать только в результате серии пилотируемых космических полетов общей стоимостью более 22 миллиардов долларов. Индуктивный вывод был обоснован экспериментами стоимостью 22 миллиарда долларов, а не дедуктивными средствами формальных систем.
Вероятностная природа индуктивного вывода
Помимо того, что любой индуктивный вывод обладает определенной энтропией, связанной с затратами энергии на его получение, он также обладает еще одним свойством, имеющим важное значение. Это свойство - неопределенность (вероятность). Близкие слова - синонимы: стохастичность, случайность, неалгоритмичность. Обсуждая различия между полной и неполной индукцией, мы говорили, что при использовании полной индукции изучаются все элементы множества, о котором делается обобщающий вывод. В этом случае исходные посылки (информация об изученных элементах множества) однозначно предопределяют финальное умозаключение, и это умозаключение, как правило, оказывается верным. Однако ситуация существенно меняется при использовании неполной индукции. В этом случае исследуется лишь часть элементов множества, а полученная информация не гарантирует правильность (истинность) финального умозаключения. Неполная индукция «обещает» не истину, а ее вероятность. В этом состоит основное обстоятельство, позволяющее говорить о вероятностной природе индукции. Как поясняют специалисты, с этим обстоятельством впервые столкнулся Аристотель, один из основателей современной науки.
После того, как Аристотель построил теорию дедуктивных рассуждений (силлогистику), он задался целью разработать аналогичную теорию для индуктивных рассуждений. Ему казалось, что достоверность индуктивных выводов легко достигается достоверностью исходных посылок (как в случае дедукции). Однако здесь нужно было учитывать еще один фактор, определяющий справедливость индуктивных умозаключений, - количество исходных посылок (о чем мы рассказали выше). Чтобы избежать ошибочных выводов, нужно рассматривать все элементы системы, а не отдельную их часть. Но эта задача осложняется тем, что многие системы состоят из колоссального числа элементов, следовательно, нам требуется значительное время и значительные материальные ресурсы для изучения всех этих элементов. В результате Аристотель потерпел неудачу в построении теории индуктивных силлогизмов.
Д.А.Поспелов в книге «Моделирование рассуждений» [39] пишет об Аристотеле: «Увлеченный красотой и стройностью воздвигнутого им здания силлогистики, он попытался втиснуть в его объемы и индуктивное рассуждение, ввести схему индуктивного силлогизма. Но здесь его подстерегала неудача. Индуктивные рассуждения никак не хотели отливаться в ту стройную форму, которая так подошла дедуктивным рассуждениям» [39, с.87].
Вероятностная природа индуктивного вывода была также известна Г.Лейбницу. Тот факт, что мы часто используем неполную индукцию, которая может приводить к ошибкам, явился одной из причин, заставивших немецкого математика приступить к разработке проекта «универсальной характеристики» (универсального алгоритма, в самом себе содержащего критерии истинности). Г.Г.Майоров в предисловии к 3 -му тому «Собрания сочинений» Г.Лейбница [40] раскрывает его позицию относительно возможностей индуктивного метода: «В общем случае индукция всегда неполна, и ее выводы не имеют силы необходимости, они могут создавать лишь большую или меньшую уверенность в том, что и впредь всегда будет так, как было, т.е. могут обладать только «моральной достоверностью»; этого недостаточно для теоретических, аподиктических наук» [40, с.14].
Приведем один из примеров использования неполной индукции. Выше мы констатировали, что в 1929 г. Э.Хаббл опубликовал статью «Связь между расстоянием и лучевой скоростью внегалактических туманностей». В этой статье он сообщил, что определил лучевые скорости 18 -ти галактик, а также расстояние до этих 18-ти галактик. После сравнения скоростей и расстояний для указанных галактик он пришел к выводу, что скорость их взаимного удаления прямо пропорциональна их расстоянию друг от друга. Это была первая формулировка эмпирической зависимости, позже названной «законом Хаббла». Следовательно, американский астроном открыл «закон Хаббла», индуктивно базируясь на изучении лишь 18-ти галактик. А сколько всего галактик существует в наблюдаемой нами Вселенной? В 2021 г. космический аппарат «Новые горизонты» позволил установить, что число галактик во Вселенной составляет 200-300 миллиардов. Разделите 300 миллиардов на 18, и вы получите примерную оценку степени неполноты индукции, которую использовал Э.Хаббл в 1929 г.
Теперь обсудим вопрос о том, можно ли точно определить вероятность того или иного индуктивного вывода. Начнем с исследований выдающегося французского математика и механика Пьера Лапласа (1749 -1827). Согласившись с тем, что индукция гарантирует вероятность истины, П.Лаплас предположил, что эту вероятность можно описать математически, а именно с помощью разработанных к тому времени средств математической теории вероятностей. Свой подход он изложил в трактате «Опыт философии теории вероятностей» (1814). В конце концов, после многочисленных попыток, П.Лаплас вынужден был констатировать: «Трудно оценить вероятность результатов индукции» [41, с.338]. Аналогичные попытки предпринимал его соотечественник Николя де Кондорсе (1743-1794), который также не достиг успеха.