Логическая вероятность
Логическая вероятность — логическое отношение между двумя предложениями, степень подтверждения гипотезы H свидетельством E.
Понятие логической вероятности является одной из интерпретаций понятия вероятности наряду с частотной вероятностью и субъективной вероятностью[1]. Формально логическая вероятность является функцией предложений какого-либо языка. Аналитическим предложениям (тавтологиям) приписывается единичное значение этой функции; противоречиям — нулевое; синтетическим предложениям — любое действительное число из интервала (0, 1)[2][3][4][5][6][7]. Конкретные значения логической вероятности для каждого её синтетического аргумента H зависят от другого предложения E, которое можно интерпретировать как описание знаний некоторого субъекта[7][8][9][10][11]. По этой причине логическую вероятность называют эпистемологической (зависящей от знаний) вероятностью. В некотором смысле её также можно трактовать и как разновидность субъективной вероятности. Однако значения логической вероятности однозначно определяются заданной системой знаний и, в этом смысле, имеют объективный характер[2]. В научной литературе принято различать логическую и субъективную вероятности[1].
Поскольку предложения языка описывают некоторые события или состояния, то логическую вероятность также можно рассматривать как функцию этих событий или состояний[12][13][14].
ИсторияПравить
Понятие логической вероятности возникло и развивалось в работах Кейнса, Джонсона и Джеффри[2][3][4][5][6]. Наиболее систематическое изучение данного понятия было проведено Карнапом[7][8][9][10][11]. Его формулирование логической вероятности началась с конструирования формального языка. В 1950 году он рассмотрел класс очень простых языков, состоящих из конечного числа логически независимых одноместных предикатов, именуемых свойствами, и счетного количества констант. Для получения более сложных предложений использовались логические связки. Далее Карнап составил описания всех возможных состояний универсума.
Рассмотрим следующий пример, взятый из работы[1]. Пусть формальный язык содержит три индивидуальные константы a, b, c и предикат F. Для определенности примем, что константы обозначают конкретных людей: Алису, Боба и Цезаря, а предикату соответствует свойство: «быть молодым». Существуют восемь возможных описаний состояний для этого случая, которые представлены в табл. 1.
Таблица 1
N | Описания состояний | Вероятности 1 | Вероятности 2 |
1 | |||
2 | |||
3 | |||
4 | |||
5 | |||
6 | |||
7 | |||
8 |
Символ « » обозначает логическую связку «И», а символ « » — логическую связку «НЕ». Первое предложение можно прочитать следующим образом: «Алиса, Боб и Цезарь — все молодые», второе — «Алиса и Боб — молодые, а Цезарь — нет», третье «Алиса и Цезарь — молодые, а Боб — нет» и т. д.
Карнап обозначал абсолютную логическую вероятность предложения A символом m(A). Её значение определяется как сумма вероятностей состояний, в которых предложение A является истинным. Предположим, что субъект не располагает фактическими знаниями и априори считает, что все состояния универсума одинаково вероятны. Тогда значения абсолютных логических вероятностей каждого состояния равны 1/8 (см. табл. 1). Следовательно, вероятности атомарных предложений равны 1/2, вероятность конъюнкции двух атомарных предложений — 1/4, вероятность дизъюнкции двух атомарных предложений — 3/4.
Карнап определяет функцию подтверждения c(H, E) предложения H предложением E следующим образом:
.
С точки зрения обычной теории вероятностей функция подтверждения является условной вероятностью. Когда описания состояний универсума равновероятны, как в данном случае, мы не можем использовать полученный опыт для предсказания дальнейших событий. Например, функция подтверждения гипотезы "Цезарь молодой" при отсутствии всякого свидетельства, при наличии свидетельства "Алиса молодая" и при наличии свидетельства "Алиса молодая и Боб молодой" принимает одинаковое значение, равное 1/2.
Карнапа интересовал вопрос индуктивного вывода. Он считал, что индуктивная логика — это вероятностная логика, и новые свидетельства в пользу гипотезы должны увеличивать степень её подтверждения[11]. В попытке согласовать свою модель с ожидаемыми результатами он обратился к структурным описаниям, которые можно получить, если все константы в языке считать неразличимыми (взаимозаменяемыми)[7]. В нашем примере имеем четыре структурных описания.
1). «три молодых человека»,
2). «два молодых человека и один старый»,
3). «один молодой и два старых»,
4). «трое стариков».
Первому структурному описанию соответствует состояние 1 (см. табл. 1); второму — состояния 2, 3 и 5; третьему — состояния 4, 6, 7; четвертому — состояние 8. Каждому структурному описанию назначают одинаковое значение вероятности (равное 1/4 в нашем примере). Поскольку второму структурному описанию соответствуют три описания состояний 2, 3 и 5, то значения вероятностей этих состояний будут в три раза меньше значения вероятности структурного описания (то есть 1/12). Такие же значения вероятностей будут иметь и состояния 4, 6 и 7. Теперь имеем новое распределение вероятностей состояний, в котором значения вероятностей различаются (см. последний столбец табл. 1).
Для этого случая Карнап использует специальные обозначения логических функций m* и c*. Их численные значения для разных предложений языка в общем случае отличаются от значений функций m и c. Теперь появляется возможность обучения на опыте. Предположим, мы идем по улице. Значение функции подтверждения c* гипотезы "нам встретится молодой человек" при отсутствии всякого свидетельства равно 1/2. После того как мы увидели молодую девушку (Алису), оно повысится до величины 2/3. А после новой встречи с молодым человеком (Бобом) увеличивается до величины 3/4. Наши наблюдения могут наводить на мысль, что где-то поблизости расположен университет и студенты спешат на занятия. Поэтому нам и встречаются одни только молодые люди.
Необходимо заметить, что значения логической вероятности зависят от свидетельства (то есть от предложения), а не от фактов реального мира. Гипотеза «Цезарь окажется молодым» в отношении свидетельства «Алиса оказалась молодой и Боб тоже оказался молодым» имеет вероятность 3/4, независимо от того, видели ли мы Алису и Боба в реальной жизни или только вообразили себе их.
Обратимся к другому примеру. Допустим, некий человек увидел однажды черную ворону и ожидает, что и следующая увиденная им ворона окажется черной. Если это подтвердилось, то ожидания снова встретить ворону черного цвета у него будут выше, чем прежде. Впрочем, это не значит, что ситуация не может измениться (бывают ведь и белые вороны). Европейцы привыкли видеть белых лебедей и были несказанно удивлены (и очарованы), когда в Австралии обнаружили черного лебедя.
Предположим, что мы встретили юную девушку Алису, а затем немолодого Боба (возможно, что это профессор нашего гипотетического университета). Какова вероятность того, что в дальнейшем нам встретится молодой Цезарь? Говоря формальным языком, нам нужно найти значение функции подтверждения c* для этого случая. Оно будет равно 1/2. Вполне ожидаемый результат. Любопытно, что при новом распределении вероятностей состояний универсума атомарные предложения начинают зависеть друг от друга. Однако это уже не логическая, а физическая зависимость. Изменения в распределении вероятностей состояний приводят к получению новой информации (изменению знаний субъекта). В нашем случае — это представление о взаимозаменяемости индивидуальных констант. Другой пример: предложения «идет дождь» и «земля мокрая» являются логически независимыми. Однако физически они зависят друг от друга, это можно проверить опытным путём.
Классификация логических вероятностейПравить
Согласно Карнапу[7], логические вероятности делятся на два класса: дедуктивные и индуктивные. Дедуктивными являются функции m и c. Примером индуктивных вероятностей могут служить функции m* и c*. Последние имеют особое значение, поскольку с их помощью можно построить логику индуктивного вывода)[11][12][13][14][15].
Правило последовательностиПравить
Задолго до Карнапа Лаплас вывел формулу, позволяющую рассчитывать предсказывающую (индуктивную) вероятность. Рассмотрим последовательность случайных исходов некоторого эксперимента, каждый принимает одно значение из двух возможных: либо 1, либо 0 (единица означает успех, а ноль — неудачу). Пусть E обозначает предложение «в n испытаниях было k успехов», а H обозначает предложение «следующее испытание закончится успехом». Тогда вероятность того, что следующее испытание завершится успехом, равна:
,
Это знаменитое правило последовательности Лапласа.
Вернемся к нашему примеру. Пусть успех эксперимента заключается в том, что, двигаясь по улице, мы встречаем молодого человека, а неуспех — в том, что встречаем немолодого. Пока мы никого не встретили, и . Поэтому . После встречи с Алисой ( ), которая является юной девушкой ( ), предсказывающая вероятность увеличивается . А после встречи с Бобом ( ), который также имеет юный возраст ( ), она еще более увеличивается .
Карнап пошел дальше Лапласа. Он обобщил его формулу на случай исходов ( ) различных типов. Пусть в результате испытаний из них закончились исходом -го типа. Тогда вероятность того, что следующее испытание завершится исходом -го типа, равна[7][14]:
В дальнейшем Карнап получил еще более общую формулу.
Континуум Джонсона — КарнапаПравить
Ранний Карнап излагал свою теорию скорее как философ, а не как математик[14]. Позднее стиль его работ изменился, он стал использовать аксиомы и формальные доказательства[11]. Современный подход к определению индуктивной вероятности заключается в следующем. Индуктивная вероятность рассматривается в виде , где предложения и входят в некоторую алгебру предложений, а является фиксированным предложением, называемом «фоновым свидетельством»[15].
В нашем примере предложениями алгебры являются атомарные предложения , и и их отрицания, а также молекулярные предложения, составленные из данных атомов с помощью логических связок. Фоновым свидетельством является утверждение о том, что все структурные описания имеют одинаковые вероятности. Предположим, что алгебра содержит предложения , , и . Следующие пять аксиом гарантируют, что удовлетворяет законам вероятности.
Аксиома 1. .
Аксиома 2. .
Аксиома 3. .
Аксиома 4. .
Аксиома 5. Если и , то .
Здесь символ « » означает логическую эквивалентность. К этим пяти аксиомам следует добавить еще четыре аксиомы Карнапа[10].
Аксиома 6. (Регулярности) .
Аксиома 7. (Симметрии) не изменяется при перестановке индивидуальных констант.
Аксиома 8. (Текущей релевантности (англ. instantial relevance)) , где свидетельство содержит всю информацию, которая содержится в , плюс новые подтверждения гипотезы .
Аксиома 9. (Постулат достаточности) Индуктивная вероятность является функцией и .
На основании этих аксиом Карнап доказал следующую теорему[10]. Если имеется различных исходов испытаний, то существуют положительные действительные константы ,…, , такие что
где .
Позднее выяснилось, что задолго до Карнапа этот результат был получен Джонсоном[3][4], однако вследствие его ранней смерти оказался неизвестен широкой научной общественности[14]. Полученную формулу можно представить в виде:
Выражения в квадратных скобках имеют очевидную интерпретацию. Первое представляет собой эмпирическую частоту, а второе — априорную вероятность исхода -го типа, полученную на основе анализа пространства возможных состояний. Выражения в круглых скобках — это относительные веса, которыми представлены эмпирические наблюдения и априорная информация в значении логической вероятности. При фиксированном , чем больше , тем большую роль играет априорная информация (и наоборот). При малых , когда выборка наблюдений является недостаточно представительной, логично отдавать предпочтение априорной вероятности; при большом числе наблюдений, напротив — эмпирической частоте. При значение индуктивной вероятности асимптотически стремится к значению частотной (независимо от конечной величины ).
Универсальное обобщениеПравить
Пусть объектом наблюдения являются ворон, и все они оказались черными ( ). На основании данного опыта можно выдвинуть гипотезу о том, что вороны — черные вообще. Какова вероятность такого утверждения? На этот вопрос теория Джонсона — Карнапа дает парадоксальный ответ — она равна нулю[1][14][15].
Сэнди Забелл решил этот парадокс, заменив постулат достаточности новым постулатом[13]. Пусть означает число исходов разных типов, наблюдаемых в серии из опытов. Новый постулат формулируется так: для всех предсказывающая вероятность является функцией и , за исключением случаев, когда и . В результате Забелл получил следующие формулы для индуктивной вероятности[13]:
для ,
для и .
для , и .
где ,
,
.
Здесь — априорная и — апостериорная вероятности того, что исход -го типа в данном эксперименте будет наблюдаться всегда.
Место логической вероятности в ряду вероятностей других типовПравить
Согласно классическому определению, вероятность есть отношение числа избранных исходов некоторого эксперимента к числу всех мыслимых его исходов. При этом все они полагаются равновозможными. Как известно [1], критика недостатков этого определения привела к появлению понятия частотной вероятности. Логические теории возвращают нас к идее о том, что вероятность может быть определена априори путём исследования пространства возможностей, хотя теперь возможности могут быть заданы и с неравным весом.
Логическая вероятность имеет отношение к доступному свидетельству и не зависит от неизвестных фактов о мире, а частотная — является фактом о мире и не имеет отношения к доступному свидетельству[16]. Тем не менее, различие между этими вероятностями достаточно тонкое. Например, если известно, что при бросании игральной кости величина частотной вероятности выпадения шестерки равна q=0,18, то логическая вероятность гипотезы «выпадет шестерка» относительно свидетельства «брошена кость с заданной q» равна 0,18.
Существует мнение[1][14][15], что если знания субъекта можно представить в виде некого сложного предложения (total evidence), то логическая вероятность способна служить разумным обоснованием субъективной вероятности. Однако в работе[16] утверждается, что, субъективная вероятность — это смесь мистики, прагматизма и высокомерия, в которой лишь немного индуктивной вероятности.
ПримечанияПравить
- ↑ 1 2 3 4 5 6 Hajek Alan. (2007). Interpretation of probability. In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, https://plato.stanford.edu/entries/probability-interpret/ Архивная копия от 17 февраля 2021 на Wayback Machine.
- ↑ 1 2 3 Keynes J.M. A Treatise on Probability. Macmillan, London, 1921.
- ↑ 1 2 3 Jonnson W.E. Logic, Part III: Logical Foundation of Science. Cambridge University Press, 1924.
- ↑ 1 2 3 Johnson W.E. Probability: The deductive and inductive problems. Mind, 41: 409-423, 1932.
- ↑ 1 2 Jeffrey R.C. Theory of Probability. Clarendon Press, Oxford, 3rd edition, 1961.
- ↑ 1 2 Jeffrey R.C. Subjective Probability: The Real Thing. Cambridge University Press, Cambridge, 2004.
- ↑ 1 2 3 4 5 6 Carnap R. Logical Foundation of Probability. University of Chicago Press, Chicago, 1950, Second edition, 1962.
- ↑ 1 2 Carnap R. The two concepts of probability. Phylosophy and Phenomeno logical Research, 5:513-532, 1945.
- ↑ 1 2 Carnap R. On inductive logic. Philosophy of Science, 12:72-97, 1945.
- ↑ 1 2 3 4 Carnap R. The Continuum of Inductive Methods. University of Chicago Press, Chicago, 1952.
- ↑ 1 2 3 4 5 Carnap R., Jeffrey R.C. Studies in Inductive Logic and Probability, volume I. University of California Press, Berkeley and Los Angeles, 1971.
- ↑ 1 2 Гастев Ю.А. Вероятностная логика/ Большая Советская Энциклопедия, 1971, Т. 4, с. 543.
- ↑ 1 2 3 4 Zabell S.L. (1996) Confirming universal generalizations. Erkenntnis, 45: 267-283.
- ↑ 1 2 3 4 5 6 7 Zabell S.L. (2004). Carnap and the Logic of Inductive Inference. In Dov M. Gabbay, John Woods & Akihiro Kanamori (eds.), Handbook of the History of Logic. Elsevier 265-309.
- ↑ 1 2 3 4 Maher Patrick, (2010). Explication of Inductive Probability. Journal of Philosophical Logic 39 (6): 593-616.
- ↑ 1 2 Maher Patrick, (2006) The Concept of Inductive Probability. Erkenntnis, 65: 185-206.