Это не официальный сайт wikipedia.org 01.01.2023

Логическая вероятность — Википедия

Логическая вероятность

Логическая вероятность — логическое отношение между двумя предложениями, степень подтверждения гипотезы H свидетельством E.

Понятие логической вероятности является одной из интерпретаций понятия вероятности наряду с частотной вероятностью и субъективной вероятностью[1]. Формально логическая вероятность является функцией предложений какого-либо языка. Аналитическим предложениям (тавтологиям) приписывается единичное значение этой функции; противоречиям — нулевое; синтетическим предложениям — любое действительное число из интервала (0, 1)[2][3][4][5][6][7]. Конкретные значения логической вероятности для каждого её синтетического аргумента H зависят от другого предложения E, которое можно интерпретировать как описание знаний некоторого субъекта[7][8][9][10][11]. По этой причине логическую вероятность называют эпистемологической (зависящей от знаний) вероятностью. В некотором смысле её также можно трактовать и как разновидность субъективной вероятности. Однако значения логической вероятности однозначно определяются заданной системой знаний и, в этом смысле, имеют объективный характер[2]. В научной литературе принято различать логическую и субъективную вероятности[1].

Поскольку предложения языка описывают некоторые события или состояния, то логическую вероятность также можно рассматривать как функцию этих событий или состояний[12][13][14].

ИсторияПравить

Понятие логической вероятности возникло и развивалось в работах Кейнса, Джонсона и Джеффри[2][3][4][5][6]. Наиболее систематическое изучение данного понятия было проведено Карнапом[7][8][9][10][11]. Его формулирование логической вероятности началась с конструирования формального языка. В 1950 году он рассмотрел класс очень простых языков, состоящих из конечного числа логически независимых одноместных предикатов, именуемых свойствами, и счетного количества констант. Для получения более сложных предложений использовались логические связки. Далее Карнап составил описания всех возможных состояний универсума.

Рассмотрим следующий пример, взятый из работы[1]. Пусть формальный язык содержит три индивидуальные константы a, b, c и предикат F. Для определенности примем, что константы обозначают конкретных людей: Алису, Боба и Цезаря, а предикату соответствует свойство: «быть молодым». Существуют восемь возможных описаний состояний для этого случая, которые представлены в табл. 1.

Таблица 1

N Описания состояний Вероятности 1 Вероятности 2
1 F ( a ) F ( b ) F ( c )   1 8   1 4  
2 F ( a ) F ( b ) ¬ F ( c )   1 8   1 12  
3 F ( a ) ¬ F ( b ) F ( c )   1 8   1 12  
4 F ( a ) ¬ F ( b ) ¬ F ( c )   1 8   1 12  
5 ¬ F ( a ) F ( b ) F ( c )   1 8   1 12  
6 ¬ F ( a ) F ( b ) ¬ F ( c )   1 8   1 12  
7 ¬ F ( a ) ¬ F ( b ) F ( c )   1 8   1 12  
8 ¬ F ( a ) ¬ F ( b ) ¬ F ( c )   1 8   1 4  

Символ «  » обозначает логическую связку «И», а символ « ¬  » — логическую связку «НЕ». Первое предложение можно прочитать следующим образом: «Алиса, Боб и Цезарь — все молодые», второе — «Алиса и Боб — молодые, а Цезарь — нет», третье «Алиса и Цезарь — молодые, а Боб — нет» и т. д.

Карнап обозначал абсолютную логическую вероятность предложения A символом m(A). Её значение определяется как сумма вероятностей состояний, в которых предложение A является истинным. Предположим, что субъект не располагает фактическими знаниями и априори считает, что все состояния универсума одинаково вероятны. Тогда значения абсолютных логических вероятностей каждого состояния равны 1/8 (см. табл. 1). Следовательно, вероятности атомарных предложений равны 1/2, вероятность конъюнкции двух атомарных предложений — 1/4, вероятность дизъюнкции двух атомарных предложений — 3/4.

Карнап определяет функцию подтверждения c(H, E) предложения H предложением E следующим образом:

c ( H , E ) = m ( H E ) m ( E )  .

С точки зрения обычной теории вероятностей функция подтверждения является условной вероятностью. Когда описания состояний универсума равновероятны, как в данном случае, мы не можем использовать полученный опыт для предсказания дальнейших событий. Например, функция подтверждения гипотезы "Цезарь молодой" при отсутствии всякого свидетельства, при наличии свидетельства "Алиса молодая" и при наличии свидетельства "Алиса молодая и Боб молодой" принимает одинаковое значение, равное 1/2.

Карнапа интересовал вопрос индуктивного вывода. Он считал, что индуктивная логика — это вероятностная логика, и новые свидетельства в пользу гипотезы должны увеличивать степень её подтверждения[11]. В попытке согласовать свою модель с ожидаемыми результатами он обратился к структурным описаниям, которые можно получить, если все константы в языке считать неразличимыми (взаимозаменяемыми)[7]. В нашем примере имеем четыре структурных описания.

1). «три молодых человека»,

2). «два молодых человека и один старый»,

3). «один молодой и два старых»,

4). «трое стариков».

Первому структурному описанию соответствует состояние 1 (см. табл. 1); второму — состояния 2, 3 и 5; третьему — состояния 4, 6, 7; четвертому — состояние 8. Каждому структурному описанию назначают одинаковое значение вероятности (равное 1/4 в нашем примере). Поскольку второму структурному описанию соответствуют три описания состояний 2, 3 и 5, то значения вероятностей этих состояний будут в три раза меньше значения вероятности структурного описания (то есть 1/12). Такие же значения вероятностей будут иметь и состояния 4, 6 и 7. Теперь имеем новое распределение вероятностей состояний, в котором значения вероятностей различаются (см. последний столбец табл. 1).

Для этого случая Карнап использует специальные обозначения логических функций m* и c*. Их численные значения для разных предложений языка в общем случае отличаются от значений функций m и c. Теперь появляется возможность обучения на опыте. Предположим, мы идем по улице. Значение функции подтверждения c* гипотезы "нам встретится молодой человек" при отсутствии всякого свидетельства равно 1/2. После того как мы увидели молодую девушку (Алису), оно повысится до величины 2/3. А после новой встречи с молодым человеком (Бобом) увеличивается до величины 3/4. Наши наблюдения могут наводить на мысль, что где-то поблизости расположен университет и студенты спешат на занятия. Поэтому нам и встречаются одни только молодые люди.

Необходимо заметить, что значения логической вероятности зависят от свидетельства (то есть от предложения), а не от фактов реального мира. Гипотеза «Цезарь окажется молодым» в отношении свидетельства «Алиса оказалась молодой и Боб тоже оказался молодым» имеет вероятность 3/4, независимо от того, видели ли мы Алису и Боба в реальной жизни или только вообразили себе их.

Обратимся к другому примеру. Допустим, некий человек увидел однажды черную ворону и ожидает, что и следующая увиденная им ворона окажется черной. Если это подтвердилось, то ожидания снова встретить ворону черного цвета у него будут выше, чем прежде. Впрочем, это не значит, что ситуация не может измениться (бывают ведь и белые вороны). Европейцы привыкли видеть белых лебедей и были несказанно удивлены (и очарованы), когда в Австралии обнаружили черного лебедя.

Предположим, что мы встретили юную девушку Алису, а затем немолодого Боба (возможно, что это профессор нашего гипотетического университета). Какова вероятность того, что в дальнейшем нам встретится молодой Цезарь? Говоря формальным языком, нам нужно найти значение функции подтверждения c* для этого случая. Оно будет равно 1/2. Вполне ожидаемый результат. Любопытно, что при новом распределении вероятностей состояний универсума атомарные предложения начинают зависеть друг от друга. Однако это уже не логическая, а физическая зависимость. Изменения в распределении вероятностей состояний приводят к получению новой информации (изменению знаний субъекта). В нашем случае — это представление о взаимозаменяемости индивидуальных констант. Другой пример: предложения «идет дождь» и «земля мокрая» являются логически независимыми. Однако физически они зависят друг от друга, это можно проверить опытным путём.

Классификация логических вероятностейПравить

Согласно Карнапу[7], логические вероятности делятся на два класса: дедуктивные и индуктивные. Дедуктивными являются функции m и c. Примером индуктивных вероятностей могут служить функции m* и c*. Последние имеют особое значение, поскольку с их помощью можно построить логику индуктивного вывода)[11][12][13][14][15].

Правило последовательностиПравить

Задолго до Карнапа Лаплас вывел формулу, позволяющую рассчитывать предсказывающую (индуктивную) вероятность. Рассмотрим последовательность случайных исходов некоторого эксперимента, каждый принимает одно значение из двух возможных: либо 1, либо 0 (единица означает успех, а ноль — неудачу). Пусть E обозначает предложение «в n испытаниях было k успехов», а H обозначает предложение «следующее испытание закончится успехом». Тогда вероятность того, что следующее испытание завершится успехом, равна:

P ( H E ) = k + 1 n + 2  ,

Это знаменитое правило последовательности Лапласа.

Вернемся к нашему примеру. Пусть успех эксперимента заключается в том, что, двигаясь по улице, мы встречаем молодого человека, а неуспех — в том, что встречаем немолодого. Пока мы никого не встретили, n = 0   и k = 0  . Поэтому P ( H E ) = 1 2  . После встречи с Алисой ( n = 1  ), которая является юной девушкой ( k = 1  ), предсказывающая вероятность увеличивается P ( H E ) = 2 3  . А после встречи с Бобом ( n = 2  ), который также имеет юный возраст ( k = 2  ), она еще более увеличивается P ( H E ) = 3 4  .

Карнап пошел дальше Лапласа. Он обобщил его формулу на случай t   исходов ( t > 2  ) различных типов. Пусть в результате n   испытаний n i   из них закончились исходом i  -го типа. Тогда вероятность того, что следующее n + 1   испытание завершится исходом i  -го типа, равна[7][14]:

P ( H E ) = n i + 1 n + t  

В дальнейшем Карнап получил еще более общую формулу.

Континуум Джонсона — КарнапаПравить

Ранний Карнап излагал свою теорию скорее как философ, а не как математик[14]. Позднее стиль его работ изменился, он стал использовать аксиомы и формальные доказательства[11]. Современный подход к определению индуктивной вероятности заключается в следующем. Индуктивная вероятность рассматривается в виде P ( A B K )  , где предложения A   и B   входят в некоторую алгебру предложений, а K   является фиксированным предложением, называемом «фоновым свидетельством»[15].

В нашем примере предложениями алгебры являются атомарные предложения F ( a )  , F ( b )   и F ( c )   и их отрицания, а также молекулярные предложения, составленные из данных атомов с помощью логических связок. Фоновым свидетельством является утверждение о том, что все структурные описания имеют одинаковые вероятности. Предположим, что алгебра содержит предложения A  , B  , C   и D  . Следующие пять аксиом гарантируют, что P ( A B K )   удовлетворяет законам вероятности.

Аксиома 1. P ( A B ) 0  .

Аксиома 2. P ( A A ) = 1  .

Аксиома 3. P ( A B ) + P ( ¬ A B ) = 1  .

Аксиома 4. P ( A B C ) = P ( A C ) P ( B A C )  .

Аксиома 5. Если A K C K   и B K D K  , то P ( A B ) = P ( C D )  .

Здесь символ «  » означает логическую эквивалентность. К этим пяти аксиомам следует добавить еще четыре аксиомы Карнапа[10].

Аксиома 6. (Регулярности) P ( B ) > 0  .

Аксиома 7. (Симметрии) P ( B )   не изменяется при перестановке индивидуальных констант.

Аксиома 8. (Текущей релевантности (англ. instantial relevance)) P ( H E 2 ) > P ( H E 1 )  , где свидетельство E 2   содержит всю информацию, которая содержится в E 1  , плюс новые подтверждения гипотезы H  .

Аксиома 9. (Постулат достаточности) Индуктивная вероятность является функцией n i   и n  .

На основании этих аксиом Карнап доказал следующую теорему[10]. Если имеется t > 2   различных исходов испытаний, то существуют положительные действительные константы α 1   ,…, α t  , такие что

P ( H E ) = n i + α i n + α  

где α = i = 1 t α i  .

Позднее выяснилось, что задолго до Карнапа этот результат был получен Джонсоном[3][4], однако вследствие его ранней смерти оказался неизвестен широкой научной общественности[14]. Полученную формулу можно представить в виде:

P ( H E ) = ( n n + α ) [ n i n ] + ( α n + α ) [ α i α ]  

Выражения в квадратных скобках имеют очевидную интерпретацию. Первое n i n   представляет собой эмпирическую частоту, а второе α i α   — априорную вероятность исхода i  -го типа, полученную на основе анализа пространства возможных состояний. Выражения в круглых скобках — это относительные веса, которыми представлены эмпирические наблюдения и априорная информация в значении логической вероятности. При фиксированном n  , чем больше α  , тем большую роль играет априорная информация (и наоборот). При малых n  , когда выборка наблюдений является недостаточно представительной, логично отдавать предпочтение априорной вероятности; при большом числе наблюдений, напротив — эмпирической частоте. При n   значение индуктивной вероятности асимптотически стремится к значению частотной (независимо от конечной величины α  ).

Универсальное обобщениеПравить

Пусть объектом наблюдения являются n   ворон, и все они оказались черными ( n i = n  ). На основании данного опыта можно выдвинуть гипотезу о том, что вороны — черные вообще. Какова вероятность такого утверждения? На этот вопрос теория Джонсона — Карнапа дает парадоксальный ответ — она равна нулю[1][14][15].

Сэнди Забелл решил этот парадокс, заменив постулат достаточности новым постулатом[13]. Пусть T   означает число исходов разных типов, наблюдаемых в серии из n   опытов. Новый постулат формулируется так: для всех n 1   предсказывающая вероятность P ( H E )   является функцией n i   и n  , за исключением случаев, когда n i = 0   и T = 1  . В результате Забелл получил следующие формулы для индуктивной вероятности[13]:

P ( H E ) = n i + α i n + α   для T > 1  ,

P ( H E ) = ε i ( n ) + ( 1 ε i ( n ) ) n i + α i n + α   для T = 1   и n i = n  .

P ( H E ) = ( 1 ε j ( n ) ) α i n + α   для T = 1  , n i = 0   и n j = n  .

где ε i ( n ) = ε i ε i + ( 1 ε ) j = 0 n 1 ( j + α i j + α )  ,

0 ε i < 1  ,

ε = i = 1 t ε i < 1  .

Здесь ε i   — априорная и ε i ( n )   — апостериорная вероятности того, что исход i  -го типа в данном эксперименте будет наблюдаться всегда.

Место логической вероятности в ряду вероятностей других типовПравить

Согласно классическому определению, вероятность есть отношение числа избранных исходов некоторого эксперимента к числу всех мыслимых его исходов. При этом все они полагаются равновозможными. Как известно [1], критика недостатков этого определения привела к появлению понятия частотной вероятности. Логические теории возвращают нас к идее о том, что вероятность может быть определена априори путём исследования пространства возможностей, хотя теперь возможности могут быть заданы и с неравным весом.

Логическая вероятность имеет отношение к доступному свидетельству и не зависит от неизвестных фактов о мире, а частотная — является фактом о мире и не имеет отношения к доступному свидетельству[16]. Тем не менее, различие между этими вероятностями достаточно тонкое. Например, если известно, что при бросании игральной кости величина частотной вероятности выпадения шестерки равна q=0,18, то логическая вероятность гипотезы «выпадет шестерка» относительно свидетельства «брошена кость с заданной q» равна 0,18.

Существует мнение[1][14][15], что если знания субъекта можно представить в виде некого сложного предложения (total evidence), то логическая вероятность способна служить разумным обоснованием субъективной вероятности. Однако в работе[16] утверждается, что, субъективная вероятность — это смесь мистики, прагматизма и высокомерия, в которой лишь немного индуктивной вероятности.

ПримечанияПравить

  1. 1 2 3 4 5 6 Hajek Alan. (2007). Interpretation of probability. In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, https://plato.stanford.edu/entries/probability-interpret/ Архивная копия от 17 февраля 2021 на Wayback Machine.
  2. 1 2 3 Keynes J.M. A Treatise on Probability. Macmillan, London, 1921.
  3. 1 2 3 Jonnson W.E. Logic, Part III: Logical Foundation of Science. Cambridge University Press, 1924.
  4. 1 2 3 Johnson W.E. Probability: The deductive and inductive problems. Mind, 41: 409-423, 1932.
  5. 1 2 Jeffrey R.C. Theory of Probability. Clarendon Press, Oxford, 3rd edition, 1961.
  6. 1 2 Jeffrey R.C. Subjective Probability: The Real Thing. Cambridge University Press, Cambridge, 2004.
  7. 1 2 3 4 5 6 Carnap R. Logical Foundation of Probability. University of Chicago Press, Chicago, 1950, Second edition, 1962.
  8. 1 2 Carnap R. The two concepts of probability. Phylosophy and Phenomeno logical Research, 5:513-532, 1945.
  9. 1 2 Carnap R. On inductive logic. Philosophy of Science, 12:72-97, 1945.
  10. 1 2 3 4 Carnap R. The Continuum of Inductive Methods. University of Chicago Press, Chicago, 1952.
  11. 1 2 3 4 5 Carnap R., Jeffrey R.C. Studies in Inductive Logic and Probability, volume I. University of California Press, Berkeley and Los Angeles, 1971.
  12. 1 2 Гастев Ю.А. Вероятностная логика/ Большая Советская Энциклопедия, 1971, Т. 4, с. 543.
  13. 1 2 3 4 Zabell S.L. (1996) Confirming universal generalizations. Erkenntnis, 45: 267-283.
  14. 1 2 3 4 5 6 7 Zabell S.L. (2004). Carnap and the Logic of Inductive Inference. In Dov M. Gabbay, John Woods & Akihiro Kanamori (eds.), Handbook of the History of Logic. Elsevier 265-309.
  15. 1 2 3 4 Maher Patrick, (2010). Explication of Inductive Probability. Journal of Philosophical Logic 39 (6): 593-616.
  16. 1 2 Maher Patrick, (2006) The Concept of Inductive Probability. Erkenntnis, 65: 185-206.