Это не официальный сайт wikipedia.org 01.01.2023

Теорема Байеса — Википедия

Теорема Байеса

Теорема Байеса (или формула Байеса) — одна из основных теорем элементарной теории вероятностей, которая позволяет определить вероятность события при условии, что произошло другое статистически взаимозависимое с ним событие. Другими словами, по формуле Байеса можно уточнить вероятность какого-либо события, взяв в расчёт как ранее известную информацию, так и данные новых наблюдений. Формула Байеса может быть выведена из основных аксиом теории вероятностей, в частности из условной вероятности. Особенность теоремы Байеса заключается в том, что для её практического применения требуется большое количество расчётов, вычислений, поэтому байесовские оценки стали активно использовать только после революции в компьютерных и сетевых технологиях. На сегодняшний день активно применяется в машинном обучении и технологиях искусственного интеллекта.

Формула Байеса

При возникновении теоремы Байеса вероятности, используемые в теореме, подвергались целому ряду вероятностных интерпретаций. В одной из таких интерпретаций говорилось, что вывод формулы напрямую связан с применением особого подхода к статистическому анализу. Если использовать байесовскую интерпретацию вероятности, то теорема показывает, как личный уровень доверия может кардинально измениться вследствие количества наступивших событий. В этом заключаются выводы Байеса, которые стали основополагающими для байесовской статистики. Однако теорема не только используется в байесовском анализе, но и активно применяется для большого ряда других расчётов.

Психологические эксперименты[1] показали, что люди часто неверно оценивают реальную (математически верную) вероятность события, основываясь на некоем личном полученном опыте (апостериорная вероятность), поскольку игнорируют саму вероятность предположения (априорная вероятность). Поэтому правильный результат по формуле Байеса может сильно отличаться от интуитивно ожидаемого.

Теорема Байеса названа в честь её автора Томаса Байеса (1702—1761) — английского математика и священника, который первым предложил использование теоремы для корректировки убеждений, основываясь на обновлённых данных. Его работа «An Essay towards solving a Problem in the Doctrine of Chances» впервые опубликована в 1763 году[2], через 2 года после смерти автора. До того, как посмертная работа Байеса была принята и прочитана в Королевском обществе, она была значительно отредактирована и обновлена Ричардом Прайсом. Однако эти идеи не предавались публичной огласке до тех пор, пока не были вновь открыты и развиты Пьером-Симоном Лапласом, впервые опубликовавшим современную формулировку теоремы в своей книге 1812 года «Аналитическая теория вероятностей».

Сэр Гарольд Джеффрис писал, что теорема Байеса «для теории вероятности то же, что теорема Пифагора для геометрии»[3].

ФормулировкаПравить

Формула Байеса:

P ( A B ) = P ( B A ) P ( A ) P ( B )  ,

где

P ( A )   — априорная вероятность гипотезы A (смысл такой терминологии см. ниже);
P ( A B )   — вероятность гипотезы A при наступлении события B (апостериорная вероятность);
P ( B A )   — вероятность наступления события B при истинности гипотезы A;
P ( B )   — полная вероятность наступления события B.

ДоказательствоПравить

Формула Байеса вытекает из определения условной вероятности. Вероятность совместного события A B   двояко выражается через условные вероятности

P ( A B ) = P ( A B ) P ( B ) = P ( B A ) P ( A )  

Следовательно P ( A B ) = P ( A B ) P ( B ) = P ( B A ) P ( A ) P ( B )  

Вычисление P(B)Править

В задачах и статистических приложениях P ( B )   обычно вычисляется по формуле полной вероятности события, зависящего от нескольких несовместных гипотез, имеющих суммарную вероятность 1.

P ( B ) = i = 1 N P ( B A i ) P ( A i )  ,

где вероятности под знаком суммы известны или допускают экспериментальную оценку.

В этом случае формула Байеса записывается так:

P ( A j B ) = P ( B A j ) P ( A j ) i = 1 N P ( B A i ) P ( A i )  

«Физический смысл» и терминологияПравить

Формула Байеса позволяет «переставить причину и следствие»: по известному факту события вычислить вероятность того, что оно было вызвано данной причиной. При этом необходимо понимать, для применения теоремы причинно-следственная связь между A   и B   не является обязательной.

События, отражающие действие «причин», в данном случае называют гипотезами, так как они — предполагаемые события, повлёкшие данное. Безусловную вероятность справедливости гипотезы называют априорной (насколько вероятна причина вообще), а условную — с учётом факта произошедшего события — апостериорной (насколько вероятна причина оказалась с учётом данных о событии).

ПримерыПравить

Пример 1Править

Пусть событие B   — машина не заводится, а гипотеза A   — в баке нет топлива. Очевидно, что вероятность P ( B A )   того, что машина не заведётся, если в баке нет топлива, равняется единице. Как следствие, апостериорная вероятность, что в баке нет топлива, если машина не заводится, то есть P ( A B )  , равна P ( A ) P ( B )  , то есть отношению априорной вероятности, что в баке нет топлива, к вероятности, что машина не заводится. Например, если априорная вероятность, что в баке нет топлива, равна 0,01, а вероятность, что машина не заводится, равна 0,02, и случайно выбранная машина не завелась, то вероятность, что в её баке нет топлива, равна 0,5.

Пример 2Править

Пусть вероятность брака у первого рабочего p 1 = 0 , 9  , у второго рабочего — p 2 = 0 , 5  , а у третьего — p 3 = 0 , 2  . Первый изготовил n 1 = 800   деталей, второй — n 2 = 600   деталей, а третий — n 3 = 900   деталей. Начальник цеха берёт случайную деталь, и она оказывается бракованной. Спрашивается, с какой вероятностью эту деталь изготовил третий рабочий?

Событие B   — брак детали, событие A i   — деталь произвёл рабочий i  . Тогда P ( A i ) = n i / N  , где N = n 1 + n 2 + n 3  , а P ( B A i ) = p i  .

По формуле полной вероятности

P ( B ) = i = 1 3 P ( B A i ) P ( A i ) .  

По формуле Байеса получим:

P ( A 3 B ) = P ( B A 3 ) P ( A 3 ) P ( B ) = P ( B A 3 ) P ( A 3 ) P ( B A 1 ) P ( A 1 ) + P ( B A 2 ) P ( A 2 ) + P ( B A 3 ) P ( A 3 ) =  
= p 3 n 3 / N p 1 n 1 / N + p 2 n 2 / N + p 3 n 3 / N = 0 , 2 900 / 2300 0 , 9 800 / 2300 + 0 , 5 600 / 2300 + 0 , 2 900 / 2300 = 0 , 15.  

Пример 3Править

 
Древовидная диаграмма демонстрирует частотный пример. R, C, P и P c чёрточкой — это события, обозначающие, что жук является редким, обычным, с узором и без узора. Проценты в скобках вычисляются. Отметим, что значения трёх независимых событий даны, поэтому возможно вычислить обратное дерево (смотрите на график выше).

Энтомолог предполагает, что жук может относиться к редкому подвиду жуков, так как у него на корпусе есть узор. В редком подвиде 98 % жуков имеют узор, или P(узор | редкий) = 0,98. Среди обычных жуков только 5 % имеют узор: P(узор | обычный) = 0,05. Редкого вида жуков насчитывается лишь 0,1 % среди всей популяции: P(редкий) = 0,001. Какова вероятность того, что жук, имеющий узор, относится к редкому подвиду, то есть, чему равно P(редкий | узор)?

Из расширенной теоремы Байеса получаем (любой жук может относиться либо к редким, либо к обычным): P ( редкий узор ) = P ( узор редкий ) × P ( редкий ) P ( узор редкий ) × P ( редкий ) + P ( узор обычный ) × P ( обычный ) = 0 , 98 × 0,001 0 , 98 × 0,001 + 0 , 05 × 0,999 0,019.  

Пример 4 — парадокс теоремы БайесаПравить

Пусть существует заболевание с частотой распространения среди населения 0,001 и метод диагностического обследования, который с вероятностью 0,9 выявляет больного, но при этом имеет вероятность 0,01 ложноположительного результата — ошибочного выявления заболевания у здорового человека (подробнее…). Найти вероятность того, что человек здоров, если он был признан больным при обследовании.

Обозначим событие что обследование показало, человек болен как «болен» с кавычками, болен — событие, что человек действительно больной, здоров — событие, что человек действительно здоров. Тогда заданные условия переписываются следующим образом:

P ( «болен» болен ) = 0 , 9  

P ( «болен» здоров ) = 0 , 01  

P ( болен ) = 0,001  , при этом P ( здоров ) = 1 P ( болен )  , значит:

P ( здоров ) = 0,999  

Вероятность того, что человек здоров, если он был признан больным равна условной вероятности:

P ( здоров «болен» )  

Чтобы её найти, вычислим сначала полную вероятность признания больным:

P ( «болен» ) = P ( «болен» здоров ) P ( здоров ) + P ( «болен» болен ) P ( болен ) = 0 , 01 × 0,999 + 0 , 9 × 0,001 = 0,010 89  

Вероятность, что человек здоров при результате «болен»:

P ( здоров «болен» ) = P ( «болен» здоров ) P ( здоров ) P ( «болен» ) = 0 , 01 × 0,999 0,010 89 0,917  

Таким образом, 91,7 % людей, у которых обследование показало результат «болен», на самом деле здоровые люди. Причина этого в том, что по условию задачи вероятность ложноположительного результата хоть и мала, но на порядок больше доли больных в обследуемой группе людей.

Если ошибочные результаты обследования можно считать случайными, то повторное обследование того же человека будет давать независимый от первого результат. В этом случае для уменьшения доли ложноположительных результатов имеет смысл провести повторное обследование людей, получивших результат «болен». Вероятность того, что человек здоров после получения повторного результата «болен», также можно вычислить по формуле Байеса:

P ( ( здоров «болен» ) «болен» ) = P ( «болен» здоров ) ( P ( «болен» здоров ) P ( здоров ) ) P ( «болен» здоров ) ( P ( «болен» здоров ) P ( здоров ) ) + P ( «болен» болен ) ( P ( «болен» болен ) P ( болен ) ) = 0 , 01 × 0 , 01 × 0,999 0 , 01 × 0 , 01 × 0,999 + 0 , 9 × 0 , 9 × 0,001 0,109 8  

Варианты интерпретации вероятностей в теореме БайесаПравить

Математически теорема Байеса показывает взаимоотношения между вероятностью события A и вероятностью события B, P(A) и P(B), условной вероятности наступления события А при существующем B и наступлении события B при существующем A, P(A | B) и P(B | A).

В общей форме формула Байеса выглядит следующим образом:

P ( A B ) = P ( B A ) P ( A ) / P ( B )  

Значение выражения зависит от того, как интерпретируются вероятности в данной формуле.

Интерпретация БайесаПравить

В интерпретации Байеса вероятность измеряет уровень доверия. Теорема Байеса связывает воедино доверие предположению до и после принятия во внимание очевидных доказательств. Например, кто-то предположил, что при подкидывании монетки она будет приземляться в 2 раза чаще решкой вверх, а орлом вниз. Первоначально степень доверия, что такое событие случится, монета упадёт именно так — 50 %. Уровень доверия может увеличиться до 70 %, если предположение будет подтверждено доказательством.[прояснить]

Для предположения (гипотезы) A и доказательства B

  • P(A) — априорная вероятность гипотезы A, первоначальный уровень доверия предположению A;
  • P(A | B) — апостериорная вероятность гипотезы A при наступлении события B;
  • отношение P(B | A)/P(B) показывает, как событие B помогает изменить уровень доверия предположению A.

Частотная интерпретацияПравить

 
Иллюстрация частотной интерпретации

В частотной интерпретации теорема Байеса исчисляет доли определённых результатов события. Предположим, что некий эксперимент проводился много раз и в некоторых случаях приводил к результатам А и/или B. Тогда:

  • P(A) — доля случаев, когда эксперимент привёл к результату A.
  • P(B) — доля случаев, когда эксперимент привёл к результату B.
  • P(B | A) — доля случаев с результатом B среди случаев с результатом А.
  • P(A | B) — доля случаев с результатом A среди случаев с результатом B.

Роль теоремы Байеса лучше всего можно понять из древовидных диаграмм, представленных справа. Диаграммы демонстрируют различный порядок распределения событий по наличию или отсутствию результатов A и B. Теорема Байеса выступает как связующее звено этих распределений.

ФормыПравить

СобытияПравить

Простая формаПравить

Для событий A и B, при условии, что P(B) ≠ 0,

P ( A B ) = P ( B A ) P ( A ) P ( B )  

Во многих дополнениях к теореме Байеса указывается, что событие B известно и нужно понять, как знание о событии B влияет на уверенность в том, что произойдёт событие A. В таком случае знаменатель последнего выражения — вероятность наступления события B — известен; мы хотим изменить A. Теорема Байеса показывает, что апостериорные вероятности пропорциональны числителю:

P ( A B ) P ( A ) P ( B A )     (пропорциональность A для данного B).
Если говорить кратко: апостериорная вероятность пропорциональна априорной вероятности (смотри Lee, 2012, Глава 1).

Если события A1, A2, …, взаимоисключающие и исчерпывающие, то есть возможно только одно из событий, одновременно два события не могут случиться вместе, мы можем определить коэффициент пропорциональности, ориентируясь на то, что их вероятности в сумме должны составлять единицу. Например, для данного события A — само событие A и его противоположность ¬A взаимоисключающие и исчерпывающие. Обозначая коэффициент пропорциональности как C мы имеем:

P ( A B ) = c P ( A ) P ( B A )     и P ( ¬ A B ) = c P ( ¬ A ) P ( B ¬ A )  .

Объединив эти две формулы, мы получим, что:

c = 1 P ( A ) P ( B A ) + P ( ¬ A ) P ( B ¬ A ) .  

Расширенная формаПравить

Часто пространство событий (таких как {Aj}) определённо в терминах P(Aj) и P(B | Aj). Именно в этом случае полезно определить P(B), применив формулу полной вероятности:

P ( B ) = j P ( B A j ) P ( A j ) ,  
P ( A i B ) = P ( B A i ) P ( A i ) j P ( B A j ) P ( A j )  

В частности

P ( A B ) = P ( B A ) P ( A ) P ( B A ) P ( A ) + P ( B ¬ A ) P ( ¬ A )  .

Непрерывные случайные величиныПравить

 
Диаграмма отображает смысл теоремы Байеса и применима к пространству событий, образованного непрерывными случайными величинами X и Y. Заметим, что по теореме Байеса для каждой точки в области существуют требования. На практике, эти требования могут быть представлены в параметрическом виде, с помощью обозначения плотности распределения как функция от x и y.

Рассмотрим пространство элементарных событий Ω, образованного двумя величинами X и Y. В принципе, теорема Байеса применяется к событиям A = {X = x} и B = {Y = y}. Однако выражения становятся равны 0 в точках, в которых переменная имеет конечную плотность вероятности. Для того, чтобы с пользой продолжать использовать теорему Байеса, можно её сформулировать в терминах подходящих плотностей (смотрите Вывод формул).

Простая формаПравить

Если X непрерывна и Y дискретна, то

f X ( x Y = y ) = P ( Y = y X = x ) f X ( x ) P ( Y = y ) .  

Если X дискретна и Y непрерывна,

P ( X = x Y = y ) = f Y ( y X = x ) P ( X = x ) f Y ( y ) .  

Если как X, так и Y непрерывны,

f X ( x Y = y ) = f Y ( y X = x ) f X ( x ) f Y ( y ) .  

Расширенная формаПравить

 
Диаграмма, показывающая, как пространство событий, образованное непрерывными случайными величинами X и Y, часто определяется.

Непрерывное пространство событий часто определяется как числитель условий A. Непрерывное пространство событий часто представляют как числитель. В дальнейшем полезно избавиться от знаменателя, используя формулу общей вероятности. Для 'fY(y), это становится интегралом:

f Y ( y ) = f Y ( y X = ξ ) f X ( ξ ) d ξ .  

Правило БайесаПравить

Правило Байеса — это преобразованная теорема Байеса:

O ( A 1 : A 2 B ) = O ( A 1 : A 2 ) Λ ( A 1 : A 2 B )  

где

Λ ( A 1 : A 2 | B ) = P ( B A 1 ) P ( B A 2 )  

Это называется правилом Байеса или отношением правдоподобия. Разница в вероятности наступления двух событий — это просто отношение вероятностей этих двух событий. Таким образом,

O ( A 1 : A 2 ) = P ( A 1 ) P ( A 2 )  ,
O ( A 1 : A 2 B ) = P ( A 1 B ) P ( A 2 B )  ,

Вывод формулПравить

Для событийПравить

Теорема Байеса может быть получена из определения вероятности:

P ( A B ) = P ( A B ) P ( B ) ,  if  P ( B ) 0 ,  
P ( B A ) = P ( A B ) P ( A ) ,  if  P ( A ) 0 ,  
P ( A B ) = P ( A B ) P ( B ) = P ( B A ) P ( A ) ,  
P ( A B ) = P ( B A ) P ( A ) P ( B ) ,  if  P ( B ) 0.  

Для случайных переменныхПравить

Для двух непрерывных случайных величин X и Y теорема Байеса может быть аналогично выведена из определения условного распределения:

f X ( x Y = y ) = f X , Y ( x , y ) f Y ( y )  
f Y ( y X = x ) = f X , Y ( x , y ) f X ( x )  
f X ( x Y = y ) = f Y ( y | X = x ) f X ( x ) f Y ( y ) .  

См. такжеПравить

ПримечанияПравить

ЛитератураПравить

Для дальнейшего изученияПравить

СсылкиПравить