Это не официальный сайт wikipedia.org 01.01.2023

Независимость (теория вероятностей) — Википедия

Независимость (теория вероятностей)

В теории вероятностей два случайных события называются независимыми, если наступление одного из них не изменяет вероятность наступления другого. Аналогично, две случайные величины называют независимыми, если известное значение одной из них не дает информации о другой.

Выпадение очков на костях — независимые события

Независимые событияПравить

Будем считать, что дано фиксированное вероятностное пространство ( Ω , F , P )  .

Определение 1. Два события A , B F   независимы, если

появление события A   не меняет вероятности появления события  B  .

Замечание 1. В том случае, если вероятность одного события, скажем B  , ненулевая, то есть P ( B ) > 0  , определение независимости эквивалентно:

P ( A B ) = P ( A ) ,  

то есть условная вероятность события A   при условии B   равна безусловной вероятности события  A  .

Определение 2. Пусть есть семейство (конечное или бесконечное) случайных событий { A i } i I F  , где I   — произвольное индексное множество. Тогда эти события попарно независимы, если любые два события из этого семейства независимы, то есть

P ( A i A j ) = P ( A i ) P ( A j ) , i j .  

Определение 3. Пусть есть семейство (конечное или бесконечное) случайных событий { A i } i I F  . Тогда эти события совместно независимы, если для любого конечного набора этих событий { A i k } k = 1 N   верно:

P ( A i 1 A i N ) = P ( A i 1 ) P ( A i N ) .  

Замечание 2. Совместная независимость, очевидно, влечет попарную независимость. Обратное, вообще говоря, неверно.

Пример 1. Пусть брошены три уравновешенные монеты. Определим события следующим образом:

  • A 1  : монеты 1 и 2 упали одной и той же стороной;
  • A 2  : монеты 2 и 3 упали одной и той же стороной;
  • A 3  : монеты 1 и 3 упали одной и той же стороной;

Легко проверить, что любые два события из этого набора независимы. Все же три в совокупности зависимы, ибо зная, например, что события A 1   и A 2   произошли, мы знаем точно, что A 3   также произошло. Более формально: P ( A i A j ) = 1 4 = 1 2 1 2 = P ( A i ) P ( A j ) i j  . С другой стороны, P ( A 1 A 2 A 3 ) = 1 4 1 2 1 2 1 2 = P ( A 1 ) P ( A 2 ) P ( A 3 )  .

Независимые сигма-алгебрыПравить

Определение 4. Пусть A 1 , A 2 F   две сигма-алгебры на одном и том же вероятностном пространстве. Они называются независимыми, если любые их представители независимы между собой, то есть:

P ( A 1 A 2 ) = P ( A 1 ) P ( A 2 ) , A 1 A 1 , A 2 A 2  .

Если вместо двух имеется целое семейство (возможно бесконечное) сигма-алгебр, то для него определяется попарная и совместная независимость очевидным образом.

Независимые случайные величиныПравить

ОпределенияПравить

Определение 5. Пусть дано семейство случайных величин ( X i ) i I  , так что X i : Ω R , i I  . Тогда эти случайные величины попарно независимы, если попарно независимы порождённые ими сигма-алгебры { σ ( X i ) } i I  . Случайные величины независимы в совокупности, если таковы порождённые ими сигма-алгебры.

Следует отметить, что на практике, если это не выводится из контекста, считается, что независимость означает независимость в совокупности.

Определение, данное выше, эквивалентно любому другому из нижеперечисленных. Две случайные величины X , Y   независимы тогда и только тогда, когда:

  • Для любых A , B B ( R )  :
P ( X A , Y B ) = P ( X A ) P ( Y B ) = P ( { ω : X ( ω ) A ,   ω Ω } ) P ( { ω : Y ( ω ) B ,   ω Ω } ) .  
  • Для любых борелевских функций f , g : R R   случайные величины f ( X ) , g ( Y )   независимы.
  • Для любых ограниченных борелевских функций f , g : R R  :
E [ f ( X ) g ( Y ) ] = E [ f ( X ) ] E [ g ( Y ) ] .  

Свойства независимых случайных величинПравить

  • Пусть P X , Y   — распределение случайного вектора ( X , Y )  , P X   — распределение X   и P Y   — распределение Y  . Тогда X , Y   независимы тогда и только тогда, когда
P X , Y = P X P Y ,  

где   обозначает (прямое) произведение мер.

F X , Y ( x , y ) = F X ( x ) F Y ( y ) .  
  • Пусть случайные величины X , Y   дискретны. Тогда они независимы тогда и только тогда, когда
P ( X = i , Y = j ) = P ( X = i ) P ( Y = j ) .  
  • Пусть случайные величины X , Y   совместно абсолютно непрерывны, то есть их совместное распределение имеет плотность f X , Y ( x , y )  . Тогда они независимы тогда и только тогда, когда
f X , Y ( x , y ) = f X ( x ) f Y ( y ) , ( x , y ) R 2  ,

где f X ( x ) , f Y ( y )   — плотности случайных величин X   и Y   соответственно.

n-арная независимостьПравить

В общем случае для любого n 2   можно говорить о n  -арной независимости. Идея схожа: семейство случайных величин является n  -арно независимым, если любое его подмножество мощности n   является независимым в совокупности. n  -арная независимость использовалась в теоретической информатике для доказательства теоремы о задаче MAXEkSAT.

См. такжеПравить

СсылкиПравить