Это не официальный сайт wikipedia.org 01.01.2023

Неравенство концентрации меры — Википедия

Неравенство концентрации меры

(перенаправлено с «Неравенство концентрации»)

В теории вероятностей неравенства концентрации меры дают оценки отклонения случайной величины от некоторого значения (обычно от её математического ожидания). Закон больших чисел классической теории вероятностей утверждает, что суммы независимых случайных величин, при соблюдении довольно слабых условий, с большой вероятностью оказываются близкими к их математическим ожиданиям. Такие суммы являются основными примерами случайных величин, которые сконцентрированы около своих средних значений.

Неравенство МарковаПравить

Пусть X   случайная величина, почти наверное неотрицательная. Тогда, для всякой константы a > 0  

P ( X a ) E ( X ) a  .

Отметим следующее выражение для неравенства Маркова: если Φ   — неотрицательная строго возрастающая функция, то

P ( X a ) = P ( Φ ( X ) Φ ( a ) ) E ( Φ ( X ) ) Φ ( a )  .

Неравенство ЧебышёваПравить

Для неравенства Чебышёва требуется, чтобы случайная величина X   удовлетворяла следующим условиям:

  • математическое ожидание E [ X ]   конечно;
  • дисперсия D [ X ] = E [ ( X E [ X ] ) 2 ] = σ 2   конечна.

Тогда для всякой константы a > 0  

P ( | X E [ X ] | a ) D [ X ] a 2  ,

или, равносильно,

P ( | X E [ X ] | a Std [ X ] ) 1 a 2  ,

где Std [ X ] = σ   — стандартное отклонение случайной величины X  .

Неравенство Чебышёва может рассматриваться как частный случай обобщённого неравенства Маркова, применённого к случайной величине | X E [ X ] |   с Φ ( x ) = x 2  .

Неравенство Высочанского-ПетунинаПравить

Неравенство ГауссаПравить

Границы ЧерноваПравить

Основной случай границы Чернова[1]:63–65 требует существования для X   производящей функции, определяемой как M X ( t ) := E [ e t X ]  . Основываясь на неравенстве Маркова, для каждого t > 0  

P ( X a ) E [ e t X ] e t a  ,

и для каждого t < 0  

P ( X a ) E [ e t X ] e t a  .

Границы Чернова различны для различных распределений и различных значений параметра t  .

Границы сумм независимых случайных величинПравить

Пусть X 1 , X 2 , , X n   — независимые случайные величины такие, что для всех i:

a i X i b i   почти наверное.
c i := b i a i  
i : c i C  

Пусть S n  - их сумма, E n  - математическое ожидание и D n   — дисперсия

S n := i = 1 n X i  ,
E n := E [ S n ] = i = 1 n E [ X i ]  ,
D n := D [ S n ] = i = 1 n D [ X i ]  .

Часто представляет интерес оценка разности между суммой и её математическим ожиданием. Можно использовать несколько неравенств.

1. Неравенство Хёфдинга утверждает, что

P [ | S n E n | > t ] < 2 exp ( 2 t 2 i = 1 n c i 2 ) < 2 exp ( 2 t 2 n C 2 )  .

2. Случайная величина ( S n E n )   — это специальный случай мартингала, и S 0 E 0 = 0  . Следовательно, можно использовать неравенство Азумы, что даёт чуть более слабую оценку

P [ | S n E n | > t ] < 2 exp ( t 2 2 i = 1 n c i 2 ) < 2 exp ( t 2 2 n C 2 )  .

При этом здесь появляется возможность рассматривать любые мартингалы, в том числе супермартингалы и субмартингалы.

3. Функция суммирования S n = f ( X 1 , , X n )   — частный случай функции n   переменных. Эта функция изменяется ограниченным образом: если переменная i   изменяется, то значение f   также изменяется самое большее на b i a i < C  . Следовательно, можно использовать неравенство Макдиармида[en], и оно даст аналогичную оценку

P [ | S n E n | > t ] < 2 exp ( 2 t 2 i = 1 n c i 2 ) < 2 exp ( 2 t 2 n C 2 )  .

Это уже другое обобщение неравенства Хёфдинга, поскольку здесь имеется возможность работать не только с функцией суммирования, но и с другими функциями, если они изменяются ограниченным образом.

4. Неравенство Беннета[en] даёт некоторые улучшения по сравнению с неравенством Хёфдинга, когда дисперсии слагаемых малы по сравнению с их «почти наверное-границами» C.

P [ | S n E n | > t ] 2 exp [ D n C 2 h ( C t D n ) ] ,   где h ( u ) = ( 1 + u ) log ( 1 + u ) u  

5. Первое из неравенств Бернштейна[en] утверждает, что

P [ | S n E n | > t ] < 2 exp ( t 2 / 2 D n + C t / 3 )  .

Как и неравенство Хёфдинга, для которого данная оценка является обобщением, первое неравенство Бернштейна учитывает почти наверное ограниченные случайные величины. Более того, оно позволяет получить более точную оценку при условии, что случайные величины имеют ограниченные дисперсии.

6. Границы Чернова имеют особенно простую форму для суммы независимых величин, поскольку

E [ e t S n ] = i = 1 n E [ e t X i ]  ].

Например,[2] пусть случайные величины X i   удовлетворяют неравенству X i E ( X i ) a i M   при 1 i n  , тогда для нижнего хвоста мы имеем неравенство

P [ S n E n < λ ] exp ( λ 2 2 ( D n + i = 1 n a i 2 + M λ / 3 ) )  .

Если X i   удовлетворяет неравенству X i E ( X i ) + a i + M  , то для верхнего хвоста мы имеем неравенство

P [ S n E n > λ ] exp ( λ 2 2 ( D n + i = 1 n a i 2 + M λ / 3 ) )  .

Если X i   независимы и одинаково распределены, | X i | 1   и σ 2   — дисперсия X i  , то типичный вид неравенства Чернова следующий:

P [ | S n | k σ ] 2 e k 2 / 4 n , 0 k 2 σ  .

7. Аналогичные границы можно найти в разделе: распределение Радемахера (Границы сумм)[en]

Неравенство Эфрона-СтейнаПравить

Неравенство Эфрона-Стейна (неравенство влияния, или MG-оценка дисперсии) оценивает дисперсию функции общего вида от случайных величин.

Пусть X 1 X n  , X 1 X n   независимы, a X i   и X i   имеют одинаковое распределение при всех i  .

Положим X = ( X 1 , , X n ) , X ( i ) = ( X 1 , , X i 1 , X i , X i + 1 , , X n ) .   Тогда

D ( f ( X ) ) 1 2 i = 1 n E [ ( f ( X ) f ( X ( i ) ) ) 2 ]  .

Неравенство Дворецкого-Кифера-ВольфовицаПравить

Неравенство Дворецкого-Кифера-Вольфовица[en] оценивает разность между фактической и эмпирической функциями распределения.

Пусть для данного натурального n   X 1 , X 2 , , X n   — независимые и одинаково распределённые вещественнозначные случайные величины с функцией распределения F  . Пусть F n   обозначает соответствующую эмпирическую функцию распределения, определённую формулой

F n ( x ) = 1 n i = 1 n 1 { X i x } , x R .  

Таким образом, F ( x )   — вероятность события, что отдельная случайная величина X   меньше, чем x  , а F n ( x )   — это среднее количество величин из выборки X 1 , X 2 , , X n  , реализации которых меньше, чем x  .

Тогда верны следующие односторонняя и двусторонняя оценки:

P ( sup x R ( F n ( x ) F ( x ) ) > ε ) e 2 n ε 2 , ε 1 2 n ln 2 ,  
P ( sup x R | F n ( x ) F ( x ) | > ε ) 2 e 2 n ε 2 , ε > 0.  

ПримечанияПравить

  1. Mitzenmacher, Michael. Probability and Computing: Randomized Algorithms and Probabilistic Analysis / Mitzenmacher, Michael, Upfal, Eli. — Cambridge University Press, 2005. — ISBN 0-521-83540-2. Архивная копия от 16 апреля 2021 на Wayback Machine
  2. Chung, Fan; Lu, Linyuan Old and new concentration inequalities  (неопр.). Complex Graphs and Networks. American Mathematical Society (2010). Дата обращения: 14 августа 2018. Архивировано 15 апреля 2021 года.

СсылкиПравить