Это не официальный сайт wikipedia.org 01.01.2023

Информация Фишера — Википедия

Информация Фишера

(перенаправлено с «Информационная матрица»)

Информа́ция Фи́шераматематическое ожидание квадрата относительной скорости изменения условной плотности вероятности p ( x | θ ) [1]. Эта функция названа в честь описавшего её Рональда Фишера.

ОпределениеПравить

Пусть f ( θ , x 1 , , x n )   — плотность распределения для данной статистической модели. Тогда если определена функция

I n ( θ ) = E θ ( L ( θ , x 1 , , x n ) θ ) 2 , L = i = 1 n ln f ( θ , x i )  ,

где L ( θ , x 1 , , x n )   — логарифмическая функция правдоподобия, а E θ   — математическое ожидание по x   при данном θ  , то она называется информацией Фишера для данной статистической модели при n   независимых испытаниях.

Если ln f ( x ; θ )   дважды дифференцируем по θ  , и при определенных условиях регулярности, информацию Фишера можно переписать как [2]

I n ( θ ) = E θ ( L ( θ , X ) θ ) 2 = E θ ( 2 L ( θ , X ) θ 2 )  

Для регулярных моделей: E θ ( L ( θ , x 1 , , x n ) θ ) = 0   (В этом и состоит определение регулярности).

В этом случае, поскольку математическое ожидание функции вклада выборки равно нулю, выписанная величина равна её дисперсии.

Фишеровским количеством информации, содержащемся в одном наблюдении называют:

I i ( θ ) = E θ ( ln f ( θ , x i ) θ ) 2  .

Для регулярных моделей все I i ( θ )   равны между собой.

Если выборка состоит из одного элемента, то информация Фишера записывается так:

I ( θ ) = E θ ( ln f ( θ , x ) θ ) 2  .

Из условия регулярности, а также из того, что в случае независимости случайных величин дисперсия суммы равна сумме дисперсий, следует, что для n   независимых испытаний I n ( θ ) = n I ( θ )  .

СвойстваПравить

  • Из указанного выше свойства дисперсий следует, что в случае независимости случайных величин ξ 1 ( θ , x ) , , ξ n ( θ , x )   (рассматриваемых в одной статистической модели) информация Фишера их суммы равна сумме информации Фишера каждой из них.

Сохранение информации достаточной статистикойПравить

В общем случае, если T = t ( X )   — статистика выборки X, то

I T ( θ ) I X ( θ )  

Причем равенство достигается тогда и только тогда, когда T является достаточной статистикой.

Достаточная статистика содержит столько же информации Фишера, сколько и вся выборка X. Это может быть показано с помощью факторизационного критерия Неймана для достаточной статистики. Если статистика T ( X )   достаточна для параметра θ  , то существуют функции g и h такие, что:

f ( X ; θ ) = g ( T ( X ) , θ ) h ( X )  

Равенство информации следует из:

θ ln [ f ( X ; θ ) ] = θ ln [ g ( T ( X ) ; θ ) ]  

что следует из определения информации Фишера и независимости h ( X )   от θ  .

См. такжеПравить

Другие меры, используемые в теории информации:

ПримечанияПравить

  1. Леман, 1991, с. 112.
  2. Lehmann, E. L.  (англ.) (рус.; Casella, G. Theory of Point Estimation (неопр.). — 2nd ed. — Springer, 1998. — ISBN 0-387-98502-6. , eq. (2.5.16).

ЛитератураПравить

  • Леман Э. Теория точечного оценивания. — М.: Наука, 1991. — 448 с. — ISBN 5-02-013941-6.