Это не официальный сайт wikipedia.org 01.01.2023

Энтропийная скорость — Википедия

Энтропийная скорость

В математической теории вероятности энтропийная скорость случайного процесса является, неформально говоря, временно́й плотностью средней информации в стохастическом процессе. Для стохастических процессов со счётным индексом энтропийная скорость H ( X ) является пределом совместной энтропии[en] n членов процесса X k , поделённым на n , при стремлении n к бесконечности:

H ( X ) = lim n 1 n H ( X 1 , X 2 , X n )

если предел существует. Альтернативно, связанной величиной является:

H ( X ) = lim n H ( X n | X n 1 , X n 2 , X 1 )

Для сильно стационарных стохастических процессов H ( X ) = H ( X ) . Энтропийную скорость можно рассматривать как общее свойство стохастических источников, то есть свойство асимптотической равнораспределенности[en]. Энтропийная скорость можно использовать для оценки сложности стохастических процессов. Он используется в различных приложениях от описания сложности языков, слепого разделения сигналов до оптимизации преобразователей и алгоритмов сжатия данных. Например, критерий максимальной энтропийной скорость может быть использован для отбора признаков в машинном обучении[1].

Энтропийная скорость для марковских цепейПравить

Поскольку стохастический процесс, определяемый цепью Маркова, которая неприводима, непериодична и положительно рекурренктна, имеет стационарное распределение, энтропийная скорость независим от начального распределения.

Например, для такой цепи Маркова Y k  , определённом на счётном числе состояний, заданных матрицей переходов P i j  , H ( Y )  , задаётся выражением:

H ( Y ) = i j μ i P i j log P i j  ,

где μ i   является асимптотическим распределением[en] цепи.

Простое следствие этого определение заключается в том, что независимый одинаково распределённый случайный процесс имеет энтропийную скорость, равную энтропии любого индивидуального члена процесса.

См. такжеПравить

ПримечанияПравить

  1. Einicke, 2018, с. 1097–1103.

ЛитератураПравить