Это не официальный сайт wikipedia.org 01.01.2023

Перекрёстная энтропия — Википедия

Перекрёстная энтропия

В теории информации перекрёстная энтропия между двумя распределениями вероятностей измеряет среднее число бит, необходимых для опознания события из набора возможностей, если используемая схема кодирования базируется на заданном распределении вероятностей q , вместо «истинного» распределения p .

Перекрестная энтропия для двух распределений p и q над одним и тем же вероятностным пространством определяется следующим образом:

H ( p , q ) = d f E p [ log q ] = H ( p ) + D K L ( p q ) ,

где H ( p ) энтропия p , и D K L ( p | | q ) расстояние Кульбака—Лейблера от p до q (также известная как относительная энтропия).

Для дискретного p и q это означает

H ( p , q ) = x p ( x ) log q ( x ) .

Ситуация для непрерывного распределения аналогична:

H ( p , q ) = X p ( x ) log q ( x ) d x .

Нужно учесть, что, несмотря на формальную аналогию функционалов для непрерывного и дискретного случаев, они обладают разными свойствами и имеют разный смысл. Непрерывный случай имеет ту же специфику, что и понятие дифференциальной энтропии.

NB: Запись H ( p , q ) иногда используется как для перекрёстной энтропии, так и для совместной энтропии p и q .

Минимизация перекрёстной энтропииПравить

Минимизация перекрёстной энтропии часто используется в оптимизации и для оценки вероятностей редких событий.


См. такжеПравить