Это не официальный сайт wikipedia.org 01.01.2023

Энтропия Цаллиса — Википедия

Энтропия Цаллиса

В статистической термодинамике энтропия Цаллиса — обобщение стандартной энтропии Больцмана—Гиббса, предложенное Константино Цаллисом (Constantino Tsallis)[1] в 1988 г. для случая неэкстенсивных (неаддитивных) систем. Его гипотеза базируется на предположении, что сильное взаимодействие в термодинамически аномальной системе приводит к новым степеням свободы, к совершенно иной статистической физике небольцмановского типа.

Определение и основные сведенияПравить

Пусть P   — распределение вероятностей и μ   — любая мера на X  , для которой существует абсолютно непрерывная относительно μ   функция p = d P d μ  . Тогда энтропия Цаллиса определяется как

S q ( P ) = k q 1 ( 1 X p q d μ ) .  

В частности, для дискретной системы, находящейся в одном из N   доступных состояний с распределением вероятностей P = { p i | i = 1 , 2 , . . . , N }  ,

S q ( P ) = k q 1 ( 1 i = 1 N p i q )  .

В случае лебеговой меры μ = x  , т.е. когда P   — непрерывное распределение с плотностью p ( x )  , заданной на множестве X  ,

S q ( P ) = k q 1 ( 1 X p q ( x ) d x )  .

В этих формулах k   — некоторая положительная константа, которая определяет единицу измерения энтропии и в физических формулах служит для связки размерностей, как, например, постоянная Больцмана. С точки зрения задачи оптимизации энтропии данная константа является несущественной, поэтому для простоты часто полагают k = 1  .

Параметр q   — безразмерная величина ( q R  ), которая характеризует степень неэкстенсивности (неаддитивности) рассматриваемой системы. В пределе при q 1  , энтропия Цаллиса сходится к энтропии Больцмана—Гиббса. При q > 0   энтропия Цаллиса является вогнутым функционалом от распределения вероятностей и, как обычная энтропия, достигает максимума при равномерном распределении. При q < 0   функционал является выпуклым и при равномерном распределении достигает минимума. Поэтому для поиска равновесного состояния изолированной системы при q > 0   энтропию Цаллиса нужно максимизировать, а при q < 0   — минимизировать[2]. Значение параметра q = 0   — это вырожденный случай энтропии Цаллиса, когда она не зависит от P  , а зависит лишь от μ ( X )  , т.е. от размера системы (от N   в дискретном случае).

В непрерывном случае иногда требуют, чтобы носитель случайной величины X   был безразмерным[3]. Это обеспечивает корректность функционала энтропии с точки зрения размерности.

Исторически первыми выражение для энтропии Цаллиса (точнее, для частного её случая при k = q 1 1 2 1 q  ) получили Дж. Хаврда и Ф. Чарват (J. Havrda and F. Charvát)[4] в 1967 г. Вместе с тем при q > 0   энтропия Цаллиса является частным случаем f-энтропии[5] (при q < 0   f-энтропией является величина, противоположная энтропии Цаллиса).

Некоторые соотношенияПравить

Энтропия Цаллиса может быть получена из стандартной формулы для энтропии Больцмана—Гиббса путём замены используемой в ней функции ln x   на функцию

ln q x = x q 1 1 q 1  

— так называемый q-деформированный логарифм или просто q-логарифм (в пределе при q 1   совпадающий с логарифмом)[6]. К. Цаллис использовал[7] несколько иную формулу q-логарифма, которая сводится к приведённой здесь заменой параметра q   на 2 q  .

Ещё один способ[7] получить энтропию Цаллиса основан на соотношении, справедливом для энтропии Больцмана—Гиббса:

S ( P ) = k lim t 1 d d t i = 1 N p i t  .

Нетрудно видеть, что если заменить в этом выражении обычную производную на q-производную (известную также как производная Джексона), получается энтропия Цаллиса:

S q ( P ) = k lim t 1 ( d d t ) q i = 1 N p i t  .

Аналогично для непрерывного случая:

S q ( P ) = k lim t 1 ( d d t ) q X p t ( x ) d x  .

Неэкстенсивность (неаддитивность)Править

Пусть имеются две независимых системы A   и B  , т.е. такие системы, что в дискретном случае совместная вероятность появления двух любых состояний a A   и b B   в этих системах равна произведению соответствующих вероятностей:

Prob ( a , b ) = Prob ( a ) Prob ( b )  ,

а в непрерывном — совместная плотность распределения вероятностей равна произведению соответствующих плотностей:

p A B ( x , y ) = p A ( x ) p B ( y )  ,

где x X  , y Y   — области значений случайной величины в системах A   и B   соответственно.

В отличие от энтропии Больцмана—Гиббса и энтропии Реньи, энтропия Цаллиса, вообще говоря, не обладает аддитивностью, и для совокупности систем справедливо[7]

S q ( A B ) = S q ( A ) + S q ( B ) + 1 q k S q ( A ) S q ( B )  .

Поскольку условие аддитивности для энтропии имеет вид

S ( A B ) = S ( A ) + S ( B )  ,

отклонение параметра q   от 1   характеризует неэкстенсивность (неаддитивность) системы. Энтропия Цаллиса является экстенсивной только при q = 1  .

Дивергенция ЦаллисаПравить

Наряду с энтропией Цаллиса, рассматривают также семейство несимметричных мер расхождения (дивергенций) Цаллиса между распределениями вероятностей с общим носителем. Для двух дискретных распределений с вероятностями A = { a i }   и B = { b i }  , i = 1 , 2 , . . . , N  , дивергенция Цаллиса определяется как[8]

D q ( A , B ) = k q 1 ( i = 1 N a i q b i 1 q 1 )  .

В непрерывном случае, если распределения A   и B   заданы плотностями a ( x )   и b ( x )   соответственно, где x X  ,

D q ( A , B ) = k q 1 ( X a q ( x ) b 1 q ( x ) d x 1 )  .

В отличие от энтропии Цаллиса, дивергенция Цаллиса определена при q > 0  . Несущественная положительная константа k   в этих формулах, как и для энтропии, задаёт единицу измерения дивергенции и часто опускается (полагается равной 1  ). Дивергенция Цаллиса является частным случаем α-дивергенции[9] (с точностью до несущественной константы) и, как α-дивергенция, является выпуклой по обоим аргументам при всех q > 0  . Дивергенция Цаллиса также является частным случаем f-дивергенции.

Дивергенция Цаллиса может быть получена из формулы для дивергенции Кульбака—Лейблера путём подстановки в неё q-деформированного логарифма, определённого выше, вместо функции ln x  . В пределе при q 1   дивергенция Цаллиса сходится к дивергенции Кульбака—Лейблера.

Связь формализмов Реньи и ЦаллисаПравить

Энтропия Реньи и энтропия Цаллиса эквивалентны[8][10] с точностью до монотонного преобразования, не зависящего от распределения состояний системы. То же касается соответствующих дивергенций. Рассмотрим, к примеру, энтропию Реньи для системы P   с дискретным набором состояний { p i | i = 1 , 2 , . . . , N }  :

S ~ q ( P ) = k ~ 1 q ln i = 1 N p i q  , q 0  .

Дивергенция Реньи для дискретных распределений с вероятностями A = { a i }   и B = { b i }  , i = 1 , 2 , . . . , N  :

D ~ q ( A , B ) = k ~ q 1 ln i = 1 N a i q b i 1 q  , q > 0  .

В этих формулах положительная константа k ~   имеет тот же смысл, что и k   в формализме Цаллиса.

Нетрудно видеть, что

S q ( P ) = T 2 q ( S ~ q ( P ) )  ,
D q ( A , B ) = T q ( D ~ q ( A , B ) )  ,

где функция

T q ( x ) = k exp ( x ( q 1 ) / k ~ ) 1 q 1  

определена на всей числовой оси и непрерывно возрастает по x   (при q = 1   полагаем T q ( x ) = k k ~ x  ). Приведённые соотношения имеют место и в непрерывном случае.

Несмотря на наличие этой связи, следует помнить, что функционалы в формализмах Реньи и Цаллиса обладают разными свойствами:

  • энтропия Цаллиса, вообще говоря, не аддитивна, тогда как энтропия Реньи аддитивна при всех q > 0  ;
  • энтропия и дивергенция Цаллиса являются вогнутыми или выпуклыми (кроме q = 0  ), тогда как энтропия и дивергенция Реньи, вообще говоря, не обладают ни тем, ни другим свойством[11].

ПримечанияПравить

  1. Tsallis, C. Possible generalization of Boltzmann-Gibbs statistics (англ.) // Journal of Statistical Physics  (англ.) (рус. : journal. — 1988. — Vol. 52. — P. 479—487. — doi:10.1007/BF01016429. — Bibcode1988JSP....52..479T.
  2. Зарипов Р. Г. Новые меры и методы в теории информации. — Казань: Изд-во Казан. гос. техн. ун-та, 2005. — 364 с.
  3. Plastino A., Plastino A. R. Tsallis Entropy and Jaynes' Information Theory Formalism // Brazilian Journal of Physics. — 1999. — Т. 29. — С. 1—35.
  4. Havrda, J.; Charvát, F. Quantification method of classification processes. Concept of structural α-entropy (англ.) // Kybernetika : journal. — 1967. — Vol. 3, no. 1. — P. 30—35.
  5. Csiszár I. A class of measures of informativity of observation channels. // Periodica Math. Hungar. — 1972. — Т. 2. — С. 191—213.
  6. Oikonomou T., Bagci G. B. A note on the definition of deformed exponential and logarithm functions // Journal of Mathematical Physics. — 2009. — Т. 50, вып. 10. — С. 1—9.
  7. 1 2 3 Tsallis C. Nonextensive statistics: Theoretical, experimental and computational evidences and connections // Brazilian Journal of Physics. — 1999. — Т. 29, вып. 1. — С. 53.
  8. 1 2 Nielsen F., Nock R. On Renyi and Tsallis entropies and divergences for exponential families // arXiv:1105.3259. — 2011. — С. 1—7.
  9. Waters A. Alpha divergence // STAT 631 / ELEC 633:Graphical Models. — Rice Univercity, 2008. — С. 1—4.
  10. Sonnino G., Steinbrecher G.Sonnino A. The Rényi entropy of Lévy distribution // Physics AUC. — 2013. — Т. 23. — С. 10—17.
  11. Xu D., Erdogmuns D. Renyi’s Entropy, Divergence and Their Nonparametric Estimator // J.C. Principe, Information Theoretic Learning: Renyi’s Entropy and Kernel Perspectives. — Springer Science+Business Media, LLC, 2010. — С. 47—102.