Это не официальный сайт wikipedia.org 01.01.2023

Цепь Маркова — Википедия

Цепь Маркова

(перенаправлено с «Матрица переходных вероятностей»)

Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, где вероятность наступления каждого события зависит только от состояния, достигнутого в предыдущем событии[1]. Характеризуется тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Названа в честь А. А. Маркова (старшего), который впервые ввёл это понятие в работе 1906 года.[2]

Пример цепи с двумя состояниями

Цепь Маркова с дискретным временемПравить

ОпределениеПравить

Последовательность дискретных случайных величин { X n } n 0   называется простой цепью Маркова (с дискретным временем), если

P ( X n + 1 = i n + 1 X n = i n , X n 1 = i n 1 , , X 0 = i 0 ) = P ( X n + 1 = i n + 1 X n = i n )  .

Таким образом, в простейшем случае условное распределение последующего состояния цепи Маркова зависит только от текущего состояния и не зависит от всех предыдущих состояний (в отличие от цепей Маркова высших порядков).

Область значений случайных величин { X n }   называется простра́нством состоя́ний цепи, а номер n   — номером шага.

Переходная матрица и однородные цепиПравить

Матрица P ( n )  , где

P i j ( n ) P ( X n + 1 = j X n = i )  

называется ма́трицей перехо́дных вероя́тностей на n  -м шаге, а вектор p = ( p 1 , p 2 , )  , где

p i P ( X 0 = i )  

нача́льным распределе́нием цепи Маркова.

Очевидно, матрица переходных вероятностей является стохастической справа, то есть

j P i j ( n ) = 1 , n N  .

Цепь Маркова называется одноро́дной, если матрица переходных вероятностей не зависит от номера шага, то есть

P i j ( n ) = P i j , n N  .

В противном случае цепь Маркова называется неоднородной. В дальнейшем будем предполагать, что имеем дело с однородными цепями Маркова.

Конечномерные распределения и матрица перехода за n шаговПравить

Из свойств условной вероятности и определения однородной цепи Маркова получаем:

P ( X n = i n , , X 0 = i 0 ) = P i n 1 , i n P i 0 , i 1 P i 0  ,

откуда вытекает специальный случай уравнения Колмогорова — Чепмена:

P ( X n = i n X 0 = i 0 ) = ( P n ) i 0 , i n  ,

то есть матрица переходных вероятностей за n   шагов однородной цепи Маркова есть n  -я степень матрицы переходных вероятностей за 1 шаг. Наконец,

P ( X n = i n ) = ( ( P T ) n p ) i n  .

Типы состоянийПравить

ПримерыПравить

Цепь Маркова с непрерывным временемПравить

ОпределениеПравить

Семейство дискретных случайных величин { X t } t 0   называется цепью Маркова (с непрерывным временем), если

P ( X t + h = x t + h X s = x s , 0 < s t ) = P ( X t + h = x t + h X t = x t )  .

Цепь Маркова с непрерывным временем называется однородной, если

P ( X t + h = x t + h X t = x t ) = P ( X h = x h X 0 = x 0 )  .

Матрица переходных функций и уравнение Колмогорова — ЧепменаПравить

Аналогично случаю дискретного времени, конечномерные распределения однородной цепи Маркова с непрерывным временем полностью определены начальным распределением

p = ( p 1 , p 2 , ) , p i = P ( X 0 = i ) , i = 1 , 2 ,  

и ма́трицей перехо́дных фу́нкций (переходных вероятностей)

P ( h ) = ( P i j ( h ) ) = P ( X h = j X 0 = i )  .

Матрица переходных вероятностей удовлетворяет уравнению Колмогорова — Чепмена: P ( t + s ) = P ( t ) P ( s )   или

P i j ( t + s ) = k P i k ( t ) P k j ( s ) .  

Матрица интенсивностей и дифференциальные уравнения КолмогороваПравить

По определению матрица интенсивностей Q = lim h 0 P ( h ) I h  , или, что эквивалентно,

Q = ( q i j ) = ( d P i j ( h ) d h ) h = 0  .

Из уравнения Колмогорова — Чепмена следуют два уравнения:

Для обоих уравнений начальным условием выбирается P ( 0 ) = I  . Соответствующее решение P ( t ) = exp ( Q t ) .  

Свойства матриц P и QПравить

Для любого t > 0   матрица P ( t )   обладает следующими свойствами:

  1. Матричные элементы P ( t )   неотрицательны: P i j ( t ) 0   (неотрицательность вероятностей).
  2. Сумма элементов в каждой строке P ( t )   равна 1: j P i j ( t ) = 1   (полная вероятность), то есть матрица P ( t )   является стохастической справа (или по строкам).
  3. Все собственные числа λ   матрицы P ( t )   не превосходят 1 по абсолютной величине: | λ | 1  . Если | λ | = 1  , то λ = 1  .
  4. Собственному числу λ = 1   матрицы P ( t )   соответствует как минимум один неотрицательный левый собственный вектор-строка (равновесие): ( p 1 , p 2 , . . . ) ;   p i 0 ;   i p i = 1 ;   i p i P i j ( t ) = p j  .
  5. Для собственного числа λ = 1   матрицы P ( t )   все корневые векторы являются собственными, то есть соответствующие жордановы клетки тривиальны.

Матрица Q   обладает следующими свойствами:

  1. Внедиагональные матричные элементы Q   неотрицательны: q i j 0 i j  .
  2. Диагональные матричные элементы Q   неположительны: q i i 0  .
  3. Сумма элементов в каждой строке Q   равна 0: j q i j = 0.  
  4. Действительная часть всех собственных чисел μ   матрицы Q   неположительна: R e ( μ ) 0  . Если R e ( μ ) = 0  , то μ = 0.  
  5. Собственному числу μ = 0   матрицы Q   соответствует как минимум один неотрицательный левый собственный вектор-строка (равновесие): ( p 1 , p 2 , . . . ) ;   p i 0 ;   i p i = 1 ;   i p i q i j = 0.  
  6. Для собственного числа μ = 0   матрицы Q   все корневые векторы являются собственными, то есть соответствующие жордановы клетки тривиальны.

Граф переходов, связность и эргодические цепи МарковаПравить

Для цепи Маркова с непрерывным временем строится ориентированный граф переходов (кратко — граф переходов) по следующим правилам:

  • Множество вершин графа совпадает со множеством состояний цепи.
  • Вершины i , j ( i j )   соединяются ориентированным ребром i j  , если q i j > 0   (то есть интенсивность потока из i  -го состояния в j  -е положительна).

Топологические свойства графа переходов связаны со спектральными свойствами матрицы Q  . В частности, для конечных цепей Маркова верны следующие теоремы:

  • Следующие три свойства А, Б, В конечной цепи Маркова эквивалентны (обладающие ими цепи иногда называют слабо эргодическими):
А. Для любых двух различных вершин графа переходов i , j ( i j )   найдется такая вершина k   графа («общий сток»), что существуют ориентированные пути от вершины i   к вершине k   и от вершины j   к вершине k  . Замечание: возможен случай k = i   или k = j  ; в этом случае тривиальный (пустой) путь от i   к i   или от j   к j   также считается ориентированным путём.
Б. Нулевое собственное число матрицы Q   невырождено.
В. При t   матрица P ( t )   стремится к матрице, у которой все строки совпадают (и совпадают, очевидно, с равновесным распределением).
  • Следующие пять свойств А, Б, В, Г, Д конечной цепи Маркова эквивалентны (обладающие ими цепи называют эргодическими):
А. Граф переходов цепи ориентированно связен.
Б. Нулевое собственное число матрицы Q   невырождено и ему соответствует строго положительный левый собственный вектор (равновесное распределение).
В. Для некоторого t > 0   матрица P ( t )   строго положительна (то есть P i j ( t ) > 0   для всех i , j  ).
Г. Для всех t > 0   матрица P ( t )   строго положительна.
Д. При t   матрица P ( t )   стремится к строго положительной матрице, у которой все строки совпадают (и совпадают, очевидно, с равновесным распределением).

ПримерыПравить

 
Рис. Примеры графов переходов для цепей Маркова: a) цепь не является слабо эргодической (не существует общего стока для состояний A 2 , A 3  ); b) слабо эргодическая цепь (граф переходов не является ориентированно связным) c) эргодическая цепь (граф переходов ориентированно связан).

Рассмотрим цепи Маркова с тремя состояниями и с непрерывным временем, соответствующие графам переходов, представленным на рис. В случае (a) отличны от нуля только следующие недиагональные элементы матрицы интенсивностей — q 12 , q 13  , в случае (b) отличны от нуля только q 12 , q 31 q 32  , а в случае (c) — q 12 , q 31 q 23  . Остальные элементы определяются свойствами матрицы Q   (сумма элементов в каждой строке равна 0). В результате для графов (a), (b), (c) матрицы интенсивностей имеют вид: Q a = ( ( q 12 + q 13 ) q 12 q 13 0 0 0 0 0 0 ) ,   Q b = ( q 12 q 12 0 0 0 0 q 31 q 32 ( q 31 + q 32 ) ) ,   Q c = ( q 12 q 12 0 0 q 23 q 23 q 31 0 q 31 ) ,  

Основное кинетическое уравнениеПравить

Основное кинетическое уравнение описывает эволюцию распределения вероятностей в цепи Маркова с непрерывным временем. «Основное уравнение» здесь — не эпитет, а перевод термина англ. Master equation. Для вектора-строки распределения вероятностей π   основное кинетическое уравнение имеет вид:

d π d t = π Q  

и совпадает, по существу, с прямым уравнением Колмогорова. В физической литературе чаще используют векторы-столбцы вероятностей и записывают основное кинетическое уравнение в виде, который явно использует закон сохранения полной вероятности:

d p i d t = j , j i ( T i j p j T j i p i ) ,  

где T i j = q j i .  

Если для основного кинетического уравнения существует положительное равновесие p i > 0  , то его можно записать в форме

d p i d t = j , j i T i j p j ( p j p j p i p i ) .  

Функции Ляпунова для основного кинетического уравненияПравить

Для основного кинетического уравнения существует богатое семейство выпуклых функций Ляпунова — монотонно меняющихся со временем функций распределения вероятностей. Пусть h ( x ) ( x > 0 )   — выпуклая функция одного переменного. Для любого положительного распределения вероятностей ( p i > 0  ) определим функцию Моримото H h ( p )  :

H h ( p ) = i p i h ( p i p i )  .

Производная H h ( p )   по времени, если p ( t )   удовлетворяет основному кинетическому уравнению, есть

d H h ( p ( t ) ) d t = i , j i j T i j p j [ h ( p i p i ) h ( p j p j ) + h ( p i p i ) ( p j p j p i p i ) ] 0  .

Последнее неравенство справедливо из-за выпуклости h ( x )  .

Примеры функций Моримото H h ( p )  Править

  • h ( x ) = | x 1 |  , H h ( p ) = i | p i p i |  ;
эта функция — расстояние от текущего распределения вероятностей до равновесного в l 1  -норме. Сдвиг по времени является сжатием пространства вероятностных распределений в этой норме. (О свойствах сжатий см. статью Теорема Банаха о неподвижной точке.)
  • h ( x ) = x ln x  , H h ( p ) = i p i ln ( p i p i )  ;
эта функция — (минус) энтропия Кульбака (см. Расстояние Кульбака — Лейблера). В физике она соответствует свободной энергии, деленной на k T   (где k   — постоянная Больцмана, T   — абсолютная температура):
если p i = exp ( μ 0 U i / k T )   (распределение Больцмана), то
H h ( p ) = i p i ln p i + i p i U i / k T μ 0 = ( U T S ) / k T  .
  • h ( x ) = ln x  , H h ( p ) = i p i ln ( p i p i )  ;
эта функция — аналог свободной энергии для энтропии Бурга, широко используемой в обработке сигналов:
S B u r g = i ln p i  
  • h ( x ) = ( x 1 ) 2 2  , H h ( p ) = i ( p i p i ) 2 2 p i  ;
это квадратичное приближение для (минус) энтропии Кульбака вблизи точки равновесия. С точностью до постоянного во времени слагаемого эта функция совпадает с (минус) энтропией Фишера, которую даёт следующий выбор,
  • h ( x ) = x 2 2  , H h ( p ) = i p i 2 2 p i  ;
это (минус) энтропия Фишера.
  • h ( x ) = x q 1 q 1 , q > 0 , q 1  , H h ( p ) = 1 q 1 [ i p i ( p i p i ) q 1 ]  ;
это один из аналогов свободной энергии для энтропии Тсаллиса[en].
S q T s a l l i s ( p ) = 1 q 1 ( 1 i p i q ) .  
служит основой для статистической физики неэкстенсивных величин. При q 1   она стремится к классической энтропии Больцмана — Гиббса — Шеннона, а соответствующая функция Моримото — к (минус) энтропии Кульбака.

Практическое применениеПравить

Одной из первых научных дисциплин, в которой цепи Маркова нашли практическое применение, стала лингвистика (в частности текстология). Сам Марков для иллюстрации своих результатов исследовал зависимость в чередовании гласных и согласных в первых главах «Евгения Онегина» и «Детских годов Багрова-внука»[3].

ПримечанияПравить

  1. "Markov chain | Definition of Markov chain in US English by Oxford Dictionaries" (англ.). Oxford Dictionaries | English.. Lexico Dictionaries | English (14 декабря 2017). Дата обращения: 1 апреля 2020.
  2. Gagniuc, Paul A. Markov Chains: From Theory to Implementation and Experimentation (англ.). — USA, NJ: John Wiley & Sons, 2017. — P. 2—8. — ISBN 978-1-119-38755-8.
  3. Майстров, Л. Е. Развитие понятия вероятности. — Наука, 1980. — С. 188. — 269 с.

ЛитератураПравить

  • Кельберт М. Я., Сухов Ю. М. Вероятность и статистика в примерах и задачах. Т. ІІ: Марковские цепи как отправная точка теории случайных процессов и их приложения. — М.: МЦНМО, 2010. — 295 с. — ISBN 978-5-94057-252-7.
  • Марков А. А., Распространение закона больших чисел на величины, зависящие друг от друга. — Известия физико-математического общества при Казанском университете. — 2-я серия. — Том 15. (1906) — С. 135—156.
  • Маркова цепь / А. В. Прохоров // Большая российская энциклопедия : [в 35 т.] / гл. ред. Ю. С. Осипов. — М. : Большая российская энциклопедия, 2004—2017.
  • Kemeny J. G., Snell J. L., Finite Markov chains. — The University Series in Undergraduate Mathematics. — Princeton: Van Nostrand, 1960
    • Перевод: Кемени Дж. Дж., Снелл Дж. Л. Конечные цепи Маркова. — М.: Наука. 1970. — 272 с.
  • Чжун Кай-лай Однородные цепи Маркова. Перев. с англ. — М.: Мир, 1964. — 425 с.
  • Нуммелин Э., Общие неприводимые цепи Маркова и неотрицательные операторы. — М.: Мир, 1989. — 207 с.
  • Morimoto T., Markov processes and the H-theorem. — J. Phys. Soc. Jap. 12 (1963), 328—331.
  • Яглом А. М., Яглом И. М., Вероятность и информация. — М., Наука, 1973. — 512 с.
  • Kullback S., Information theory and statistics. — Wiley, New York, 1959.
  • Burg J.P., The Relationship Between Maximum Entropy Spectra and Maximum Likelihood Spectra, Geophysics 37(2) (1972), 375—376.
  • Tsallis C., Possible generalization of Boltzmann-Gibbs statistics. J. Stat. Phys. 52 (1988), 479—487.
  • Рудой Ю. Г., Обобщенная информационная энтропия и неканоническое распределение в равновесной статистической механике, ТМФ, 135:1 (2003), 3-54.
  • Gorban, Alexander N.; Gorban, Pavel A.; Judge, George. Entropy: The Markov Ordering Approach. Entropy 12, no. 5 (2010), 1145—1193.

СсылкиПравить