Это не официальный сайт wikipedia.org 01.01.2023

Задача о разорении игрока — Википедия

Задача о разорении игрока

Задача о разорении игрока — задача из области теории вероятностей. Подробно рассматривалась российским математиком А. Н. Ширяевым в монографии «Вероятность»[1].

Траектории справедливой игры длиною 1000 шагов; коридор блуждания частицы обозначен горизонтальными линиями

ФормулировкаПравить

За столом сидят два игрока. У первого в распоряжении находится A   ( A < 0 , A > 0 )   рублей, у второго в распоряжении находится B   ( B > 0 )   рублей. Перед ними на столе лежит асимметричная монета (вероятность, что выпадет аверс, может равняться любому числу от 0 до 1 включительно). Если на монете выпадает аверс, то рубль выигрывает первый игрок (второй игрок выплачивает первому 1 рубль), а если выпадает реверс, то первый игрок платит второму один рубль. Требуется найти вероятность того, что один из игроков проиграется в ноль за n   шагов, и вероятность проигрыша каждого азартного игрока. Также необходимо вычислить среднюю длину игры.

Данная ситуация может быть смоделирована подобным образом: имеется блуждающая частица и коридор [ A ; B ]  . Рассматривается вероятность того, что частица выйдет из коридора за n   шагов (проскочит через верхнюю или нижнюю стенку).

Схема БернуллиПравить

Рассмотрим схему Бернулли с n   испытаниями.

Пусть ( Ω , A , P )   — вероятностное пространство, где

В выражении выше число выпавших единиц можно найти так: ν ( ω ) = i = 1 n x i + n 2  .

Введём последовательность бернуллиевских случайных величин:

i = 1 ; n ¯ , ξ i ( ω ) : P ( { ξ i = 1 } ) = p , P ( { ξ i = 1 } ) = q , p + q = 1.  

Подзадача о нормированности вероятностиПравить

Доказать, что ω Ω P ( { ω } ) = 1.  


Решение

ω Ω P ( { ω } ) = ω Ω p i = 1 n x i + n 2 q n i = 1 n x i + n 2 = k = 0 n ω A k p i = 1 n ( x i + 1 ) 2 q i = 1 n ( 1 x i ) 2 = k = 0 n C n k p k q n k .   Это справедливо в силу того, что x i + 1 2 { 0 ; 1 } .  

k = 0 n C n k p k q n k = ( p + q ) n = 1  , поскольку по условию p + q = 1  .  

Подзадача о независимости случайных величин ξiПравить

Доказать, что ξ 1   и ξ 2   независимы.


Решение

Независимость случайных величин означает, что

P ( { ξ 1 = 1 } { ξ 2 = 1 } ) = P ( { ξ 1 = 1 } ) P ( { ξ 2 = 1 } ) ,  

покажем это:

P ( { ξ 1 = 1 } { ξ 2 = 1 } ) = P ( { ω : ω = ( x 1 ; ; x n ) ,   x 1 = 1 ,   x 2 = 1 } ) =  
= x 3 = ± 1 x n = ± 1 p 2 + i = 3 n x i + n 2 q n 2 + i = 3 n x i + n 2 = p 2 x 3 = ± 1 x n = ± 1 p i = 3 n x i + ( n 2 ) 2 q ( n 2 ) i = 3 n x i + ( n 2 ) 2 = p 2 1.    

Случайное блужданиеПравить

Для схемы Бернулли договоримся о следующем смысле случайной величины ξ: ξ i = + 1   означает, что второй игрок платит первому, а ξ i = 1   – первый игрок второму.

Введём новое обозначение:

S 0 = 0  , S k = ξ 1 + + ξ k , 1 k n  .

Число n   равно длительности игры, а последовательность ( S k ) k n   можно рассматривать как траекторию случайного блуждания некоторой частицы, выходящей из нуля, при этом очевидно равенство S k + 1 = S k + ξ k + 1  , а само S k   означает выигрыш первого игрока у второго (который может быть отрицательным).


Пусть A  , B   — два целых числа, A 0  , B 0  . Требуется найти, с какой вероятностью за n   шагов будет осуществлён выход частицы из коридора, ограниченного A   и B  .

Далее, пусть x   — целое число, x Z [ A ; B ]  . Пусть также для 0 k n   верно, что S k x = x + S k   (что означает, что игроки начинали играть с ненулевым капиталом в распоряжении). Пусть τ k x = min { l : 0 l k , S l x = { A   o r   B } }  . Условимся считать, что τ k x = k  , если A < S l x < B l : 0 l k  . Если частица так и не пересекла границы, то x k   не определён.

Для каждого 0 k n   и x [ A ; B ] Z   момент τ k x   называется моментом остановки, который является случайной величиной, определённой на пространстве элементарных событий Ω  . l < k { ω : τ k x = l }   — это событие, состоящее в том, что случайное блуждание { S i x : 0 i k }  , начинающееся в точке x  , выйдет из интервала [ A ; B ]   в момент l  . Введём новые обозначения: A k x = 0 l k { ω : τ k x = l ,   S l x = A }  , B k x = 0 l k { ω : τ k x = l ,   S l x = B }   для 0 k n  . Пусть α k ( x ) = P ( A k x )  , β k ( x ) = P ( B k x )   — вероятности выхода частицы за время [ 0 ; k ]   из интервала [ A ; B ]   соответственно в точках A   и B  .

Пусть A < x < B  ; очевидно, что α 0 ( x ) = β 0 ( x ) = 0   (пока игра не началась, частица находится внутри интервала с вероятностью 1). Пусть теперь 0 k n  . Тогда по формуле полной вероятности β k ( x ) = P ( B k x ) = P ( B k x S 1 x = x + 1 ) P ( { ξ 1 = 1 } ) + P ( B k x S 1 x = x 1 ) P ( { ξ 1 = 1 } ) .  

Подзадача о рекуррентностиПравить

Доказать, что

(1) P ( B k x S 1 x = x + 1 ) = P ( B k 1 x + 1 )  ,

(2) P ( B k x S 1 x = x 1 ) = P ( B k 1 x 1 )  .

Доказательство.

(1) Докажем, что P ( B k x S 1 x = x + 1 ) = P ( B k 1 x + 1 )  .

B k x = { ω : ( x ; x + ξ 1 ; ; x + ξ 1 + + ξ k ) B k x }  , где B k x   — множество траекторий вида ( x ; x + x 1 ; ; x + x 1 + + x k ) , x i = ± 1  , которые за время [ 0 ; k ]   впервые выходят из интервала ( A ; B )   в точке B   (показано на рисунке). Если случайный вектор попадает в подходящую траекторию, то он попадает в множество B  . Представим множество B k x   как B k x ; x + 1 B k x ; x 1  . Дизъюнктное объединение правомерно по причине того, что у любой частицы, проходящей по траектории, x 1 = ± 1  . B k x ; x + 1   — те траектории из B k x  , для которых x 1 = 1  . B k x ; x 1   — те траектории из B k x  , для которых x 1 = 1  . Заметим, что каждая траектория ( x ; x + 1 ; x + 1 + x 2 ; ; x + 1 + x 2 + + x k )   из B k x ; x + 1   находится в однозначном соответствии с траекторией ( x + 1 ; x + 1 + x 2 ; ; x + 1 + x 2 + + x k )   из B k 1 x + 1  . Взаимно-однозначное соответствие доказывается от противного. Предположим, что x 1 = 1   (неоднозначное соответствие); тогда данная траектория ( x ; x 1 ; x 1 + x 2 ; ; x 1 + x 2 + + x k )   не сможет вывести частицу из коридора за k   шагов (а только лишь за k + 2   из-за изначального отдаления от верхней стенки коридора). В обратную сторону соответствие является также однозначным из определения: S k + 1 = S k + ξ k + 1  . Из этого следует, что P ( { ( x + 1 ; x + 1 + x 2 ; ; x + 1 + x 2 + + x k ) B k 1 x + 1 } ) = P ( { ( x + 1 ; x + 1 + x 1 ; ; x + 1 + x 1 + + x k 1 ) B k 1 x + 1 } ) = d e f P ( B k 1 x + 1 )   (так как ξ i   суть независимые одинаково распределённые случайные величины).

Существует и другой способ доказательства:

P ( B k x S 1 x = x + 1 ) = P ( B k x ξ 1 = 1 ) = P ( ( x ; x + ξ 1 ; ; x + ξ 1 + + ξ k ) B k x ξ 1 = 1 ) =  
= P ( ( x ; x + ξ 1 ; ; x + ξ 1 + + ξ k ) B k x ξ 1 = 1 ) P ( { ξ 1 = 1 } ) = P ( ( x ; x + 1 ; ; x + 1 + + ξ k ) B k x ξ 1 = 1 ) P ( { ξ 1 = 1 } ) =  
= P ( { ( x ; x + 1 ; x + 1 + ξ 2 ; ; x + 1 + ξ 2 + + ξ k ) B k x } ) = P ( { ( x ; x + 1 ; x + 1 + ξ 1 ; ; x + 1 + ξ 1 + + ξ k 1 ) B k x } ) =  
= P ( { ( x ; x + 1 ; x + 1 + ξ 1 ; ; x + 1 + ξ 1 + + ξ k 1 ) B k 1 x + 1 } ) = P ( B k 1 x + 1 ) = β k 1 ( x + 1 )  .

Это справедливо потому, что вероятности независимы (это было доказано ранее).


(2) Аналогично докажем, что P ( B k x S 1 x = x 1 ) = P ( B k 1 x + 1 )  .

Каждая траектория ( x ; x 1 ; x 1 + x 2 ; ; x 1 + x 2 + + x k )   из B k x ; x + 1   находится в однозначном соответствии с траекторией ( x 1 ; x 1 + x 2 ; ; x 1 + x 2 + + x k )   из B k 1 x 1  . Отсюда P ( { ( x 1 ; x 1 + x 2 ; ; x 1 + x 2 + + x k ) B k 1 x 1 } ) = P ( { ( x 1 ; x 1 + x 1 ; ; x 1 + x 1 + + x k 1 ) B k 1 x 1 } ) = d e f P ( B k 1 x 1 ) .    

Вывод рекуррентного соотношенияПравить

Из уравнения для β k ( x )   следует, что для x ( A ; B )   и k n   верно:

P ( B k x ) = P ( B k x S 1 x = x + 1 ) p + P ( B k x S 1 x = x 1 ) q = P ( B k 1 x + 1 ) p + P ( B k 1 x 1 ) q = p β k 1 ( x + 1 ) + q β k 1 ( x 1 ) .  

β l ( B ) = 1  , β l ( A ) = 0   для l [ 0 ; n ]  .


Формула полной вероятности также даёт нам следующий результат: α k ( x ) = p α k 1 ( x + 1 ) + q α k 1 ( x 1 )  .


Также отметим, что B k 1 B k  , и поэтому β k 1 ( x ) β k ( x ) 1   для k n  . Это утверждение верно, так как к любой траектории, выводящей частицу за меньшее количество шагов, можно прибавить в начало один шаг ( x j 1 = ± 1  ), на котором частица может прийти в точку ( j ; S j x )   как из ( j 1 ; S j x 1 )   (для ξ j = 1  ), так и из ( j 1 ; S j x + 1 )   ( j k  ).

Нахождение вероятностейПравить

При достаточно больших n   вероятность β n ( x )   близка к β ( x )   — решению уравнения β ( x ) = p β ( x + 1 ) + q β ( x 1 )   при тех условиях, что β ( B ) = 1   (выход произошёл сразу же из точки B   — конец игры, выиграл первый игрок), β ( A ) = 0   (первый игрок никогда не выиграет, если выход произойдёт мгновенно в точке A  ). Эти условия следуют из того, что lim l β l ( B ) = β ( B )  . Это также будет доказано в этом разделе.

Сначала получим решение уравнения β ( x ) = p β ( x + 1 ) + q β ( x 1 )  . Пусть игра несправедливая ( p q  ). В таком случае найдём корни уравнения, то есть β ( x )  . Одно частное решение видно сразу: β ( x ) = c o n s t = a  . Другое решение найдём, воспользовавшись тем, что β ( x )   — функция. Целесообразно употребить выражение с отношением q p  , учитывая, что p + q = 1  : ( q p ) x = q x ( p + q ) p x = q x p x 1 + q x + 1 p x = p q x + 1 p x + 1 + q q x 1 p x 1 = p ( q p ) x + 1 + q ( q p ) x 1  . Отсюда правомерно предположить, что β ( x ) = b ( q p ) x  . Добавление константы ничего не изменит благодаря тому, что p + q = 1  .

Теперь рассмотрим общее решение: β ( x ) = a + b ( q p ) x  . Воспользуемся теми условиями, что β ( A ) = a + b ( q p ) A = 0   и β ( B ) = a + b ( q p ) B = 1  , и получим, что β ( x ) = β ( x ) 0 1 0 = β ( x ) β ( A ) β ( B ) β ( A ) = a + b ( q p ) x ( a + b ( q p ) A ) a + b ( q p ) B ( a + b ( q p ) A ) = ( q p ) x ( q p ) A ( q p ) B ( q p ) A .  

Подзадача о единственности решенияПравить

Докажем единственность решения данной задачи. Для этого покажем, что любое решение задачи β ( x ) = p β ( x + 1 ) + q β ( x 1 )   с граничными условиями может быть представлено в виде ( q p ) x ( q p ) A ( q p ) B ( q p ) A  .


Решение

Рассмотрим некоторое решение β ˇ ( x )   при условиях β ˇ ( A ) = 0  , β ˇ ( B ) = 1  . Тогда всегда можно подобрать такие константы a ˇ   и b ˇ  , что a ˇ + b ˇ ( q p ) A = β ˇ ( A )  , a ˇ + b ˇ ( q p ) A + 1 = β ˇ ( A + 1 )  . Тогда из уравнения поставленной задачи следует, что β ˇ ( A + 2 ) = a ˇ + b ˇ ( q p ) A + 2  . Тогда в общем случае β ˇ ( x ) = a ˇ + b ˇ ( q p ) x  . Следовательно, решение ( q p ) x ( q p ) A ( q p ) B ( q p ) A   является единственным. Точно такой же ход рассуждений может быть применён и к α ( x )  .  

Предельная сходимостьПравить

Рассмотрим вопрос о быстроте предельной сходимости α n ( x )   и β n ( x )   к α ( x )   и β ( x )  . Пусть блуждание начинается из начала координат ( x = 0  ). Для простоты обозначим α n ( 0 ) = α n  , β n ( 0 ) = β n  , γ n = 1 α n β n  . Иными словами, γ n   — это единица минус сумма вероятностей выхода частицы из коридора — вероятность того, что она останется блуждать в коридоре: γ n = P { ω : A < S k < B ; 0 k n }  . ω   представляет собой событие 0 k n { A < S k < B }  . Рассмотрим число n = r m  , где r , m Z  , и цепочку случайных величин ζ n : ζ 1 = i = 1 m ξ i ,   ζ 2 = i = m + 1 2 m ξ i ,   ,   ζ r = i = m ( r 1 ) r m ξ i  . Если обозначить совокупное богатство за C = | A | + B  , то тогда { A < S k < B ; 1 k r m } { | ζ 1 | < C ; ; | ζ r | < C }  . Этому есть разумное объяснение: если частица выходит из нуля и не пересекает границ, то тогда совершенно определённо сумма m   штук x i   меньше, чем совокупный запас.

Подзадача о независимости случайных величин ζiПравить

Докажем, что ζ j   независимы и одинаково распределённые. Достаточно доказать, что они независимы, так как все они имеют биномиальное распределение.


Решение

Докажем, что P ( { ζ 1 = m } { ζ 2 = m } ) = P ( { ζ 1 = m } ) P ( { ζ 2 = m } ) .  

P ( { ζ 1 = m } { ζ 2 = m } ) = P ( { i = 1 m ξ i = m } { i = m + 1 2 m ξ i = m } ) =  
= P ( { ξ 1 ; ; m = 1 } { ξ m + 1 ; ; 2 m = 1 } ) = P 2 m ( { ξ i = 1 } ) = P ( { ζ 1 = m } ) P ( { ζ 2 = m } )  .  


Вернёмся к рассмотрению сходимости.

Из только что доказанного следует что γ n P ( { | ζ 1 | ; ; | ζ r | < C } ) = i = 1 r P ( { | ζ i | < C } ) = ( P ( { | ζ 1 | < C } ) ) r  .

Рассмотрим дисперсию: V a r ( ζ 1 ) = m ( 1 ( p q ) 2 )   (что вполне правомерно, так как 1 ( p q ) 2 = 1 ( ( p + q ) 2 4 p q )  , а ξ   — модифицированная бернуллиевская случайная величина), поэтому для достаточно больших m   и 0 < p < 1   верно: P ( { | ζ 1 | < C } ) ε 1  , где ε 1 < 1  , так как если P ( { | ζ 1 | C } ) = 1  , то V a r ( ζ 1 ) C 2  . Если p = 0   или p = 1  , то для довольно больших m   верно, что P ( { | ζ 1 | < C } ) = 0  , поэтому неравенство P ( { | ζ 1 | < C } ) ε 1   верно p [ 0 ; 1 ]  . Из вышесказанного следует, что γ n ε n  , где ε = ε 1 1 m < 1  . Так как α + β = 1  , то ( α α n ) ( β β n ) = γ n  ; так как α α n   и β β n  , то 0 α α n γ n ε n  ; 0 β β n γ n ε n   при ε < 1  . Аналогичные оценки справедливы и для разностей α ( x ) α n ( x )   и β ( x ) β n ( x )  , так как можно свести эти разности к разностям α α n   и β β n   при A 1 = A x  , B 1 = B x  .

Вернёмся к рассмотрению α ( x )  . По аналогии с решением ( q p ) x ( q p ) A ( q p ) B ( q p ) A   уравнения β ( x ) = p β ( x + 1 ) + q β ( x 1 )  , можно сказать, что у уравнения α ( x ) = p α ( x + 1 ) + q α ( x 1 )   при граничных условиях α ( A ) = 1  , α ( B ) = 0   существует единственное решение α ( x ) = ( q p ) B ( q p ) x ( q p ) B ( q p ) A , A x B .  

Нетрудно заметить, что α ( x ) + β ( x ) = ( q p ) B ( q p ) x ( q p ) B ( q p ) A + ( q p ) x ( q p ) A ( q p ) B ( q p ) A = ( q p ) B ( q p ) A ( q p ) B ( q p ) A = 1   при любых p [ 0 ; 1 ]  . Если же игра является справедливой (вероятность выпадения аверса равна вероятности выпадения реверса), то решения будут выглядеть следующим образом: β ( x ) = x A B A  , α ( x ) = B x B A  .

Ответ о вероятности разоренияПравить

Величины α ( x )   и β ( x )   можно назвать вероятностями разорения первого и второго игрока при начальных капиталах x A   и B x   при стремлении количества ходов к бесконечности и характеризации случайной величина ξ i = + 1   как выигрыша первого игрока, а ξ i = 1   — проигрыша первого игрока. В дальнейшем будет показано, почему такую последовательность действительно можно построить.

Если A = 0  , то интуитивный смысл функции β ( x )   — это вероятность того, что частица, вышедшая из положения x  , достигнет верхней стенки ( B  ) ранее, чем нуля. Из формул β ( x )   видно, что

β ( x ) = { x B , p = q = 0 , 5 , ( q p ) x 1 ( q p ) B 1 , p q  .

Парадокс увеличения ставки при неблагоприятной игреПравить

Что необходимо сделать первому игроку, если игра неблагоприятна для него?

Его вероятность проигрыша задана формулой lim k α k = α = ( q p ) B 1 ( q p ) B ( q p ) A  .


Теперь пусть первый игрок с капиталом ( A )   примет решение удвоить ставку и играть на два рубля, то есть P ( { ξ i = 2 } ) = p  , P ( { ξ i = 2 } ) = q  . Тогда обозначим предельную вероятность разорения первого игрока так: α 2 = ( q p ) 0 , 5 B 1 ( q p ) 0 , 5 B ( q p ) 0 , 5 A  .

Поэтому α = ( q p ) 0 , 5 B 2 1 2 ( q p ) 0 , 5 B 2 ( q p ) 0 , 5 A 2 = ( ( q p ) 0 , 5 B 1 ) ( ( q p ) 0 , 5 B + 1 ) ( ( q p ) 0 , 5 B ( q p ) 0 , 5 A ) ( ( q p ) 0 , 5 B + ( q p ) 0 , 5 A ) = α 2 ( ( q p ) 0 , 5 B + 1 ) ( ( q p ) 0 , 5 B + ( q p ) 0 , 5 A ) > α 2  , так как α 2   умножается на дробь, которая больше единицы при q > p  .


Поэтому если вероятность выпадения столь желанного для первого игрока аверса меньше 0 , 5  , то ему выгодно увеличить ставку в r > 1   раз: это уменьшает вероятность его терминального разорения за счёт того, что вырастает вероятность выскочить из коридора в точке B  . Это решение кажется парадоксальным, так как складывается впечатление, что при неблагоприятной ситуации надо снизить ставку и уменьшить проигрыш, но в действительности при бесконечном числе игр и низкой ставке проигрывающий игрок в конечном счёте обязательно проиграется в ноль, а игрок с высокой ставкой обладает большими шансами выпадения количества аверсов, достаточного для завершения игры в точке B  .

Длительность случайного блужданияПравить

Рассмотрим среднюю длительность блуждания нашей частицы. Введём математическое ожидание момента, когда игра прекращается: E ( τ k x ) = m k ( x )   для k n  . Выведем рекуррентное соотношение для математического ожидания продолжительности игры:

m k ( x ) = E ( τ k x ) = 1 l k l P ( { τ k x = l } ) = 1 l k l ( p P ( { τ k x = l } | { ξ 1 = 1 } ) + q P ( { τ k x = l } | { ξ 1 = 1 } ) ) =  
= 1 l k l ( p P ( { τ k 1 x + 1 = l 1 } ) + q P { τ k 1 x 1 = l 1 } ) ) = 0 l k 1 ( l + 1 ) ( p P ( { τ k 1 x + 1 = l } ) + q P ( { τ k 1 x 1 = l } ) ) =  
= p m k 1 ( x + 1 ) + q m k 1 ( x 1 ) + 0 l k 1 ( p P ( { τ k 1 x + 1 = l } ) + q P ( { τ k 1 x 1 = l } ) ) = p m k 1 ( x + 1 ) + q m k 1 ( x 1 ) + 1.  

Для x ( A ; B )   и k [ 0 ; n ]   мы получили рекуррентное соотношение для функции m k ( x )  : m k ( x ) = p m k 1 ( x + 1 ) + q m k 1 ( x 1 ) + 1   при m 0 ( x ) = 0  .


Введём граничные условия: если игра начинается в точке A   или B  , то тогда она тут же и завершится — её длительность будет равна 0: m k ( A ) = m k ( B ) = 0  .


Из рекуррентного соотношения и граничных условий можно один за другим вычислить m i ( x )  . Так как m k + 1 ( x ) m k ( x )  , то существует предел m ( x ) = lim n m n ( x )  , который удовлетворяет соотношению m k ( x ) = p m k 1 ( x + 1 ) + q m k 1 ( x 1 ) + 1  : m ( x ) = 1 + p m ( x + 1 ) + q m ( x 1 )   при выполнении m ( A ) = m ( B ) = 0  . Данные переходы аналогичны тем, что мы рассмотрели при переходе к n   в уравнении вероятности проигрыша. Для того чтобы решить данное уравнение, надо ввести ещё одно условие: матожидание количества ходов должно быть конечным, то есть m ( x ) <  , x ( A ; B )  .


Решим данное уравнение. В уравнении вероятности проигрыша ( p q  ) уже были получены частные решения a   и b ( q p ) x  . Здесь же появляется ещё один претендент на роль частного решения: x q p = q p + ( p + q ) x + p q q p = q p q p + p ( x + 1 ) q p + q ( x 1 ) q p = 1 + p x + 1 q p + q x 1 q p  , поэтому m ( x ) = x q p + a + b ( q p ) x  . С учётом граничного условия m ( A ) = m ( B ) = 0   находим при помощи ранее полученных соотношений m ( x )  : m ( x ) = 1 p q ( B β ( x ) + A α ( x ) x )  . В случае идеальной монетки получаем следующее выражение: m ( x ) = a + b x x 2  . Применение граничного условия даёт: m ( x ) = ( B x ) ( x A )  . Из этого следует, что в случае равных стартовых капиталов m ( 0 ) = B 2  . Например, если у каждого игрока есть по 5 рублей, а ставка — 1 рубль, то в среднем разоряться игроки будут через 25 ходов.

При рассмотрении вышеуказанных формул подразумевалась конечностью математического ожидания числа ходов: m ( x ) <  . Теперь будет предложено доказательство этого факта.

Задача о конечности ожидаемого числа ходовПравить

Доказать, что m ( x ) < A , B  .


Решение

Достаточно доказать это для случая x = 0   (так как ранее было уже продемонстрировано, что случаи x 0   могут быть сведены к x = 0   вариацией A   и B  ) и p = q  , а затем рассмотреть случай p q  .

Итак, рассмотрим последовательность S 0 ; 1 ; ; n   и введём случайную величину S τ n = S τ n ( ω )  , где τ n = τ n 0   — момент остановки.

Пусть S τ n ( ω ) = k = 0 n S k ( ω ) 1 { τ n = k } ( ω )  . Интерпретация такова: S τ n   — это значение случайного блуждания в момент τ n  . Если τ n < n  , то S τ n { A ; B }  ; если τ n = n  , то A S τ n B  . Вспомним, что p = q = 0 , 5  , и докажем, что E ( S τ n ) = 0  , E ( S τ n 2 ) = E ( τ n )  .


Для доказательства первого равенства напишем: E ( S τ n ) = k = 0 n E ( S k 1 { τ n = k } ( ω ) ) = k = 0 n E ( S n 1 { τ n = k } ( ω ) ) + k = 0 n ( ( S k S n ) 1 { τ n = k } ( ω ) ) = E ( S n ) + k = 0 n ( ( S k S n ) 1 { τ n = k } ( ω ) )  . Совершенно очевидно, что E ( S n ) = 0  , так как S n = ξ 1 + + ξ n  , ξ i = ± 1   при p = q  . Осталось доказать, что k = 0 n ( ( S k S n ) 1 { τ n = k } ( ω ) ) = 0  .

Для 0 k < n   справедливо, что { τ n > k } = { A < S 1 < B ; ; A < S k < B }  . Последнее событие может быть представлено в виде { ω : ( ξ 1 ; ; ξ n ) J }  , где J   — некоторое подмножество множества { 1 ; + 1 } k  . Это множество определяется только ξ i   при i = 1 ; k ¯  . Для больших i   значения ξ k + 1 ; ; ξ n   не влияют на J  . Множество вида { τ n = k } = { τ n > k 1 } { τ n > k }   также может быть представлено в виде { ω : ( ξ 1 ; ; ξ n ) J }  . Благодаря независимости ξ i   (доказано в подзадаче 2) вытекает, что 0 k < n   случайные величины S n S k   и 1 { τ n = k }   независимы. Отсюда E ( S k 1 { τ n = k } ( ω ) ) = E ( S k ) E ( 1 { τ n = k } ( ω ) ) = 0   в силу того, что первый множитель нулевой.

E ( S τ n 2 ) = k = 0 n E ( S k 2 1 { τ n = k } ) =  
= k = 0 n E ( ( S n + ( S k S n ) 2 ) 1 { τ n = k } ) = k = 0 n ( E ( S 2 ) 1 { τ n = k } + 2 E ( S n ( S k S n ) ) 1 { τ n = k } + E ( ( S n S k ) 2 ) 1 { τ n = k } ) =  
= E ( S 2 ) k = 0 n E ( ( S n S k ) 2 ) 1 { τ n = k } = n k = 0 n E ( n k ) P ( { τ n = k } ) = k = 0 n k P ( { τ n = k } ) = E ( τ n ) .  

Установлено, что для идеальной монетки E ( S τ n ) = 0  , E ( S τ n 2 ) = E ( τ n )  .

В случае же p q   имеют место соотношения E ( S τ n ) = ( p q ) E ( τ n )   (поскольку E ( ξ 1 ) = p q  ) и E ( ( S τ n τ n E ( ξ 1 ) ) 2 ) = V a r ( ξ 1 ) E ( τ n )  , поскольку V a r ( ξ 1 ) = 1 ( p q ) 2  . Теперь покажем, что lim n m n ( 0 ) = m ( 0 ) <  .

В случае справедливой игры в силу соотношения E ( S τ n 2 ) = E ( τ n )   верно, что E ( τ n ) max { A 2 ; B 2 }  . Тогда же E ( τ n ) = E ( S τ n 2 ) = A 2 α n + B 2 β n + E ( S n 2 1 { A < S n < B } ) 1 { τ n = n }  , поэтому A 2 α n + B 2 β n E ( τ n ) A 2 α n + B 2 β n + max { A 2 ; B 2 } γ n  . Из неравенства γ n < ε n   следует, что математическое ожидание E ( τ n )   сходится при n   к предельному значению m ( 0 ) = A 2 α + B 2 β = A 2 B B A B 2 A B A = | A B |  . В случае несправедливой игры E ( τ n ) max { | A | ; B } | p q |  . Так как за τ n   обозначался момент первого вылета частицы за пределы коридора, то математическое ожидание его меньше определённых чисел, следовательно, меньше бесконечности. При таком условии E ( τ n ) m ( 0 ) = α A + β B p q  .  

Компьютерное моделирование (метод Монте-Карло)Править

Для моделирования игры воспользуемся программой MATLAB.

Для начала сгенерируем последовательность ξ i  , а затем при некотором первоначальном богатстве x   создадим цепочку S k  :

Последовательность ξ (getXI)Править

n = 100;                             % The length of \xi_i series
U = rand(n,1);                       % Generate 100 random uniform [0;1] values
XI = zeros(n,1);                     % Reserve memory for 100 modified Bernoulli
q = 0.55;                            % Reverse probability
p = 1 - q;                           % Averse probability

                                     % The following cycle creates a Bernoulli distribution based on uniform [0;1]
for i = 1:n                          % This cycle divides the [0;1] array into 2 parts: lengths q and p, q+p=1
   if (U(i,1) < q)                        
       XI(i,1) = -1;                 % If a uniform random value falls into q then \xi=-1
   else XI(i,1) = 1;                 % If a uniform random value falls into p then \xi=+1
   end
end

x = 10;                              % Initial 1st player's budget offset

S = zeros(n,1);                      % Reserve memory for 100 S_1...S_100

for i = 1:n                          % Make S_k series according to rule S_{k+1} = S_k + \xi_{k+1}
    S(i,1) = x + sum(XI(1:i, 1));    % considering the initial welfare offset x
end

Затем введём функцию getS(n, q, x), которая бы не просто, как листинг выше, генерировала ряд S k   сразу и мгновенно, а позволяла бы обобщённо на основе введённых значений n  , q   и x   построить ряд, не усложняя вычислений. Это бы упростило рабочую область.

Генерация ряда (getS function)Править

function [S] = getS(n, q, x)         % This function depends on n, q and x --- 3 variables
U = rand(n,1);
XI = zeros(n,1);

for i = 2:n                          % Uniform->Bernoulli distribution transformation
   if (U(i,1) < q)
       XI(i,1) = -1; 
   else XI(i,1) = 1;
   end
end

S = zeros(n,1);                      % Reserve memory for n S_1...S_n

for i = 2:n                          % Calculate the S_1...S_n series
    S(i,1) = sum(XI(1:i, 1));        % Sums the \xi's
end
S = x + S;                           % Adds initial welfare to each S_k of the whole matrix

Возникает разумный вопрос: зачем считать ξ  , начиная только со второй величины (for i = 2:n)? Дело в том, что это делается исключительно в целях наглядной визуализации. При построении графика в следующем коде будут строиться траектории S k  , и если бы было написано for i = 1:n, то тогда уже с самого первого значения некоторые траектории бы выходили из x 1  , некоторые — из x + 1  . Так как в данной программе из соображений оптимальности лучше не задействовать нулевое значение (из него частица выходит, но не рисуется, так как прибавление ξ 1   происходит сразу), то просто-напросто сдвинем нумерацию на оси абсцисс на единицу вправо. Теперь проведём серию тестов и наглядно рассмотрим возможные траектории при некоторых вероятностях, длинах игры и количестве игр.

Визуализация (graphS)Править

 
Три игры в 10 шагов при q = 0 , 45  .
 
Пять игр в 100 шагов при q = 0 , 56  . Видно, что частицу «тянет вниз» к точке A  .
 
Сто справедливых игр в 10000 шагов.
N = 3;                               % Number of games played
n = 10;                              % Number of tosses
q = 0.45;                            % Chance 1st player loses 1 rouble
x = 0;                               % Initial welfare offset

matrS = zeros(N, n);                 % Reserve memory for N rows n cols matrix
for i = 1:N                          % This loop fills the S matrix with S_k, yielding N trajectories
    matrS(i,:) = getS(n, q, x)';
    plot(matrS(i,:));                % Gives an image
    hold on;                         % Holds the axes for next trajectory overlay
end
hold off;                            % Clears axes for a new plot

Теперь подойдём к самой главной составляющей программной части — алгоритму, который позволил бы вычислять среднюю длину игры при заданных параметрах ( A ; B ; n ; q )  . Если теория верна, то нижеследующий эксперимент её лишь подтвердит. Также допишем в программу строчку, которая будет вычислять вероятность разорения первого игрока ( β ( x )  ) при заданных начальных капиталах и сопоставлять её с теоретической.

Полная модель игры (Monte_Carlo)Править

N = 3000;                                 % Number of games played
n = 3000;                                 % Number of tosses
q = 0.5;                                  % Chance 1st player loses 1 rouble
p = 1-q;                                  % Chance 1st player wins 1 rouble
A = -10;                                  % 1st player budget
B = 10;                                   % 2nd player budget
x = 0;                                    % Budget offset towards 1st player
Bs = 0;                                   % amount of cases particle hits B (it will change soon)
As = 0;                                   % amount of cases particle hits A (it will change soon)

matrS = zeros(N, n);                      % Reserve memory for N rows n cols matrix
TAU1 = n * ones(N, n);                    % Fill another N rows n cols matrix with n's
for i = 1:N                               % This loop makes up N trajectories of S_k relying on input q, x, n
  matrS(i,:) = getS(n, q, x)';
  for j = 1:n
      if (matrS(i,j) == A)||(matrS(i,j) == B) % If a particle exceeds A or B, then
      TAU1(i,j) = j;                          % put the number of step into the table
      end
  end
  plot(matrS(i,:));                       % Displays a figure
  grid on;
  hold on;                                % Simultaneous plots within same axes
end
hold off;                                 % Clears axes for a new plot

TAU = (min(TAU1'))';                      % TAU = earliest step of [A;B] corridor overrun

% As [min] affects columns and gives row then we transpose TAU1,
% minimize it by rows and make it a column again
for i = 1:N                               % Our S_n series are ready; they nest in matrS
    for j=1:TAU(i)                        % Scan only till we encounter the escape step!
        if (matrS(i,j) == A);             % If a particle escaped through A (1st player busted)
        As = As+1;                        % then add +1 to 1st player's failures
        elseif (matrS(i,j) == B)          % Otherwise if its first threshold was B
        Bs = Bs+1;                        % then add +1 to 1st player's wins
        end                               % If n is not large enough, then
    end                                   % As + Bs may not make up N
end
ALPHA = As/(As+Bs)                        % Match alphas with their theoretical values
if (q == p)
   THEORALPHA = (B-x)/(B-A)
else THEORALPHA = ((q/p)^B - (q/p)^x)/((q/p)^B - (q/p)^A)
end
BETA = 1-ALPHA                            % Same for betas
if (q == p)
   THEORBETA = (x-A)/(B-A)
else THEORBETA = 1-THEORALPHA
end
meanTAU = mean(TAU)                       % Law of large numbers for great N's
if (q == p)
   THEORTAU = (B-x)*(x-A)
else THEORTAU = 1/(p-q)*(B*THEORBETA+A*THEORALPHA-x)
end

Отметим, что при небольших n   не все частицы вылетают из коридора, поэтому здесь надо подчеркнуть, что теория говорит: «при достаточно больших n   вероятность β n ( x )   близка к β ( x )  ».

ТестированиеПравить

Нижеследующие данные рассчитаны для n = 3000  , N = 3000  .

№ теста q   A   B   x   ALPHA α ( x )   BETA β ( x )   meanTAU m ( x )  
1 0 , 49   6   5   0   0,402 0   0,400 6   0,598 0   0,599 4   30,930 7   29,685 6  
2 0 , 6   60   6   3   0,973 3   0,974 0   0,026 7   0,026 0   278,220 0   276,415 9  
3 0 , 6   20   2   1   0,704 0   0,703 8   0,296 0   0,296 2   62,268 0   62,417 8  
4 0 , 54   10   50   10   0,999 0   0,998 4   0,001 0   0,001 6   251,358 7   248,820 5  
5 0 , 5   10   20   0   0,658 0   0,666 7   0,342 0   0,333 3   202,300 7   200,000 0  
6 0 , 35   3   90   0   0,145 7   0,156 1   0,854 3   0,843 9   256,455 7   251,602 2  

В экспериментах 2 и 3 продемонстрировано свойство: если игра проигрышная для первого игрока, то увеличение ставки в модели эквивалентно сокращению A  , B   и x   в одно и то же число раз относительно нуля. Ставка увеличилась втрое — вероятность выскочить из коридора со значением B   выросла в 11 раз!

См. такжеПравить

ПримечанияПравить

  1. Ширяев А. Н. Вероятность—1, Вероятность—2 // Москва, МЦНМО. — 2007.