Это не официальный сайт wikipedia.org 01.01.2023

Нормальное распределение — Википедия

Нормальное распределение

(перенаправлено с «Гауссовское распределение»)

Норма́льное распределе́ние[1][2], также называемое распределением Гаусса или Гаусса — Лапласа[3], или колоколообразная кривая — непрерывное распределение вероятностей с пиком в центре и симметричными боковыми сторонами, которое в одномерном случае задаётся функцией плотности вероятности, совпадающей с функцией Гаусса:

Нормальное распределение
Плотность нормального распределения
Зеленая линия соответствует стандартному нормальному распределениюПлотность вероятности
Функция распределения нормального распределения
Цвета на этом графике соответствуют графику наверхуФункция распределения
Обозначение N ( μ , σ 2 )
Параметры μ — коэффициент сдвига (вещественный)
σ > 0 — коэффициент масштаба (вещественный, строго положительный)
Носитель x ( ; + )
Плотность вероятности 1 σ 2 π exp ( ( x μ ) 2 2 σ 2 )
Функция распределения 1 2 [ 1 + erf ( x μ 2 σ 2 ) ]
Математическое ожидание μ
Медиана μ
Мода μ
Дисперсия σ 2
Коэффициент асимметрии 0
Коэффициент эксцесса 0
Дифференциальная энтропия ln ( σ 2 π e )
Производящая функция моментов M X ( t ) = exp ( μ t + σ 2 t 2 2 )
Характеристическая функция ϕ X ( t ) = exp ( μ i t σ 2 t 2 2 )
f ( x ) = 1 σ 2 π e 1 2 ( x μ σ ) 2 ,
где параметр μ  — математическое ожидание (среднее значение), медиана и мода распределения, а параметр σ  — среднеквадратическое отклонение, σ 2  — дисперсия распределения.

Таким образом, одномерное нормальное распределение является двухпараметрическим семейством распределений, которое принадлежит экспоненциальному классу распределений[4]. Многомерный случай описан в статье «Многомерное нормальное распределение».

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием μ = 0 и стандартным отклонением σ = 1.

Общие сведенияПравить

Если величина является суммой многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то центрированное и нормированное распределение такой величины при достаточно большом числе слагаемых стремится к нормальному распределению.

Это следует из центральной предельной теоремы теории вероятностей. В окружающем нас мире часто встречаются величины, значение которых определяется совокупностью многих независимых факторов. Этот факт, а также то, что распределение считалось типичным, обычным, привели к тому, что в конце XIX века стал использоваться термин «нормальное распределение». Нормальное распределение играет заметную роль во многих областях науки, например в математической статистике и статистической физике.

Случайная величина, имеющая нормальное распределение, называется нормальной, или гауссовской, случайной величиной.

ОпределенияПравить

Стандартное нормальное распределениеПравить

Наиболее простой случай нормального распределения — стандартное нормальное распределение — частный случай, когда μ = 0   и σ = 1.   Его плотность вероятности равна:

φ ( x ) = 1 2 π e 1 2 x 2 .  

Множитель 1 2 π   в выражении обеспечивает условие нормировки интеграла + φ ( x ) d x = 1  [5]. Поскольку множитель 1 2   в экспоненте обеспечивает дисперсию равную единице, то и стандартное отклонение равно 1. Функция симметрична в точке x = 0 ,   её значение в ней максимально и равно 1 2 π .   Точки перегиба функции: x = + 1   и x = 1.  

Гаусс называл стандартным нормальным распределение с σ 2 = 1 / 2 ,   то есть:

φ ( x ) = e x 2 π .  

Нормальное распределение с параметрами μ, σПравить

Каждое нормальное распределение — это вариант стандартного нормального распределения, область значений которого растягивается множителем σ   (стандартное отклонение) и переносится на μ   (математическое ожидание):

f ( x μ , σ 2 ) = 1 σ φ ( x μ σ ) .  

μ , σ   являются параметрами нормального распределения. Плотность вероятности должна нормироваться 1 σ ,   так что интеграл равен 1.

Если Z   — стандартная нормальная случайная величина, то величина X = σ Z + μ   будет иметь нормальное распределение с математическим ожиданием μ   и стандартным отклонением σ .   Наоборот, если X   — нормальная величина с параметрами μ   и σ 2 ,   то Z = X μ σ   будет иметь стандартное нормальное распределение.

Если в экспоненте плотности вероятности раскрыть скобки и учитывать, что 1 = ln e  , то:

f ( x ) = 1 σ 2 π e 1 2 ( x μ σ ) 2 = e 1 2 ( 2 ln σ + ln 2 π + ( x μ σ ) 2 ) = e 1 2 ( x 2 σ 2 2 μ x σ 2 + 2 ln σ + ln 2 π + μ 2 σ 2 ) .  

Таким образом, плотность вероятности каждого нормального распределения представляет собой экспоненту квадратичной функции:

f ( x ) = e a x 2 + b x + c ,  
где a = 1 2 σ 2 ,   b = μ σ 2 ,   c = ( ln σ + 1 2 ln 2 π + 1 2 μ 2 σ 2 ) .  

Отсюда можно выразить среднее значение как μ = b 2 a ,   а дисперсию как σ 2 = 1 2 a .   Для стандартного нормального распределения a = 1 / 2 ,   b = 0   и c = 1 2 ln 2 π .  

ОбозначениеПравить

Плотность вероятности стандартного нормального распределения (с нулевым средним и единичной дисперсией) часто обозначается греческой буквой ϕ   (фи)[6]. Также достаточно часто используется альтернативная формы греческой буквы фи φ  .

Нормальное распределение часто обозначается N ( μ , σ 2 ) ,   или N ( μ , σ 2 )  [7]. Если случайная величина X   распределена по нормальному закону со средним μ   и вариацией σ 2 ,   то пишут:

X N ( μ , σ 2 ) .  

Функция распределенияПравить

Функция распределения стандартного нормального распределения обычно обозначается заглавной греческой буквой Φ   (фи) и представляет собой интеграл:

Φ ( x ) = 1 2 π x e x 2 / 2 d x .  

С ней связана функция ошибок (интеграл вероятности) erf ( x ) ,   дающий вероятность того, что нормальная случайная величина со средним 0 и вариацией 1/2 попадёт в отрезок [ x , x ]  :

erf ( x ) = 2 π 0 x e x 2 d x .  

Эти интегралы не выражаются в элементарных функциях и называются специальными функциями. Многие их численные приближения известны. См. ниже.

Функции связаны, в частности, соотношением:

Φ ( x ) = 1 2 [ 1 + erf ( x 2 ) ]  .

Нормальное распределение с плотностью f ,   средним μ   и отклонением σ   имеет следующую функцию распределения:

F ( x ) = Φ ( x μ σ ) = 1 2 [ 1 + erf ( x μ σ 2 ) ] .  

Можно использовать функцию Q ( x ) = 1 Φ ( x )   — она даст вероятность того, что значение стандартной нормальной случайной величины X   превысит x  :

P ( X > x )  .

График стандартной нормальной функции распределения Φ   имеет 2-кратную вращательную симметрию относительно точки (0;1/2), то есть Φ ( x ) = 1 Φ ( x ) .   Её неопределенный интеграл равен:

Φ ( x ) d x = x Φ ( x ) + φ ( x ) + C .  

Функция распределения стандартной нормальной случайной величины может быть разложена с помощью метода интегрирования по частям в ряд:

Φ ( x ) = 1 2 + 1 2 π e x 2 / 2 [ x + x 3 3 + x 5 3 5 + + x 2 n + 1 ( 2 n + 1 ) ! ! + ] ,  

где знак ! !   означает двойной факториал.

Асимптотическое разложение функции распределения для больших x   может быть также произведено интегрированием по частям.

Стандартное отклонениеПравить

 
Правило 68-95-99,7.
Для нормального распределения количество значений, отличающихся от среднего на число, меньшее чем одно стандартное отклонение, составляют 68,27 % выборок. В то же время количество значений, отличающиеся от среднего на два стандартных отклонения, составляют 95,45 %, а на три стандартных отклонения — 99,73 %.

Около 68 % значений из нормального распределения находятся на расстоянии не более одного стандартного отклонения σ от среднего; около 95 % значений лежат расстоянии не более двух стандартных отклонений; и 99,7 % не более трёх. Этот факт является частным случаем правила 3 сигм для нормальной выборки.

Более точно, вероятность получить нормальное число в интервале между μ n σ   и μ + n σ   равна:

F ( μ + n σ ) F ( μ n σ ) =  
Φ ( n ) Φ ( n ) = erf ( n 2 ) .  

С точностью до 12 значащих цифр значения для n = 1 , 2 , , 6   приведены в таблице[8]:

n   p = F ( μ + n σ ) F ( μ n σ )   1 p   1 1 p   OEIS
1 0,682689492137 0,317310507863
3,15148718753
A178647
2 0,954499736104 0,045500263896
21,9778945080
A110894
3 0,997300203937 0,002699796063
370,398347345
A270712
4 0,999936657516 0,000063342484
15787.1927673
5 0,999999426697 0,000000573303
1744277,89362
6 0,999999998027 0,000000001973
506797345,897

СвойстваПравить

МоментыПравить

Моментами и абсолютными моментами случайной величины X   называются математические ожидания случайных величин X p   и | X | p ,   соответственно. Если математическое ожидание случайной величины μ = 0 ,   то эти параметры называются центральными моментами. В большинстве случаев представляют интерес моменты для целых p .  

Если X   имеет нормальное распределение, то для неё существуют (конечные) моменты при всех p   с действительной частью больше −1. Для неотрицательных целых p   центральные моменты таковы:

E [ X p ] = { 0 p = 2 n + 1 , σ p ( p 1 ) ! ! p = 2 n .  

Здесь n   — натуральное число, а запись ( p 1 ) ! !   означает двойной факториал числа p 1 ,   то есть (поскольку p 1   в данном случае нечётно) произведение всех нечётных чисел от 1 до p 1.  

Центральные абсолютные моменты для неотрицательных целых p   таковы:

E [ | X | p ] = σ p ( p 1 ) ! ! { 2 π p = 2 n + 1 , 1 p = 2 n . } = σ p 2 p 2 Γ ( p + 1 2 ) π .  

Последняя формула справедлива также для произвольных p > 1  .

Преобразование Фурье и характеристическая функцияПравить

Преобразование Фурье нормальной плотности вероятности f   с математическим ожиданием μ   стандартным отклонением σ   равно[9]:

f ^ ( t ) = f ( x ) e i t x d x = e i μ t e 1 2 ( σ t ) 2 ,  
где i   есть мнимая единица.

Если математическое ожидание μ = 0 ,   то первый множитель равен 1, и преобразование Фурье, с точностью до константы есть нормальная плотность вероятности на частотных интервалах, с математическим ожиданием равным 0 и стандартным отклонением 1 / σ .   В частности, стандартное нормальное распределение φ   есть собственная функция от преобразования Фурье.

В теории вероятности, преобразование Фурье плотности распределения действительной случайной величины X   близко связано с характеристической функцией φ X ( t )   этой величины, которая определена как математическое ожидание от e i t X   и является функцией вещественной переменной t   (частотный параметр преобразования Фурье). Определение может быть распространено и на комплексную переменную t  [10]. Соотношение записывается так:

φ X ( t ) = f ^ ( t ) .  

Бесконечная делимостьПравить

Нормальное распределение является бесконечно делимым.

Если случайные величины X 1   и X 2   независимы и имеют нормальное распределение с математическими ожиданиями μ 1   и μ 2   и дисперсиями σ 1 2   и σ 2 2   соответственно, то X 1 + X 2   также имеет нормальное распределение с математическим ожиданием μ 1 + μ 2   и дисперсией σ 1 2 + σ 2 2 .  

Отсюда вытекает, что нормальная случайная величина представима как сумма произвольного числа независимых нормальных случайных величин.

Максимальная энтропияПравить

Нормальное распределение имеет максимальную дифференциальную энтропию среди всех непрерывных распределений, дисперсия которых не превышает заданную величину[11][12].

Правило трёх сигм для гауссовской случайной величиныПравить

 
График плотности вероятности нормального распределения и процент попадания случайной величины на отрезки, равные среднеквадратическому отклонению.

Правило трёх сигм ( 3 σ  ) — практически все значения нормально распределённой случайной величины лежат в интервале:

( μ 3 σ ; μ + 3 σ ) ,  
где μ = E ξ   — математическое ожидание и параметр нормальной случайной величины.

Более точно — приблизительно с вероятностью 0,9973 значение нормально распределённой случайной величины лежит в указанном интервале.

Моделирование нормальных псевдослучайных величинПравить

При компьютерном моделировании, особенно при применении метода Монте-Карло, желательно использовать величины, распределенные по нормальному закону. Многие алгоритмы дают стандартные нормальные величины, так как нормальную величину X N ( μ , σ 2 )   можно получить как:

X = μ + σ Z ,  
где Z — стандартная нормальная величина.

Алгоритмы также используют различные преобразования равномерных величин. Простейшие приближённые методы моделирования основываются на центральной предельной теореме. Если сложить достаточно большое количество независимых одинаково распределённых величин с конечной дисперсией, то сумма будет иметь распределение, близкое к нормальному. Например, если сложить 100 независимых стандартно равномерно распределённых случайных величин, то распределение суммы будет приближённо нормальным.

Для программного генерирования нормально распределённых псевдослучайных величин предпочтительнее использовать преобразование Бокса — Мюллера. Оно позволяет генерировать одну нормально распределённую величину на базе одной равномерно распределённой.

Также существует алгоритм Зиккурат, который работает даже быстрее преобразования Бокса — Мюллера. Тем не менее, сложнее в реализации, но его применение оправдано в случаях, когда требуется генерирование очень большого числа неравномерно распределённых случайных чисел.

Нормальное распределение в природе и приложенияхПравить

Нормальное распределение часто встречается в природе. Например, следующие случайные величины хорошо моделируются нормальным распределением:

  • отклонение при стрельбе;
  • погрешности измерений (однако погрешности некоторых измерительных приборов имеют иное распределение);
  • некоторые характеристики живых организмов в популяции.

Такое широкое распространение этого распределения связано с тем, что оно является бесконечно делимым непрерывным распределением с конечной дисперсией. Поэтому к нему в пределе приближаются некоторые другие, например биномиальное и пуассоновское. Этим распределением моделируются многие недетерминированные физические процессы[13].

Многомерное нормальное распределение используется при исследовании многомерных случайных величин (случайных векторов). Одним из многочисленных примеров таких приложений является исследование параметров личности человека в психологии и психиатрии.

Связь с другими распределениямиПравить

  • Нормальное распределение является распределением Пирсона типа XI[14].
  • Отношение пары независимых стандартных нормально распределенных случайных величин имеет распределение Коши[15]. То есть, если случайная величина X   представляет собой отношение X = Y / Z   (где Y   и Z   — независимые стандартные нормальные случайные величины), то она будет обладать распределением Коши.
  • Если z 1 , , z k   — совместно независимые стандартные нормальные случайные величины, то есть z i N ( 0 , 1 ) ,   то случайная величина x = z 1 2 + + z k 2   имеет распределение хи-квадрат с k степенями свободы.
  • Если случайная величина X   подчинена логнормальному распределению, то её натуральный логарифм имеет нормальное распределение. То есть, если X L o g N ( μ , σ 2 ) ,   то Y = ln ( X ) N ( μ , σ 2 ) .   И наоборот, если Y N ( μ , σ 2 ) ,   то X = exp ( Y ) L o g N ( μ , σ 2 ) .  
  • Если X 1 , X 2 , . . . , X n   независимые нормально распределенные случайные величины с математическими ожиданиями μ   и дисперсиями σ 2 ,   то их выборочное среднее независимо от выборочного стандартного отклонения[16], а отношение следующих двух величин будет иметь t-распределение с n 1  степенями свободы:
t = X ¯ μ S / n = 1 n ( X 1 + + X n ) μ 1 n ( n 1 ) [ ( X 1 X ¯ ) 2 + + ( X n X ¯ ) 2 ] t n 1 .  
  • Если X 1 , X 2 , . . . , X n ,   Y 1 , Y 2 , . . . , Y n   независимые стандартные нормальные случайные величины, то отношение нормированных сумм квадратов будет иметь распределение Фишера с ( n ,   m  ) степенями свободы[17]:
F = ( X 1 2 + X 2 2 + + X n 2 ) / n ( Y 1 2 + Y 2 2 + + Y m 2 ) / m F n , m .  
  • Отношение квадратов двух стандартных нормальных случайных величин имеет распределение Фишера со степенями свободы ( 1 , 1 ) .  

ИсторияПравить

Впервые нормальное распределение как предел биномиального распределения при p = 1 2   появилось в 1738 году во втором издании работы Муавра «Доктрина случайностей»[en][18]. Это было первое доказательство частного случая центральной предельной теоремы. В 1809 году Гаусс в сочинении «Теория движения небесных тел» ввёл это распределение как возникающее в результате многократных измерений движения небесных тел. Однако Гаусс вывел формулу для действительных случайных величин из принципа достижения максимума совместной плотности всех измерений в точке с координатами, равными среднему всех измерений. Этот принцип впоследствии подвергался критике. В 1812 году Лаплас в теореме Муавра — Лапласа обобщил результат Муавра для произвольного биномиального распределения, то есть для сумм одинаково распределённых независимых бинарных величин[3].

См. такжеПравить

ПримечанияПравить

  1. Вентцель Е. С. Теория вероятностей. — 10-е изд., стереотипное.. — М.: Academia, 2005. — 576 с. — ISBN 5-7695-2311-5.
  2. Ширяев А. Н. Вероятность. — М.: Наука, 1980.
  3. 1 2 Математический энциклопедический словарь. — М.: Советская энциклопедия, 1988. — С. 139—140.
  4. Wasserman L. All of Statistics. — New York, NY: Springer, 2004. — С. 142. — 433 с. — ISBN 978-1-4419-2322-6.
  5. Доказательство см. Гауссов интеграл
  6. Halperin, Hartley & Hoel, 1965, item 7.
  7. McPherson (1990)
  8. Wolfram|Alpha: Computational Knowledge Engine  (неопр.). Wolframalpha.com. Дата обращения: 3 марта 2017.
  9. Bryc (1995, p. 23)
  10. Bryc (1995, p. 24)
  11. Cover, Thomas M.; Thomas, Joy A. Elements of Information Theory. — John Wiley and Sons, 2006. — С. 254.
  12. Park, Sung Y.; Bera, Anil K. Maximum Entropy Autoregressive Conditional Heteroskedasticity Model (англ.) // Journal of Econometrics  (англ.) (рус. : journal. — Elsevier, 2009. — P. 219—230. Архивировано 7 марта 2016 года.
  13. Талеб Н. Н. Чёрный лебедь. Под знаком непредсказуемости = The Black Swan: The Impact of the Highly Improbable. — КоЛибри, 2012. — 525 с. — ISBN 978-5-389-00573-0.
  14. Королюк, 1985, с. 135.
  15. Галкин В. М., Ерофеева Л. Н., Лещева С. В. Оценки параметра распределения Коши // Труды Нижегородского государственного технического университета им. Р. Е. Алексеева. — 2014. — № 2(104). — С. 314—319. — УДК 513.015.2(G).
  16. Lukacs, Eugene. A Characterization of the Normal Distribution (англ.) // The Annals of Mathematical Statistics  (англ.) (рус. : journal. — 1942. — Vol. 13, no. 1. — P. 91—3. — ISSN 0003-4851. — doi:10.1214/aoms/1177731647. — JSTOR 2236166.
  17. Lehmann, E. L.ruen. Testing Statistical Hypotheses. — 2nd. — Springer  (англ.) (рус., 1997. — С. 199. — ISBN 978-0-387-94919-2.
  18. The doctrine of chances; or, a method of calculating the probability of events in play, L., 1718, 1738, 1756; L., 1967 (репродуцир. изд.); Miscellanea analytica de scriebus et quadraturis, L., 1730.

ЛитератураПравить

СсылкиПравить