Это не официальный сайт wikipedia.org 01.01.2023

Регрессия Деминга — Википедия

Регрессия Деминга

В статистике регрессия Деминга, названная именем У. К. Деминга, — это вид регрессии с ошибками в переменных[en], которая пытается найти прямую наилучшего сглаживания для двумерного набора данных. Регрессия отличается от простой линейной регрессии[en] в том, что она принимает во внимание ошибки[en] в наблюдении как по оси x, так и по оси y. Регрессия является частным случаем метода наименьших полных квадратов, которая рассматривает любое число показателей и имеет более сложную структуру ошибок.

Двумерный случай метода наименьших полных квадратов (регрессия Деминга). Красные отрезки показывают ошибку как по x, так и по y, что отличается от традиционного метода наименьших квадратов, в котором ошибка измеряется только по оси y. Показан случай, когда отклонение измеряется перпендикулярно, что происходит, когда x и y имеют равные дисперсии.

Регрессия Деминга эквивалентна оценке максимального правдоподобия на модели с ошибками в переменных[en], в которой ошибки двух переменных считаются независимыми и имеют нормальное распределение, а отношение их дисперсий, δ, известно [1]. На практике это отношение может быть оценено из исходных данных. Однако процедура регрессии не принимает во внимание возможные ошибки в оценке отношений дисперсии.

Регрессия Деминга лишь слегка сложнее простой линейной регрессии[en]. Большинство статистических пакетов, используемых в клинической химии, предоставляют регрессию Деминга.

Модель первоначально была предложена Адкоком[2], который рассматривал случай δ = 1, а затем рассматривалась в более общем виде Куммеллем [3] с произвольным δ. Однако их идеи оставались большей частью незамеченными более 50 лет, пока их не возродил Купманс[4] и позднее распространил Деминг[5]. Книга последнего стала столь популярной в клинической химии и связанных областях, что метод в этих областях получил название регрессия Деминга[6].

СпецификацияПравить

Предположим, что данные (yi, xi) являются значениями, полученными в ходе измерений "истинных" значений (yi*, xi*), которые лежат на регрессионной прямой:

y i = y i + ε i , x i = x i + η i ,  

где ошибки ε и η независимы и отношение их дисперсий, известно:

δ = σ ε 2 σ η 2 .  

На практике дисперсии параметров x   и y   часто неизвестны, что усложняет оценку δ  . Заметим, что когда метод измерения x   и y   тот же самый, эти дисперсии, скорее всего, равны, так что в этом случае δ = 1  .

Мы пытаемся найти прямую "наилучшего сглаживания"

y = β 0 + β 1 x ,  

такую, что взвешенная сумма квадратов остатков минимальна [7]

S S R = i = 1 n ( ε i 2 σ ε 2 + η i 2 σ η 2 ) = 1 σ ε 2 i = 1 n ( ( y i β 0 β 1 x i ) 2 + δ ( x i x i ) 2 )     min β 0 , β 1 , x 1 , , x n S S R  

РешениеПравить

Решение может быть выражено в терминах моментов второго порядка. То есть мы сначала вычисляем следующие величины (все суммы берутся по i = 1 : n):

x ¯ = 1 n x i , y ¯ = 1 n y i , s x x = 1 n ( x i x ¯ ) 2 , s x y = 1 n ( x i x ¯ ) ( y i y ¯ ) , s y y = 1 n ( y i y ¯ ) 2 .  

Наконец, параметры оценки методом наименьших квадратов будут[8]:

β ^ 1 = s y y δ s x x + ( s y y δ s x x ) 2 + 4 δ s x y 2 2 s x y , β ^ 0 = y ¯ β ^ 1 x ¯ , x ^ i = x i + β ^ 1 β ^ 1 2 + δ ( y i β ^ 0 β ^ 1 x i ) .  

Ортогональная регрессияПравить

В случае равенства дисперсий ошибок, т.е. в случае δ = 1  , регрессия Деминга становится ортогональной регрессией — она минимизирует сумму квадратов расстояний от точек выборки до регрессионной прямой[en]*. В этом случае обозначим каждую точку выборки zj на комплексной плоскости (т.е. точка (xj, yj) выборки записывается как zj = xj + iyj, где iмнимая единица). Обозначим через Z сумму квадратов разностей от точек выборки до центра тяжести (также представленного в комплексных координатах). Центр тяжести — это среднее точек выборки. Тогда[9]:

  • Если Z = 0, то любая прямая, проходящая через центр тяжести, является прямой наилучшего ортогонального сглаживания.
  • Если Z ≠ 0, прямая наилучшего ортогонального сглаживания проходит через центр тяжести и параллельна вектору из начала координат в Z  .

Тригонометрическую интерпретацию прямой наилучшего ортогонального сглаживания дал Кулидж в 1913[10].

ПриложенияПравить

В случае трёх неколлинеарных точек на плоскости треугольник, образованный этими точками, имеет единственный вписанный эллипс Штейнера, который касается сторон треугольника в средних точках. Главная ось этого эллипса будет ортогональной регрессией этих трёх вершин[11].

ПримечанияПравить

  1. Linnet, 1993.
  2. Adcock, 1878.
  3. Kummell, 1879.
  4. Koopmans, 1937.
  5. Deming, 1943.
  6. Cornbleet, Gochman, 1979, с. 432–438.
  7. Fuller, 1987, с. ch.1.3.3.
  8. Glaister, 2001, с. 104-107.
  9. Minda, Phelps, 2008, с. 679–689, Theorem 2.3.
  10. Coolidge, 1913, с. 187–190.
  11. Minda, Phelps, 2008, с. 679–689, Corollary 2.4.

ЛитератураПравить