Это не официальный сайт wikipedia.org 01.01.2023

Алгоритм Левенберга — Марквардта — Википедия

Алгоритм Левенберга — Марквардта

Алгоритм Левенберга — Марквардта — метод оптимизации, направленный на решение задач о наименьших квадратах. Является альтернативой методу Ньютона. Может рассматриваться как комбинация последнего с методом градиентного спуска или как метод доверительных областей[1] (Марквард, стр 492). Алгоритм был сформулирован независимо Левенбергом (1944) и Марквардтом (1963).

Постановка задачиПравить

Пусть имеется задача о наименьших квадратах вида:

F ( x ) = f ( x ) 2 = i = 1 m f i 2 ( x ) = i = 1 m ( φ i ( x ) F i ) 2 min .  

Эта задача отличается особым видом градиента и матрицы Гессе:

F ( x ) = 2 J T ( x ) f ( x ) ,  
H ( x ) = 2 J T ( x ) J ( x ) + 2 Q ( x ) , Q ( x ) = i = 1 m f i ( x ) H i ( x ) ,  

где J ( x )   — матрица Якоби вектор-функции f ( x )  , H i ( x )   — матрица Гессе для её компоненты f i ( x )  .

Тогда согласно методу Гаусса — Ньютона в предположении доминирующей роли слагаемого J T ( x ) J ( x )   над Q ( x )   (то есть если норма f ( x )   значительно меньше максимального собственного значения матрицы J T ( x ) J ( x )  ) очередное направление p   определяется из системы:

J T ( x ) J ( x ) p = J T ( x ) f ( x ) .  

АлгоритмПравить

Направление поиска Левенберга — Марквардта определяется из системы:

[ J T ( x k ) J ( x k ) + λ k I ] p k = J T ( x k ) f ( x k ) ,  

где λ k   — некоторая неотрицательная константа, своя для каждого шага, I   — единичная матрица.

x k + 1 = x k + p k .  

Выбор λ k   можно осуществлять, делая его достаточным для монотонного спуска по функции невязки F ( x )  , то есть увеличивать параметр до тех пор, пока не будет достигнуто условие F ( x k + 1 ) < F ( x k )  . Также параметр λ k   можно устанавливать исходя из отношения между фактическими изменениями функции f ( x ) ,   достигнутыми в результате пробных шагов, и ожидаемыми величинами этих изменений при интерполяции. Подобную процедуру построил Флетчер.

Также можно показать, что p k   удовлетворяет условию:

p k = a r g min p Δ J ( x k ) p + f ( x k ) ,  

где Δ   — параметр, связанный с λ k  .

Комбинация градиентного спуска и метода Гаусса — НьютонаПравить

Нетрудно заметить, что при λ k = 0   алгоритм вырождается в метод Гаусса — Ньютона, а при достаточно большом λ k   направление p k   незначительно отличается от направления наискорейшего спуска. Таким образом, при правильном подборе параметра λ k   добиваются монотонного убывания минимизируемой функции. Неравенство F ( x k + 1 ) < F ( x k )   всегда можно обеспечить, выбрав λ k   достаточно большим. Однако при этом теряется информация о кривизне, заключённая в первом слагаемом, и проявляются все недостатки метода градиентного спуска: в местах пологого наклона антиградиент мал, а в местах с крутым наклоном — велик, в то время как в первом случае желательно делать большие шаги, а во втором — маленькие. Так, с одной стороны, если есть длинная и узкая впадина на поверхности, определяемой функцией невязки F ( x )  , то компоненты градиента вдоль основания впадины — малы, а в направлении к стенкам — велики, в то время как идти желательно по основанию оврага. Способ учёта информации о кривизне предложил Марквардт. Он заметил, что если заменить единичную матрицу на диагональ матрицы Гессе, то можно достичь увеличения шага вдоль пологих участков и уменьшения вдоль крутых спусков:

{ J T ( x k ) J ( x k ) + λ k d i a g [ J T ( x k ) J ( x k ) ] } p k = J T ( x k ) f ( x k ) .  

Метод доверительных интерваловПравить

При рассмотрении алгоритма Левенберга — Марквардта как метода доверительных интервалов с помощью эвристик выбирается интервал Δ  , на котором строится приближение функции f ( x )  :

m ( p ) = f ( x k ) + J ( x k ) p + 1 2 p T H p .  

При этом шаг p k   определяется исходя из задачи минимизации:

m ( p ) min p Δ .  

ПримечанияПравить

  1. Б. Т. Поляк. Метод Ньютона и его роль в оптимизации и вычислительной математике // Труды Института Системного Анализа Российской Академии Наук. — 2006. — Т. 28. — С. 44–62. Архивировано 24 октября 2018 года.

ЛитератураПравить

  • Гилл Ф., Мюррей У., Райт М. Практическая оптимизация = Practical optimization. — М.: Мир, 1985. — 509 с.

СсылкиПравить