Это не официальный сайт wikipedia.org 01.01.2023

Стохастическая аппроксимация — Википедия

Стохастическая аппроксимация

Стохастическая аппроксимациярекуррентный метод построения состоятельной последовательности оценок решений уравнений регрессии и экстремумов функций регрессии в задачах непараметрического оценивания. В биологии, химии, медицине используется для анализа результатов опытов. В теории автоматического управления применяется как средство решения задач распознавания, идентификации, обучения и адаптации[1]. Основоположниками метода стохастической аппроксимации являются Кифер, Вольфовиц[2], Робинс, Монро [3].

Поиск решения уравнения регрессииПравить

Пусть каждому значению параметра x   соответствует измеряемая опытным путём случайная величина y   с функцией распределения F ( y | x )  , причем математическое ожидание величины y   при фиксированном параметре x   m ( y | x ) = m ( x )  . Требуется найти решение уравнения регрессии m ( x ) = α  . Предполагается, что решение уравнения регрессии единственно, а функции F ( y | x )   и m ( x )   неизвестны.

Процедура стохастической аппроксимации для получения оценок корня x ^   уравнения регрессии m ( x ^ ) = α   заключается в использовании полученной на основании опыта обучающей выборки измеряемых случайных величин y 1 , . . . , y n  .

Оценка x n + 1 ^   искомого корня находится на основе предыдущей оценки x n ^   с помощью обучающего значения измеренной случайной величины y n   с помощью соотношения x n + 1 ^ = x n ^ + a n ( α y n )  , где n 1  , x 1 ^   - произвольное число[3].

Если последовательность коэффициентов a n   удовлетворяет условиям a n > 0  , n = 1 a n =  , n = 1 a n 2 <  , то при n   оценка x n + 1 ^   стремится по вероятности к корню уравнения m ( x ^ ) = α  .

При некоторых дополнительных требованиях к функции регрессии m ( x )   оценки x n + 1 ^   могут сходится в среднеквадратическом к решению уравнения регрессии [4][5].

ПримерыПравить

  • Твёрдость сплава меди с железом y   зависит от времени x  , в течение которого сплав подвергается воздействию высокой температуры. В этом случае измеряемой случайной величиной является твёрдость сплава y  , а задача состоит в определении времени x ^  , при котором сплав имеет заданную твёрдость y = α  [6].

Поиск экстремума функции регрессииПравить

Оценка x n + 1 ^   экстремального значения функции регрессии находится на основе предыдущей оценки x n ^   и обучающих значений измеренной случайной величины y 2 n   и y 2 n 1   с помощью соотношения x n + 1 ^ = x n ^ + a n c n ( y 2 n y 2 n 1 )  , где n 1  , x 1 ^   - произвольное число, a n   - последовательность положительных чисел, а последовательности y 2 n   и y 2 n 1   независимы и соответствуют значениям параметра x n ^ + c n   и x n ^ c n  [2].

Если последовательности коэффициентов a n   и c n   удовлетворяют условиям a n > 0  , c n > 0  , c n 0   при n  , n = 1 a n =  , n = 1 a n c n <  , n = 1 ( a n c n ) 2 <  , то при n   оценка x n + 1 ^   стремится по вероятности к экстремальному значению функции регрессии.

При некоторых дополнительных требованиях к функции регрессии m ( x )   оценки x n + 1 ^   могут сходится в среднеквадратическом к экстремуму функции регрессии[5].

ПримерыПравить

  • Урожайность участка земли y   зависит от количества удобрений x  . В этом случае измеряемой случайной величиной является урожайность y  , а задача состоит в определении количества удобрений x ^  , при котором участок земли имеет макcимальную урожайность[6].

ПримечанияПравить

  1. Цыпкин Я.З. “Адаптация, обучение и самообучение в автоматических системах”, // Автоматика и телемеханика. — 1966. — № 1. — С. 23–61. — ISSN 0005-2310. — URL: http://mi.mathnet.ru/at10991
  2. 1 2 Кiefer J., Wolfowitz J. Stochastic Estimation of the Maximum of a Regression Function // Ann. Math. Statistics. — 1952. — v. 23. — № 3.
  3. 1 2 Robbins Н., Monro S. A stochastic approximation method // Annals of Math. Stat. — 1951. — v. 22. — № 1. — С. 400—407.
  4. Вазан, 1972, с. 18.
  5. 1 2 Логинов Н. В. “Методы стохастической аппроксимации” // Автоматика и телемеханика. — 1966. — № 4. — С. 185–204. — ISSN 0005-2310. — URL: http://mi.mathnet.ru/at11080
  6. 1 2 Вазан, 1972, с. 10.

ЛитератураПравить

  • Вазан М. Стохастическая аппроксимация. — М.: Мир, 1972. — 295 с.
  • Цыпкин Я.З. Основы теории обучающихся систем. — М.: Наука, 1970. — 251 с.
  • Цыпкин Я.З. Адаптация и обучение в автоматических системах. — М.: Наука, 1968. — 399 с.