AdaBoost
AdaBoost (сокращение от англ. adaptive boosting) — алгоритм машинного обучения, предложенный Йоавом Фройндом[en] и Робертом Шапире[en]. Может использоваться в сочетании с несколькими алгоритмами классификации для улучшения их эффективности. Алгоритм усиливает классификаторы, объединяя их в ансамбль. Является адаптивным в том смысле, что каждый следующий ансамбль классификаторов строится по объектам, неверно классифицированным предыдущими комитетами. AdaBoost чувствителен к шуму в данных и выбросам. Однако он менее подвержен переобучению по сравнению с другими алгоритмами машинного обучения.
AdaBoost вызывает слабые классификаторы в цикле . После каждого вызова обновляется распределение весов , которые отвечают важности каждого из объектов обучающего множества для классификации. На каждой итерации веса каждого неверно классифицированного объекта возрастают, таким образом новый комитет классификаторов «фокусирует своё внимание» на этих объектах.
Алгоритм для задачи построения бинарного классификатораПравить
Дано: где
Инициализируем
Для каждого :
- Находим классификатор который минимизирует взвешенную ошибку классификации: , где
- Если величина , то останавливаемся.
- Выбираем , обычно где взвешенная ошибка классификатора .
- Обновляем:
-
- где является нормализующим параметром (выбранным так, чтобы являлось распределением вероятностей, то есть ).
Строим результирующий классификатор:
Выражение для обновления распределения должно быть сконструировано таким образом, чтобы выполнялось условие:
Таким образом, после выбора оптимального классификатора для распределения , объекты , которые классификатор идентифицирует корректно, имеют веса меньшие, чем те, которые идентифицируются некорректно. Следовательно, когда алгоритм тестирует классификаторы на распределении , он будет выбирать классификатор, который лучше идентифицирует объекты неверно распознаваемые предыдущим классификатором.
СсылкиПравить
- AdaBoost (англ.) Презентация, посвящённая Adaboost.
- A Short Introduction to Boosting (англ.) Введение в Adaboost, Freund и Schapire, 1999
- A decision-theoretic generalization of on-line learning and an application to boosting Journal of Computer and System Sciences, no. 55. 1997 (англ.) (Оригинальная работа Yoav Freund и Robert E.Schapire, где впервые был предложен Adaboost.)
- An applet demonstrating AdaBoost (англ.)
- Ensemble Based Systems in Decision Making, R. Polikar, IEEE Circuits and Systems Magazine, vol.6, no.3, pp. 21-45, 2006 (недоступная ссылка) (англ.) Учебник, дающий общее представление об AdaBoost, включая псевдокод, схемы алгоритмов, вопросы реализации и других алгоритмах распознавания образов.
- A Matlab Implementation of AdaBoost (англ.)
- Additive logistic regression: a statistical view of boosting. Jerome Friedman, Trevor Hastie, Robert Tibshirani (англ.) Обсуждаются вероятностные аспекты AdaBoost, описывается GentleBoost.
- Boosting — Усиление простых классификаторов. Александр Вежневец, Владимир Вежневец. Компьютерная графика и мультимедиа. Выпуск № 2(12)/2006.
Для улучшения этой статьи желательно:
|