Это не официальный сайт wikipedia.org 01.01.2023

Обучение на примерах — Википедия

Обучение на примерах

Обучение на примерах (англ. Learning from Examples) — вид обучения, при котором интеллектуальной системе предъявляется набор положительных и отрицательных примеров, связанных с какой-либо заранее неизвестной закономерностью. В интеллектуальных системах вырабатываются решающие правила, с помощью которых происходит разделение множества примеров на положительные и отрицательные. Качество разделения, как правило, проверяется экзаменационной выборкой примеров.[1]

Математическая формализацияПравить

Пусть X   — множество описаний объектов, Y   — множество допустимых ответов. Существует неизвестная целевая зависимость — отображение y : X Y  , значения которой известны только на объектах конечной обучающей выборки X m = { ( x 1 , y 1 ) , , ( x m , y m ) }  . Требуется построить алгоритм a : X Y  , который приближал бы неизвестную целевую зависимость как на элементах выборки, так и на всём множестве X  .

Говорят также, что алгоритм должен обладать способностью к обобщению эмпирических фактов, или выводить общее знание (закономерность, Зависимость) из частных фактов (наблюдений, прецедентов).

Функции потерь и функционалы качестваПравить

Вводится функция потерь L ( y , y )  , характеризующая величину отклонения ответа y = a ( x )   от правильного ответа y = y ( x )   на произвольном объекте x X  .

Типичный выбор функции потерь:

  • В задачах классификации L ( y , y ) = [ y y ]  ;
  • В задачах регрессии L ( y , y ) = ( y y ) 2  .

Вводится функционал качества, характеризующий среднюю ошибку (эмпирический риск) алгоритма a   на произвольной выборке X m  

Q ( a , X m ) = 1 m i = 1 m L ( a ( x i ) , y ( x i ) ) .  

Метод минимизации эмпирического риска — один из наиболее распространённых подходов к обучению алгоритмов по прецедентам. Он заключается в том, чтобы в заданной модели алгоритмов A = { a : X Y }   найти алгоритм, минимизирующий среднюю ошибку на обучающей выборке:

a = a r g min a A Q ( a , X m ) .  

Тем самым задача обучения сводится к оптимизации и может быть решена численными методами оптимизации.

Обобщающая способность и проблема переобученияПравить

Малое значение функционала качества на обучающей выборке не гарантирует, что построенный алгоритм будет хорошо восстанавливать целевую зависимость на всём пространстве X  . Существует опасность переподгонки или переобучения, когда делается попытка описать конкретные данные точнее, чем в принципе позволяет уровень шума в данных и погрешность самой модели.

Легко указать пример алгоритма, который минимизирует эмпирический риск до нуля, но при этом не обладает способностью к обобщению. Получив обучающую выборку X m  , он запоминает её, и потом сравнивает предъявляемый объект x   с обучающими объектами x i   из X m  . В случае совпадения x = x i   алгоритм выдаёт правильный ответ y i  . Иначе выдаётся произвольный ответ. Эмпирический риск принимает наименьшее возможное значение, равное нулю. Однако этот алгоритм не способен восстановить зависимость вне объектов обучения. Этот пример убедительно показывает, что для успешного обучения необходимо не только запоминать, но и обобщать.

Практически в каждом методе предпринимаются специальные усилия, чтобы избежать переобучения. Границы применимости метода минимизации эмпирического риска и проблему переобучения изучает статистическая теория обучения.

Признаковое пространствоПравить

Признаком называется отображение f : X D f  , где D f   — множество допустимых значений признака. Если заданы признаки f 1 , , f n  , то вектор x = ( f 1 ( x ) , , f n ( x ) )   называется признаковым описанием объекта x X  . Признаковые описания допустимо отождествлять с самими объектами. При этом множество X = D f 1 × × D f n   называют признаковым пространством.

В зависимости от множества D f   признаки делятся на следующие типы:

Часто встречаются прикладные задачи с разнотипными признаками, для их решения подходят далеко не все методы.

Решаемые задачиПравить

Задача восполнения пропущенных данныхПравить

Исходная информация представляется в виде признаковых описаний. Значения некоторых признаков для некоторых объектов могут отсутствовать. Такие случаи часто возникают на практике. Например, экспериментатор может не записать результат наблюдения; респондент может отказаться отвечать на вопрос анкеты; пациент может не пройти данный вид обследования; и т.д. Однако многие методы анализа данных требуют, чтобы входная матрица признаковых описаний была заполнена полностью. Для заполнения отсутствующих значений часто применяют следующий подход. Считая данный признак целевым, строят алгоритм, прогнозирующий его значение в зависимости от других признаков. Пропущенные значения заполняют прогнозами. Эта операция проделывается со всеми признаками, имеющими пропущенные значения.

Если признак количественный, применяются методы восстановления регрессии, если признак качественный (номинальный), применяются методы классификации.

АлгоритмыПравить

ПримечанияПравить

  1. А. Н. Аверкин, М. Г. Гаазе-Рапопорт, Д. А. Поспелов «Толковый словарь по искусственному интеллекту» [1] Архивная копия от 5 мая 2010 на Wayback Machine

ЛитератураПравить

  1. Айвазян С. А., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: основы моделирования и первичная обработка данных. — М.: Финансы и статистика, 1983.
  2. Айвазян С. А., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: исследование зависимостей. — М.: Финансы и статистика, 1985.
  3. Айвазян С. А., Бухштабер В. М., Енюков И. С., Мешалкин Л. Д. Прикладная статистика: классификация и снижение размерности. — М.: Финансы и статистика, 1989.
  4. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979.
  5. Журавлев Ю. И., Рязанов В. В., Сенько О. В. «Распознавание». Математические методы. Программная система. Практические применения. — М.: Фазис, 2006. ISBN 5-7036-0108-8.
  6. Загоруйко Н. Г. Прикладные методы анализа данных и знаний. — Новосибирск: ИМ СО РАН, 1999. ISBN 5-86134-060-9.
  7. Шлезингер М., Главач В. Десять лекций по статистическому и структурному распознаванию. — Киев: Наукова думка, 2004. ISBN 966-00-0341-2.
  8. Hastie, T., Tibshirani R., Friedman J. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. — 2nd ed. — Springer-Verlag, 2009. — 746 p. — ISBN 978-0-387-84857-0..
  9. Mitchell T. Machine Learning. — McGraw-Hill Science/Engineering/Math, 1997. ISBN 0-07-042807-7.

СсылкиПравить

  • www.MachineLearning.ru — профессиональный вики-ресурс, посвященный машинному обучению и интеллектуальному анализу данных