Это не официальный сайт wikipedia.org 01.01.2023

Вероятно приближённо корректное обучение — Википедия

Вероятно приближённо корректное обучение

Вероятно приближённо корректное обучение (ВПК-обучение, англ. Probably Approximately Correct learning, PAC learning) — схема машинного обучения, использующая понятия асимптотической достоверности и вычислительной сложности. Предложена в 1984 году Лесли Вэлиантом[1].

В этой схеме учитель получает выборки и должен выбрать обобщающую функцию (называемую гипотезой) из определённого класса возможных функций. Целью является функция, которая с большой вероятностью (откуда «вероятно» в названии) будет иметь низкую ошибку обобщения[en] (откуда «приближенно корректное» в названии). Учитель должен быть способен обучить концепт[2], дающее произвольный коэффициент аппроксимации, вероятность успеха или распределения выборок.

Модель была позднее расширена для обработки шума (некорректно классифицируемых выборок).

Важным нововведением схемы ВПК является использование понятия о вычислительной сложности машинного обучения. В частности, ожидается, что учитель находит эффективные функции (которые ограничены по времени выполнения и требуемому пространству многочленом от размера выборки), и учитель должен реализовать эффективную процедуру (запрашивая размер примера, ограниченный многочленом от размера концепта, модифицированного границами приближения и правдоподобия).

Определения и терминологияПравить

Для формального определения используется некоторое заданное множество X  , называемое признаковым пространством или кодировкой всех выборок. Например, в задаче оптического распознавания символов признаковым пространством является X = { 0 , 1 } n  , а в задаче нахождения интервала (корректно классифицирующей точки внутри интервала как положительные и вне интервала как отрицательные) признаковым пространством является множество всех ограниченных интервалов в R  .

Ещё одно понятие, используемое в схеме — концепт — подмножество c X  . Например, множество всех последовательностей бит в X = { 0 , 1 } n  , которые кодируют рисунок буквы «P» является одним из концептов в задаче оптического распознавание символов. Примером концепта для задачи нахождения интервала служит множество открытых интервалов { ( a , b ) 0 a π / 2 , π b 13 }  , каждый из которых содержит только положительные точки. Класс концептов[en] C   — множество концептов над X  . Это может быть множество всех подмножеств каркасного[en] 4-связного[en] массива бит (ширина шрифта равна 1).

Пусть E X ( c , D )   будет процедурой, которая формирует пример x   с помощью вероятностного распределения D   и даёт правильную метку c ( x )  , которая равна 1, если x c   и 0 в противном случае. Теперь, если дано 0 < ϵ , δ < 1  , предположим, что есть алгоритм A   и многочлен p   от 1 / ϵ , 1 / δ   (и другие относящиеся к делу параметры класса C  ) такие, что, если дана выборка размера p  , нарисованный согласно E X ( c , D )  , то с вероятностью по меньшей мере 1 δ   выход алгоритма A   является гипотеза h C  , которая имеет среднюю ошибку, меньшую или равную ϵ   на X   для одного и того же распределения D  . Далее, если утверждение выше для алгоритма A   верно для любого концепта c C   и для любого распределения D   над X   и для всех 0 < ϵ , δ < 1  , тогда C   является (эффективно) ВПК-обучаемым (или свободным от распределения ВПК-обучаемым). В этом случае считается, что A   является алгоритмом ВПК-обучения для C  .

ЭквивалентностьПравить

При определённых условиях регулярности эти три условия эквивалентны:

  1. Класс понятий C   является ВПК-обучаемым.
  2. Размерность Вапника — Червоненкиса класса C   конечна.
  3. C   является однородным классом Гливенко — Кантелли.

См. такжеПравить

ПримечанияПравить

  1. Valiant1984.
  2. Концептами называют собственные подмножества множества допустимых признаков.

ЛитератураПравить