Это не официальный сайт wikipedia.org 01.01.2023
Шаблон:Машинное обучение — Википедия
Открыть главное меню
Главная
Случайная
Поблизости
Войти
Настройки
Пожертвовать
Описание Википедии
Отказ от ответственности
Найти
Шаблон
:
Машинное обучение
Язык
Следить
Править
Машинное обучение
и
data mining
Задачи
Задача классификации
Обучение без учителя
Обучение с частичным привлечением учителя
Регрессионный анализ
AutoML
Ассоциативные правила
Выделение признаков
Обучение признакам
Обучение ранжированию
Грамматический вывод
Онлайновое обучение
Обучение с учителем
Метод k-ближайших соседей
Наивный байесовский классификатор
Дерево решений
Метод опорных векторов
Линейная регрессия
Логистическая регрессия
Перцептрон
Ансамблевое обучение
Бэггинг
Бустинг
Random forest
Метод релевантных векторов
Кластерный анализ
Метод k-средних
Метод нечёткой кластеризации
Иерархическая кластеризация
EM-алгоритм
BIRCH
CURE
DBSCAN
OPTICS
Mean-shift
Снижение размерности
Факторный анализ
Метод главных компонент
CCA
ICA
LDA
Неотрицательное матричное разложение
t-SNE
Структурное прогнозирование
Графовая вероятностная модель
Байесовская сеть
Скрытая марковская модель
CRF
Выявление аномалий
Метод k-ближайших соседей
Локальный уровень выброса
Графовые вероятностные модели
Байесовская сеть
Марковская сеть
Скрытая марковская модель
Нейронные сети
Ограниченная машина Больцмана
Самоорганизующаяся карта
Функция активации
Сигмоида
Softmax
Радиально-базисная функция
Метод обратного распространения ошибки
Глубокое обучение
Многослойный перцептрон
Рекуррентная нейронная сеть
Долгая краткосрочная память
Управляемый рекуррентный блок
Свёрточная нейронная сеть
U-Net
Автокодировщик
Обучение с подкреплением
Марковский процесс
Уравнение Беллмана
Жадный алгоритм
Q-обучение
SARSA
Temporal difference (TD)
Теория
Теория Вапника — Червоненкиса
Дилемма смещения–дисперсии
Теория вычислительного обучения
Минимизация эмпирического риска
Оккамово обучение
PAC learning
Статистическая теория обучения
Журналы и конференции
NeurIPS
ICML
ML
JMLR
ArXiv:cs.LG