Это не официальный сайт wikipedia.org 01.01.2023

Байесовское программирование — Википедия

Байесовское программирование

Байесовское программирование — это формальная система и методология определения вероятностных моделей и решения задач, когда не вся необходимая информация является доступной.

Эдвин Томпсон Джейнс предложил рассматривать вероятность как альтернативу и расширение логики для рациональных рассуждений с неполной и неопределенной информацией. В своей основополагающей книге «Теория вероятности: логика науки»[1] он развил эту теорию и предложил то, что он назвал «роботом», который был не физическим устройством, а машиной вывода, автоматизирующей вероятностные рассуждения — что-то вроде Пролога для теории вероятности вместо логики. Байесовское программирование[2] является формальной и конкретной реализацией этого «робота».

Байесовское программирование также можно рассматривать как формальную алгебраическую систему для задания графовых моделей, таких как, например, байесовские сети, динамические байесовские сети[en], фильтры Кальмана или скрытые марковские модели. Действительно, байесовское программирование обобщает байесовские сети и имеет выразительную мощность эквивалентную фактор-графам[en].

Формальная системаПравить

Байесовская программа является средством задания семейства распределений вероятности.

Ниже представлены составляющие элементы байесовской программы:

Program { Description { Specification ( π ) { Variables Decomposition Forms Identification (based on  δ ) Question  
  1. Программа строится из описания (англ. description) и вопроса (англ. question).
  2. Описание строится с помощью какого-либо определения ( π  , англ. specification), заданного программистом, и идентификации (англ. identification) или процесса обучения для параметров, не полностью описанных в определении, с применением набора данных ( δ  ).
  3. Определение строится из набора значимых переменных (англ. variables), декомпозиции (англ. decomposition) и набора форм (англ. forms).
  4. Формы являются или параметрическими формами, или вопросами к другим байесовским программам.
  5. Вопрос задает распределение вероятности, которое необходимо вычислить.

ОписаниеПравить

Описание задает эффективный метод вычисления совместного распределения вероятности[en] набора переменных { X 1 , X 2 , , X N }   для заданного набора экспериментальных данных δ   и некоторого определения π  . Это совместное распределение обозначается как P ( X 1 X 2 X N δ π )  .

Чтобы задать предварительное знание π  , программист должен выполнить следующее:

  1. Определить набор значимых переменных { X 1 , X 2 , , X N }  , на которых задано совместное распределение вероятности.
  2. Разложить совместное распределение (разбить его на подходящие независимые или условные вероятности).
  3. Определить формы каждого из этих распределений (например, для каждой переменной выбрать одно из перечня распределений вероятности[en]).

ДекомпозицияПравить

Пусть множество { X 1 , X 2 , , X N }   содержит K   подмножеств, переменные K   определены как L 1 , , L K  , каждая из которых соответствует одному из этих подмножеств. Каждая переменная L k   получается как конъюнкция переменных { X k 1 , X k 2 , }  , относящихся к k  -тому подмножеству. Рекурсивное применение теоремы Байеса приводит к

P ( X 1 X 2 X N δ π ) = P ( L 1 L K δ π ) = P ( L 1 δ π ) × P ( L 2 L 1 δ π ) × × P ( L K L K 1 L 1 δ π )  

Применение гипотезы условной независимости позволяют проделать дальнейшие упрощения. Гипотеза условной независимости для переменной L k   определяется выбором некоторой переменной X n   среди переменных, присутствующих в конъюнкции L k 1 L 2 L 1  . Обозначая через R k   конъюнкцию выбранных переменных и принимая

P ( L k L k 1 L 1 δ π ) = P ( L k R k δ π )  

Получаем

P ( X 1 X 2 X N δ π ) = P ( L 1 δ π ) × P ( L 2 R 2 δ π ) × × P ( L K R K δ π )  

Такое упрощение совместного распределения в виде произведения более простых распределений называется декомпозицией, выведенной с помощью цепного правила[en].

Это обеспечивает, чтобы каждая переменная появлялась слева от черточки условности не менее одного раза, что является необходимым и достаточным условием написания математически верных выкладок[источник не указан 2565 дней].

ФормыПравить

Каждое распределение P ( L k R k δ π )  , встречающееся в произведении, далее связывается или с параметрической формой (то есть функцией f μ ( L k )  ), или с вопросом к другой байсовской программе P ( L k R k δ π ) = P ( L R δ ^ π ^ )  .

Когда это форма f μ ( L k )  , в общем случае μ   является вектором параметров, которые могут зависеть или от R k  , или δ  , или от обоих. Когда некоторые из этих параметров вычисляются с применением набора данных δ  , происходит обучение.

Важная особенность байесовского программирования — это способность использовать вопросы к другим байесовским программам как составляющую определения новой байесовской программы. P ( L k R k δ π )   получается выводом, произведенным другой байесовской программой, заданной определением π ^   и данными δ ^  . Это похоже на вызов подпрограммы в классическом программировании, и предоставляет простой способ построения иерархических моделей.

ВопросПравить

Пусть дано описание (то есть P ( X 1 X 2 X N δ π )  ), вопрос получается разбиением { X 1 , X 2 , , X N }   на три множества: исследуемые (англ. searched) переменные, известные (англ. known) переменные и свободные (англ. free) переменные.

Три переменные S e a r c h e d  , K n o w n   и F r e e   определяются как конъюнкция переменных, принадлежащих к этим множествам.

Вопрос определяется как набор распределений

P ( S e a r c h e d Known δ π )  

составленный из «конкретизированных вопросов» как кардинал K n o w n  , где каждый конкретизированный вопрос является распределением

P ( Searched Known δ π )  

ВыводПравить

Для заданного совместного распределения P ( X 1 X 2 X N δ π )   всегда возможно вычислить любой вопрос, применяя следующий общий вывод:

P ( Searched Known δ π ) = Free [ P ( Searched Free Known δ π ) ] = Free [ P ( Searched Free Known δ π ) ] P ( Known δ π ) = Free [ P ( Searched Free Known δ π ) ] Free Searched [ P ( Searched Free Known δ π ) ] = 1 Z × Free [ P ( Searched Free Known δ π ) ]  

где первое равенство следует из правила обособления (англ. marginalization rule), второе вытекает из теоремы Байеса, а третье соответствует второму применению обособления. Знаменатель оказывается нормирующим членом (англ. normalization term), и его можно заменить постоянной Z  .

Теоретически это позволяет решать любые задачи байесовского вывода. Однако на практике почти во всех случаях затраты на исчерпывающее и точное вычисление P ( Searched Known δ π )   оказываются слишком большими.

Заменяя совместное распределение его декомпозицией, получаем

P ( Searched Known δ π ) = 1 Z Free [ k = 1 K [ P ( L i K i π ) ] ]  

которое обычно является выражением, значительно более простым для вычисления, поскольку размерность задачи значительно снижена разложением на произведение распределений меньшей размерности.

ПримерПравить

Байесовское обнаружение спамаПравить

Целью байесовской фильтрации спама является устранение мусорных электронных писем.

Формулировка этой задачи достаточно простая. Электронные письма должны классифицироваться по одной из двух категорий: не-спам и спам. Единственной доступной информацией для классификации электронных писем является их содержание: набор слов. Использование слов без принятия во внимания их порядка в предложении часто называют моделью мешка слов.

Кроме того, классификатор должен быть способным адаптироваться к своему пользователю и учиться из опыта. Начиная со стандартной начальной настройки, классификатор должен изменять свои внутренние параметры, если пользователь не соглашается с его решением. Он, следовательно, будет адаптироваться к пользовательским критериям различия между не-спамом и спамом. Он будет улучшать собственные результаты, сталкиваясь со все большим количеством классифицированных электронных писем.

ПеременныеПравить

Следующие переменные необходимы для написания этой программы:

  1. S p a m  : двоичная переменная, ложь, если электронное письмо не является спамом, и истина в противном случае.
  2. W 0 , W 1 , , W N 1  : N   двоичных переменных. W n   является истиной, если n  -ое слово словаря присутствует в тексте.

Эти N + 1   двоичных переменных суммируют всю информацию об электронной почте.

ДекомпозицияПравить

Начиная с определения совместного распределения и рекурсивно применяя теорему Байеса, получаем:

P ( Spam W 0 W N 1 ) = P ( Spam ) × P ( W 0 Spam ) × P ( W 1 Spam W 0 ) × × P ( W N 1 Spam W 0 W N 2 )  

Это точное математическое выражение.

Оно может быть радикально упрощено, если предположить, что вероятность появления слова при известной категории текста (спам или нет) является независимой от появления других слов. Такое предположение является наивным байесовским, и поэтому этот фильтр спама является наивной байсовской моделью.

Например, программист может предположить, что

P ( W 1 Spam W 0 ) = P ( W 1 Spam )  

и в итоге получить

P ( Spam W 0 W N 1 ) = P ( Spam ) n = 0 N 1 [ P ( W n Spam ) ]  

Это предположение известно как наивное байесовское предположение. Оно является «наивным» в том смысле, что независимость между словами, очевидно, не является истинной. Например, оно полностью пренебрегает тем, что появление пары слов может быть более значимым, чем изолированные появления. Однако программист может принять эту гипотезу, и может разрабатывать эту модель и связанный с ней вывод, чтобы проверить, насколько надежной и эффективной она является.

Параметрические формыПравить

Чтобы иметь возможность вычислить совместное распределение, программист теперь должен указать N + 1   распределений, присутствующих в разложении:

  1. P ( Spam )   определено априорно, например, как P ( [ Spam = 1 ] ) = 0.75  
  2. Каждая из N   форм P ( W n Spam )   может быть задана с помощью правила следования Лапласа[en] (это методика сглаживания[en] на базе псевдосчетчика[en] для преодоления проблемы нулевой частоты до сих пор не встречавшихся слов):
    1. P ( W n [ Spam = false ] ) = 1 + a f n 2 + a f  
    2. P ( W n [ Spam = true ] ) = 1 + a t n 2 + a t  

где a f n   — количество появлений n  -го слова в неспамовых электронных письмах, а a f   — общее количество неспамовых электронных писем. Аналогично, a t n   — количество появлений n  -го слова в спамовых электронных письмах, а a t   — общее количество спамовых электронных писем.

ИдентификацияПравить

N   форм P ( W n Spam )   еще не определены полностью, поскольку 2 N + 2   параметров a f n = 0 , , N 1  , a t n = 0 , , N 1  , a f   и a t   еще не имеют значений.

Идентификация этих параметров может быть осуществлена или пакетной обработкой группы классифицированных электронных писем, или инкрементальным обновлением параметров с помощью классификации электронных писем пользователем в процессе их поступления.

Оба метода могут быть объединены: система может стартовать с начальными стандартными значениями этих параметров, выданных из обобщенной базы данных, а затем некоторое инкрементальное обучение подгоняет классификатор под каждого отдельного пользователя.

ВопросПравить

Вопрос, который задается программе: «какова вероятность того, что данный текст является спамом, если известно, какие слова в нем присутствуют, а какие — нет?» Его можно формализовать как

P ( Spam w 0 w N 1 )  

что может быть вычислено следующим образом:

P ( Spam w 0 w N 1 ) = P ( Spam ) n = 0 N 1 [ P ( w n Spam ) ] Spam [ P ( Spam ) n = 0 N 1 [ P ( w n Spam ) ] ]  

В этом выражении знаменатель оказывается нормализующей константой[en]. Его не обязательно вычислять для того, чтобы выяснить, имеем ли мы дело со спамом. Например, простой прием для вычисления отношения:

P ( [ Spam = true ] w 0 w N 1 ) P ( [ Spam = false ] w 0 w N 1 ) = P ( [ Spam = true ] ) P ( [ Spam = false ] ) × n = 0 N 1 [ P ( w n [ Spam = true ] ) P ( w n [ Spam = false ] ) ]  

Такое вычисление является более быстрым и удобным, поскольку оно требует всего лишь 2 N   произведений.

Байесовская программаПравить

Программа байесовского фильтра спама полностью определяется как

Pr { D s { S p ( π ) { V a : Spam , W 0 , W 1 W N 1 D c : { P ( Spam W 0 W n W N 1 ) = P ( Spam ) n = 0 N 1 P ( W n Spam ) F o : { P ( Spam ) : { P ( [ Spam = false ] ) = 0.25 P ( [ Spam = true ] ) = 0.75 P ( W n Spam ) : { P ( W n [ Spam = false ] ) = 1 + a f n 2 + a f P ( W n [ Spam = true ] ) = 1 + a t n 2 + a t Identification (based on  δ ) Q u : P ( Spam w 0 w n w N 1 )  

Фильтр Байеса, фильтр Кальмана и скрытая модель МарковаПравить

Байесовские фильтры (которые часто называют рекурсивной байесовской оценкой[en]) являются общими вероятностными моделями для процессов, разворачивающихся во времени. Многочисленные модели являются частными случаями этого общего подхода, например, фильтр Кальмана или скрытая марковская модель.

ПеременныеПравить

  • Переменные S 0 , , S T   — временной ряд переменных состояния, которые рассматриваются на временном горизонте в диапазоне от 0   до T  .
  • Переменные O 0 , , O T   — временной ряд переменных наблюдения на этом же горизонте.

ДекомпозицияПравить

Декомпозиция основывается на:

  • P ( S t S t 1 )  , называемой моделью системы, моделью перехода или динамической моделью, которая формализует переход от состояния в момент времени t 1   в состояние в момент времени t  ;
  • P ( O t S t )  , называемой моделью наблюдения, которая выражает, что может наблюдаться в момент времени t  , когда система находится в состоянии S t  ;
  • исходном состоянии в момент времени 0  : P ( S 0 O 0 )  .

Параметрические формыПравить

Выбор параметрических форм не ограничен, и различные варианты ведут к различным хорошо известным моделям: см. ниже фильтры Кальмана и скрытые марковские модели.

ВопросПравить

Обычный вопрос для этих моделей — P ( S t + k O 0 O t )  : каково распределение вероятности состояния в момент времени t + k  , если известны наблюдения от момента 0   до t  ?

Самый общий случай — это байесовская фильтрация, для которой k = 0  , что означает, что определяется состояние в настоящий момент времени при известных предыдущих наблюдениях.

Однако также возможно осуществлять и экстраполяцию ( k > 0 )   будущего состояния, используя прошлые наблюдения, или осуществлять сглаживание ( k < 0 )  , чтобы восстановить прошлое состояние из наблюдений, сделанных или до, или после некоторого момента времени.

Могут задаваться и более сложные вопросы, как показано ниже в разделе СММ.

Байесовские фильтры ( k = 0 )   имеют очень интересное рекурсивное свойство, что значительно способствует их привлекательности. P ( S t | O 0 O t )   может быть вычислено просто с помощью P ( S t 1 O 0 O t 1 )   по следующей формуле:

P ( S t | O 0 O t ) = P ( O t | S t ) × S t 1 [ P ( S t | S t 1 ) × P ( S t 1 | O 0 O t 1 ) ]  

Еще одна интересная точка зрения на это уравнение — рассмотреть существование двух фаз: фазы предвидения и фазы оценки:

  • В течение фазы предвидения состояние предсказывается с помощью динамической модели и оценки состояния в предыдущий момент:
P ( S t | O 0 O t 1 ) = S t 1 [ P ( S t | S t 1 ) × P ( S t 1 | O 0 O t 1 ) ]  
  • В течение фазы оценки предсказание или подтверждается, или признается недействительным с помощью последнего наблюдения:
P ( S t O 0 O t ) = P ( O t S t ) × P ( S t | O 0 O t 1 )  

Байесовская программаПравить

P r { D s { S p ( π ) { V a : S 0 , , S T , O 0 , , O T D c : { P ( S 0 S T O 0 O T | π ) = P ( S 0 O 0 ) × t = 1 T [ P ( S t | S t 1 ) × P ( O t | S t ) ] F o : { P ( S 0 O 0 ) P ( S t | S t 1 ) P ( O t | S t ) I d Q u : { P ( S t + k | O 0 O t ) ( k = 0 ) Filtering ( k > 0 ) Prediction ( k < 0 ) Smoothing  

Фильтр КальманаПравить

Хорошо известные фильтры Кальмана[3] являются частным случаем байесовских фильтров.

Они задаются следующей байесовской программой:

P r { D s { S p ( π ) { V a : S 0 , , S T , O 0 , , O T D c : { P ( S 0 O T | π ) = [ P ( S 0 O 0 | π ) t = 1 T [ P ( S t | S t 1 π ) × P ( O t | S t π ) ] ] F o : { P ( S t S t 1 π ) G ( S t , A S t 1 , Q ) P ( O t S t π ) G ( O t , H S t , R ) I d Q u : P ( S T O 0 O T π )  
  • Переменные являются непрерывными.
  • Модели перехода P ( S t S t 1 π )   и наблюдения P ( O t S t π )   определяются с помощью распределения Гаусса, в котором средние значения являются линейными функциями условных переменных.

Используя эти гипотезы и рекурсивной формулу, задачу вывода для получения ответа на обычный вопрос P ( S T O 0 O T π )   можно решать аналитически. Это дает чрезвычайно эффективный алгоритм, что объясняет популярность фильтров Кальмана и многочисленность их повседневных применений.

Когда очевидных линейных моделей перехода и наблюдения нет, часто все еще возможно, применяя разложение Тейлора первого порядка, считать эти модели линейными локально. Это обобщение обычно называют расширенным фильтром Кальмана[en].

Скрытая марковская модельПравить

Скрытые марковские модели (СММ) — еще один очень популярный частный случай фильтров Кальмана.

Они задаются следующей байесовской программой:

Pr { D s { S p ( π ) { V a : S 0 , , S T , O 0 , , O T D c : { P ( S 0 O T π ) = [ P ( S 0 O 0 π ) t = 1 T [ P ( S t S t 1 π ) × P ( O t S t π ) ] ] F o : { P ( S 0 O 0 π ) Matrix P ( S t S t 1 π ) Matrix P ( O t S t π ) Matrix I d Q u : max S 1 S T 1 [ P ( S 1 S T 1 S T O 0 O T π ) ]  
  • Переменные считаются дискретными.
  • Модели перехода P ( S t S t 1 π )   и наблюдения P ( O t S t π )   задаются с помощью матриц вероятностей.
  • Вопрос, который чаще всего задают скрытым марковским моделям:
max S 1 S T 1 [ P ( S 1 S T 1 S T O 0 O T π ) ]  

Какова наиболее вероятная последовательность состояний, ведущая к текущему состоянию при известных прошлых наблюдениях?

Ответ на данный вопрос можно получать посредством очень эффективного алгоритма — алгоритма Витерби.

Также для СММ был разработан алгоритм Баума-Велша.

ПрименениеПравить

Академические примененияПравить

В течение последних 15 лет байесовское программирование применялось во многих университетах для разработки как приложений в робототехнике, так и моделей в науках о жизни[4].

РобототехникаПравить

В робототехнике байесовское программирование применялось в автономной робототехнике[5][6][7][8][9], роботизированных САПР[10], системах расширенной помощи водителю[en][11], роботизированном управлении манипуляторами[en], мобильной робототехнике[en][12][13], человеко-роботном взаимодействии[14], человеко-автомобильном взаимодействии (байесовские модели автономного водителя)[15][16][17][18][19][20], программировании и обучении аватаров в видеоиграх[21] и в стратегических играх реального времени (ИИ).[22]

Науки о жизниПравить

В науках о жизни байесовское программирование применялось в науках о зрении для восстановления формы по движению[23], для моделирования зрительно-вестибулярной взаимодействия[24] и исследования саккадического движения глаз[25]; в восприятии и контроле речи для исследования раннего усвоения речи[en][26] и появления артикулярно-акустических систем[27]; для моделирования восприятия и контроля рукописного текста[28].

Распознавание образовПравить

Байесовское программирование имеет потенциальные приложения в области распознавания и синтеза речи, распознавания изображений и обработке естественного языка. Здесь оно использует принципы композируемости (построение абстрактных представлений из частей), причинности (построение сложного из частей) и обучения обучению (использование понятий, распознанных ранее, для упрощения создания новых понятий)[29].

Байесовское программирование и теории возможностейПравить

Сравнение вероятностных подходов (не только байесовского программирования) и теорий возможностей продолжает оставаться предметом дебатов.

Теории возможностей, такие как, например, нечеткие множества[30], нечеткая логика[31] и собственно теория возможностей[32] предлагают различные альтернативы для моделирования неопределенности с помощью вероятности. Они утверждают, что вероятность является недостаточной или неудобной для моделирования определенных аспектов неполного или неопределенного знания.

Защита вероятностного подхода главным образом базируется на теореме Кокса[en], которая состоит из четырех постулатов относительно рационального рассуждения в условиях неопределенности. Она показывает, что единственная математическая модель, которая удовлетворяет этим постулатам, это теория вероятности. Доказательство заключается в том, что любой другой подход отличный от теории вероятности нарушает один из этих постулатов.

Байесовское программирование и вероятностное программированиеПравить

Цель вероятностного программирования — объединение сферы классических языков программирования с вероятностным моделированием (особенно с байесовскими сетями) для того, чтобы быть в состоянии иметь дело с неопределенностью и в то же время пользоваться выразительной силы языков программирования для описания сложных моделей.

Расширенные классические языки программирования включают в себя логические языки, как предлагается в Вероятностной абдукции Горна[en] (англ. Probabilistic Horn Abduction)[33], Логике независимого выбора (англ. Independent Choice Logic)[34], PRISM[35] и ProbLog, являющимся расширением языка Prolog.

Оно также может быть расширением функциональных языков программирования (по сути LISP и Scheme), такими как IBAL или Church. Языки, лежащие в основе расширения, также могут быть объектно-ориентированными, как в случае BLOG и FACTORIE, или более стандартными, как в CES и FIGARO Архивная копия от 1 февраля 2016 на Wayback Machine.

Цель байесовского программирования несколько другая. Установка Джейнса о «вероятности как логике» отстаивает мнение, что вероятность является расширением и альтернативой логике, поверх которой может быть выстроена заново вся теория рациональности, алгоритмов и программирования[1]. Байесовское программирование не ищет способа расширить классические языки, оно стремится заменить их новым подходом к программированию на основе вероятности, который учитывает неполноту и неопределенность.

Точное сравнение семантики и выразительной мощности байесовского и вероятностного программирования пока остается открытым вопросом.

См. такжеПравить

ПримечанияПравить

  1. 1 2 Jaynes, Edwin T. Probability Theory: The Logic of Science (англ.). — Cambridge University Press, 2003. — ISBN 0-521-59271-2. Архивная копия от 21 февраля 2016 на Wayback Machine
  2. Bessière, P.; Mazer, E.; Ahuactzin, J-M.; Mekhnacha, K. Bayesian Programming (англ.). — Chapman & Hall/CRC, 2013. — ISBN 9781439880326.
  3. Kalman, R. E. A New Approach to Linear Filtering and Prediction Problems (англ.) // Transactions of the ASME--Journal of Basic Engineering : journal. — 1960. — Vol. 82. — P. 33——45. — doi:10.1115/1.3662552.
  4. Bessière, P.; Laugier, C. & Siegwart, R. Probabilistic Reasoning and Decision Making in Sensory-Motor Systems (англ.). — Springer  (англ.) (рус., 2008. — ISBN 978-3-540-79007-5.
  5. Lebeltel, O.; Bessière, P.; Diard, J.; Mazer, E. Bayesian Robot Programming (англ.) // Advanced Robotics. — 2004. — Vol. 16, no. 1. — P. 49——79. — doi:10.1023/b:auro.0000008671.38949.43.
  6. Diard, J.; Gilet, E.; Simonin, E.; Bessière, P. Incremental learning of Bayesian sensorimotor models: from low-level behaviours to large-scale structure of the environment (англ.) // Connection Science : journal. — 2010. — Vol. 22, no. 4. — P. 291——312. — doi:10.1080/09540091003682561.
  7. Pradalier, C.; Hermosillo, J.; Koike, C.; Braillon, C.; Bessière, P.; Laugier, C. The CyCab: a car-like robot navigating autonomously and safely among pedestrians (англ.) // Robotics and Autonomous Systems : journal. — 2005. — Vol. 50, no. 1. — P. 51——68. — doi:10.1016/j.robot.2004.10.002.
  8. Ferreira, J.; Lobo, J.; Bessière, P.; Castelo-Branco, M.; Dias, J. A Bayesian Framework for Active Artificial Perception (англ.) // IEEE Transactions on Systems, IEEE Transactions on Systems, Man, and Cybernetics, Part B : journal. — 2012. — Vol. 99. — P. 1——13.
  9. Ferreira, J. F.; Dias, J. M. Probabilistic Approaches to Robotic Perception (англ.). — Springer  (англ.) (рус., 2014.
  10. Mekhnacha, K.; Mazer, E.; Bessière, P. The design and implementation of a Bayesian CAD modeler for robotic applications (англ.) // Advanced Robotics : journal. — 2001. — Vol. 15, no. 1. — P. 45——69. — doi:10.1163/156855301750095578.
  11. Coué, C.; Pradalier, C.; Laugier, C.; Fraichard, T.; Bessière, P. Bayesian Occupancy Filtering for Multitarget Tracking: an Automotive Application (англ.) // International Journal of Robotics Research  (англ.) (рус. : journal. — 2006. — Vol. 25, no. 1. — P. 19——30. — doi:10.1177/0278364906061158.
  12. Vasudevan, S.; Siegwart, R. Bayesian space conceptualization and place classification for semantic maps in mobile robotics (англ.) // Robotics and Autonomous Systems : journal. — 2008. — Vol. 56, no. 6. — P. 522——537. — doi:10.1016/j.robot.2008.03.005.
  13. Perrin, X.; Chavarriaga, R.; Colas, F.; Seigwart, R.; Millan, J. Brain-coupled interaction for semi-autonomous navigation of an assistive robot (англ.) // Robotics and Autonomous Systems : journal. — 2010. — Vol. 58, no. 12. — P. 1246——1255. — doi:10.1016/j.robot.2010.05.010.
  14. Rett, J.; Dias, J.; Ahuactzin, J-M. Bayesian reasoning for Laban Movement Analysis used in human-machine interaction (англ.) // Int. J. of Reasoning-based Intelligent Systems : journal. — 2010. — Vol. 2, no. 1. — P. 13——35. — doi:10.1504/IJRIS.2010.029812.
  15. Möbus, C.; Eilers, M.; Garbe, H. & Zilinski, M. (2009), Probabilistic and Empirical Grounded Modeling of Agents in (Partial) Cooperative Traffic Scenarios, in Duffy, Vincent G., Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, с. 423-432, ISBN 978-3-642-02808-3, doi:10.1007/978-3-642-02809-0_45  Архивная копия от 11 июня 2018 на Wayback Machine
  16. Möbus, C. & Eilers, M. (2009), Further Steps Towards Driver Modeling according to the Bayesian Programming Approach, in Duffy, Vincent G., Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, с. 413-422, ISBN 978-3-642-02808-3, doi:10.1007/978-3-642-02809-0_44  Архивная копия от 10 июня 2018 на Wayback Machine
  17. Eilers, M.; Möbus, C. (2010). “Lernen eines modularen Bayesian Autonomous Driver Mixture-of-Behaviors (BAD MoB) Modells” (PDF). In Kolrep, H.; Jürgensohn, Th. Fahrermodellierung - Zwischen kinematischen Menschmodellen und dynamisch-kognitiven Verhaltensmodellen. Fortschrittsbericht des VDI in der Reihe 22 (Mensch-Maschine-Systeme). Düsseldorf, Germany: VDI-Verlag. pp. 61–74. ISBN 978-3-18-303222-8. Архивировано из оригинала (PDF) 2014-02-03. Используется устаревший параметр |deadlink= (справка)
  18. Möbus, C.; Eilers, M. Handbook of Research on Ambient Intelligence and Smart Environments: Trends and Perspectives (англ.) / Mastrogiovanni, F.; Chong, N.-Y.. — Hershey, Pennsylvania (USA): IGI Global publications, 2011. — P. 460—512. — ISBN 9781616928575. — doi:10.4018/978-1-61692-857-5.ch023.
  19. Eilers, M.; Möbus, C. (2011). “Learning the Relevant Percepts of Modular Hierarchical Bayesian Driver Models Using a Bayesian Information Criterion”. In Duffy, V.G. Digital Human Modeling. LNCS 6777. Heidelberg, Germany: Springer. pp. 463—472. DOI:10.1007/978-3-642-21799-9_52. ISBN 978-3-642-21798-2. Архивировано из оригинала 2014-02-03 |archive-url= требует |url= (справка на английском). Используется устаревший параметр |deadlink= (справка)
  20. Eilers, M.; Möbus, C. (2011). “Learning of a Bayesian Autonomous Driver Mixture-of-Behaviors (BAD-MoB) Model”. In Duffy, V.G. Advances in Applied Digital Human Modeling. LNCS 6777. Boca Raton, USA: CRC Press, Taylor & Francis Group. pp. 436—445. ISBN 978-1-4398-3511-1. Архивировано из оригинала 2014-02-01. Используется устаревший параметр |deadlink= (справка)
  21. Le Hy, R.; Arrigoni, A.; Bessière, P.; Lebetel, O. Teaching Bayesian Behaviours to Video Game Characters (англ.) // Robotics and Autonomous Systems : journal. — 2004. — Vol. 47, no. 2—3. — P. 177——185. — doi:10.1016/j.robot.2004.03.012.
  22. Synnaeve, G. Bayesian Programming and Learning for Multiplayer Video Games (англ.). — 2012. Архивная копия от 13 сентября 2014 на Wayback Machine
  23. Colas, F.; Droulez, J.; Wexler, M.; Bessière, P. A unified probabilistic model of the perception of three-dimensional structure from optic flow (англ.) // Biological Cybernetics : journal. — 2008. — P. 132——154.
  24. Laurens, J.; Droulez, J. Bayesian processing of vestibular information (англ.) // Biological Cybernetics. — 2007. — Vol. 96, no. 4. — P. 389——404. — doi:10.1007/s00422-006-0133-1.
  25. Colas, F.; Flacher, F.; Tanner, T.; Bessière, P.; Girard, B. Bayesian models of eye movement selection with retinotopic maps (англ.) // Biological Cybernetics : journal. — 2009. — Vol. 100, no. 3. — P. 203——214. — doi:10.1007/s00422-009-0292-y.
  26. Serkhane, J.; Schwartz, J-L.; Bessière, P. Building a talking baby robot A contribution to the study of speech acquisition and evolution (англ.) // Interaction Studies : journal. — 2005. — Vol. 6, no. 2. — P. 253——286. — doi:10.1075/is.6.2.06ser.
  27. Moulin-Frier, C.; Laurent, R.; Bessière, P.; Schwartz, J-L.; Diard, J. Adverse conditions improve distinguishability of auditory, motor and percep-tuo-motor theories of speech perception: an exploratory Bayesian modeling study (англ.) // Language and Cognitive Processes : journal. — 2012. — Vol. 27, no. 7—8. — P. 1240——1263. — doi:10.1080/01690965.2011.645313.
  28. Gilet, E.; Diard, J.; Bessière, P. Bayesian Action–Perception Computational Model: Interaction of Production and Recognition of Cursive Letters (англ.) // PLOS One : journal / Sporns, Olaf. — 2011. — Vol. 6, no. 6. — P. e20387. — doi:10.1371/journal.pone.0020387. — Bibcode2011PLoSO...620387G.
  29. New algorithm helps machines learn as quickly as humans  (неопр.). www.gizmag.com (22 января 2016). Дата обращения: 23 января 2016. Архивировано 24 января 2016 года.
  30. Zadeh, Lofti, A. Fuzzy sets (англ.) // Information and Control  (англ.) (рус. : journal. — 1965. — Vol. 8, no. 3. — P. 338——353. — doi:10.1016/S0019-9958(65)90241-X.
  31. Zadeh, Lofti, A. Fuzzy logic and approximate reasoning (англ.) // Synthese  (англ.) (рус. : journal. — 1975. — Vol. 30, no. 3——4. — P. 407——428. — doi:10.1007/BF00485052.
  32. Dubois, D.; Prade, H. Possibility Theory, Probability Theory and Multiple-Valued Logics: A Clarification (англ.) // Ann. Math. Artif. Intell. : journal. — 2001. — Vol. 32, no. 1——4. — P. 35——66. — doi:10.1023/A:1016740830286.
  33. Poole, D. Probabilistic Horn abduction and Bayesian networks (англ.) // Artificial Intelligence. — 1993. — Vol. 64. — P. 81—129. — doi:10.1016/0004-3702(93)90061-F.
  34. Poole, D. The Independent Choice Logic for modelling multiple agents under uncertainty (англ.) // Artficial Intelligence : journal. — 1997. — Vol. 94. — P. 7—56. — doi:10.1016/S0004-3702(97)00027-1.
  35. Sato, T.; Kameya, Y. Parameter learning of logic programs for symbolic-statistical modeling (англ.) // Journal of Artificial Intelligence Research  (англ.) (рус. : journal. — 2001. — Vol. 15. — P. 391——454. Архивировано 12 июля 2014 года.

ЛитератураПравить

СсылкаПравить