SlideShare a Scribd company logo
1 of 40
Download to read offline
Динамические байесовские сети и
       их приложения.


           Смирнова Н.В.

          ИПУ РАН, 2011
                             1
Определение БС - 1
БС – графическая вероятностная модель


            A     P(a)  0.5



                               P(b|a)  0.9
                        B      P(b|a)  0.3

A, B булевские (принимают значения из {true, false}
(могут быть непрерывными, дискретными)
                                                      2
Используемые обозначения - 1

  P( A true)          P(a)
  P( A false)         P(a)

Априорная вероятность всех возможных значений
сл. величины:

    P( A) - вектор,
    P( A)  P(a), P(a) 

                                                3
Используемые обозначения - 2

P( A, B,C) - вектор, полное совместное распределение
случайных величин A, B,C
P( A, B,C)  P(a,b,c),P(a,b,c),..., P(a,b,c) 


P( A|B)  P(a |b), P(a |b), P(a |b), P(a |b) 




                                                  4
Определение вероятности,
   используемое в байесовских сетях-1
               Классический подход:


                  P(d |s)  P(d ,s)
                             P(s)

D  «пациент болеет бронхитом»

S  «у пациента есть одышка»

P(d ,s), P(s) - такая информация обычно недоступна.

                                                      5
Определение вероятности,
используемое в байесовских сетях-2


Объективная            Субъективная
  частота               вероятность
n независимых            оценки
испытаний,             совместного
   n              появления событий




                                        6
Определение вероятности,
используемое в байесовских сетях-3
                          P(d )  0.3
    D
болеет бронхитом
                                        P(s|d )  0.9
                                        P(s|d )  0.3
                                     S
                             жалуется на одышку

    P(d | s)        P(d ,s)
                 P(d ,s) P(d ,s)
   P(d , s)  P(s|d )P(d )          P(d , s)  P(s |d )P(d )   7
Эффект
  «оттеснения других объяснений»-1

P(a)  0.7              P(b)  0.3
     A                B
  бронхит         туберкулез

               С         P(c|a,b)  0.9
             кашель      P(c|a,b)  0.4
                         P(c|a,b)  0.7
                         P(c|a,b)  0.1
Эффект
     «оттеснения других объяснений»-2
              A                        B
           бронхит                 туберкулез

                              С
                            кашель
Эффект: формальная запись
P(a|c)  0.903 P(a|b,c)  0.84 P(b|c)  0.382 P(b|a,c)  0.355

Неформальная запись:
Известно: одышка, бронхит, тогда P(туберкулез)
Известно: одышка, туберкулез, тогда P(бронхит)
Эффект
    «оттеснения других объяснений»-3
                 P(a|c)          P(a,c)
                              P(a,c) P(a,c)
P(a,c)                  P( A,B,C)  P(a,b,c)  P(a,b,c)
           A a, B,C c

P(a,b,c)  P(a)P(b)P(c|a,b)
P(a,b,c)  0.189, P(a,b,c)  0.343
                                                     (Расчеты к
P(a,c)  0.532                                      предыдущему
P(a,b,c)  0.036, P(a,b,c)  0.021                    примеру)
P(a,c)  0.057
P(a|c)  0.532  0.903
         0.5320.057
Эффект
    «оттеснения других объяснений»-4
                 P(b|c)          P(b,c)
                              P(b,c) P(b,c)
P(b,c)                  P( A,B,C)  P(a,b,c)  P(a,b,c)
           A, B b,C c

P(a,b,c)  P(a)P(b)P(c|a,b)
P(a,b,c)  0.189, P(a,b,c)  0.036
                                                     (Расчеты к
P(b,c)  0.225                                      предыдущему
P(a,b,c)  0.343, P(a,b,c)  0.021                    примеру)
P(b,c)  0.364
P(b|c)  0.225  0.382
         0.2250.364
Эффект
    «оттеснения других объяснений»-5

             P(b|a,c)         P(b,a,c)
                          P(b,a,c) P(b,a,c)
P(b,a,c)  0.189, P(b,a,c)  0.343
P(b|a,c)  0.189  0.355
          0.1890.343
                                                (Расчеты к
P(a|b,c)        P(a,b,c)                      предыдущему
             P(a,b,c) P(a,b,c)                  примеру)
P(a|b,c)       0.189  0.84
             0.1890.036
Определение ДБС-1
ДБС определяется как БС следующего вида:
                          Последовательность скрытых
 X0      X1          Xn   состояний,
                 …        изменяющихся с течением
                          времени

         E1          En   Каждое состояние зависит только
                          от предыдущего

X t - скрытые,            Каждое состояние
                          характеризуется скрытыми и
Et - наблюдаемые          наблюдаемыми переменными
   переменные
Определение ДБС-2. Пример «с
               зонтиком»
 Охранник никогда не выходит на улицу.
 По утрам охранник видит директора (иногда с зонтиком)
 Какова вероятность дождя на улице?

Xt          Raint 1        Raint          Raint 1
      …


Et        Umbrellat 1   Umbrellat      Umbrellat 1

     Далее будет использоваться обозначение:
     X1,..., X t   X1 : t , x1,..., xt x1 : t
Определение ДБС-3. Задаваемые
         параметры

       X0      X1           Xn
                     …


               E1           En

       Параметры:
       P( X 0)
       P( X t | X t 1) «модель перехода»
       P(Et | X t ) «модель наблюдения»
Определение ДБС-4. Пример «с
            зонтиком»
P(R  r)  0.5
    0                      P(R  r | R  r)  0.7
                               t           t 1


                 R0   R1   P(R  r | R  r)  0.3
                                   t        t 1




                      U1   P(U  u| R  r)  0.9
                                   t         t


                           P(U  u| R  r)  0.2
                                       t         t
Основные формулы
вероятностного вывода в ДБС
(1) P( A| B)  P( A,B)                                (опр. усл. вер.)
                P(B)
(2) P(B)   P( Ai )P(B| A )
            n
                                                     (ф-ла полн. вер.)
                          i
                     i 1

 P( X 0), P( X t | X t 1), P( X t | Et ),           (параметры ДБС)
P( X t | X 0 : t 1)  P( X t | X t 1),             (предположения)
P(Et | X 0 : t , E0 : t 1)  P(Et | X t ),

                                               t
(3) P( X 0, X1,..., E1,..., Et )  P( X 0) P( X i| X i 1)P(Ei| X i )
                                                                         17
                                              i 1
Основные задачи вероятностного
       вывода в ДБС-1
 (1) Фильтрация (текущий контроль): P( X t |e1 : t )
 # вероятность дождя сегодня, если даны все
 результаты наблюдений за директором

 (2) Предсказание: P( X t k |e1 : t ), k  0
  # вероятность дождя через несколько дней,
  если даны все результаты наблюдений за
  директором

                                                       18
Основные задачи вероятностного
       вывода в ДБС-2
 (3) Сглаживание (ретроспективный анализ):
 P( X k |e1 : t ), 0 k t
 # вероятность того, что дождь шел в прошлую
 среду, если даны все результаты наблюдений
 за директором
 (4) Наиболее правдоподобное объяснение:
  arg max P( X 1 : t |e1 : t )
   X1 : t

  # если директор приходил с зонтиком первые
  три дня, а в четвертый – без зонтика, найти
  погоду в каждый из прошедших дней             19
Вероятностный вывод в ДБС. 1
         способ (неэффективный)
      Воспринимать ДБС как обыкновенную БС:
       X      X     X          P( X 2 | E1 : 2) ?
           0          1          2

                                       P(x2 |e1,e2)        P(x2,e1,e2)
                                                      P(x2,e1,e2) P(x2,e1,e2)
                    E1         E2
                                                (опр. усл. вер.
                                                       +
                                            прием «нормализация»)
P(x2,e1,e2)  P(x0, x1, x2,e1,e2)  P(x0, x1, x2,e1,e2)  P(x 0 , x1, x2,e1,e2) 
 P(x 0 , x1, x2,e1,e2)                               (ф-ла полн. вер.)
P(x0, x1, x2,e1,e2)  P(x0)P(x1 | x0)P(e1 | x1)P(x2 | x1)P(e2 | x2) (декомп.)
Вероятностный вывод в ДБС. 2
      способ (эффективный)-1
Два вида шагов:

1. проектирование распределения вероятностей
   предыдущего состояния от t к t+1
(используется P( X t | X t 1) )

2. Обновление распределения вероятностей текущего
состояния
                              Xt
(используется P(Et | X t ) )
                                     P( X t | X t 1)
В памяти хранится только:            P(Et | X t )
                               Et
Вероятностный вывод в ДБС. 2
      способ (эффективный)-2
Продолжая «пример с зонтиком»: пусть было
                            R0
Получили: конкретное значение U1
                                                           цикл
Достраиваем:
                (1) : P(Rt  r)         P(Rt |Rt 1)P(Rt 1)
  R0     R1                        Rt 1,Rt r
                (2) : P(Rt  r |Ut )          P(Rt r,Ut )
  (1)                                  P(Rt r,Ut ) P(Rt r,Ut )
         U1
                      P(Rt  r,Ut )  P(Ut | Rt  r)P(Rt  r)
         (2)
               Получили: R1         Ждем U 2...
Вероятностный вывод в ДБС.
    Алгоритм фильтрации частиц-1
 Дано: X - случайная величина с областью значения
{x1,..., xn}
Операция сэмплирования sample( X ): xk ,1 k  n
Выбор xk осуществляется с помощью P( X  xi ) (P( xi ))


                       xi     1    2    3
               #
                   P( X  xi ) 0.3 0.6 0.1
Вероятностный вывод в ДБС.
   Алгоритм фильтрации частиц-2
Возможный способ осуществления sample( X ):
                     P( x1) P( x ) P( x3)
   (1)                          2

                       0 p1          1
                                    p2


   (2)   генерируется случайное число s[0, 1]
                         
                            x1 , если s[0, p1)
                         
   (3)                   
           sample( X )  x2 , если s[ p1, p2 )
                         
                         
                         
                         
                         
                         
                         
                             x3 , если s[ p2 , p3]
Вероятностный вывод в ДБС.
   Алгоритм фильтрации частиц-3
 Результатом sample(BN ) является совокупность
 конкретных значений всех узлов байесовской сети

  R0      R1     # sample(BN ) {R0  r, R1  r, U1  u}

                    Реализация sample(BN ):
          U1
                последовательное применение
                sample( X ) к каждому узлу сети
                в топологическом порядке
Для наблюдаемых переменных берется наблюденное
значение
Вероятностный вывод в ДБС.
  Алгоритм фильтрации частиц-4
Операция Weighted  sample(BN ) возвращает:
                     :
-совокупность конкретных значений (выборку) БС,
-вес выборки (насколько согласуется с наблюдениями)

       P( x )  0.3       # Пусть известно наблюдение
  X1           1
                            X 2  x2 и получена выборка

       P( x | x )  0.8
            2      1      а) {x1, x2}, тогда вес выборки
  X2
       P( x | x )  0.7
           2       1
                                     W  P( x2 | x1)  0.8
                          б) { x1, x2}, тогда вес выборки
                                      W  P( x2 | x1)  0.7
Вероятностный вывод в ДБС.
   Алгоритм фильтрации частиц-5
Теперь объяснение всего алгоритма фильтрации на
«примере с зонтиком»
                            P(R1 |U1  u)  ?
  R0      R1
               Шаг 1. С помощью Weighted  sample(BN )
               формируем N взвешенных выборок
          U    ДБС (пусть N=10 для наглядности)
             1

      # S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u | R1  r)
        S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u |R1  r)
        S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u |R1  r)
                                    …
Вероятностный вывод в ДБС.
Алгоритм фильтрации частиц-6
  S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u | R1  r)
  S2 {R0  r, R1  r, U1  u}, W (S2)  P(U1  u | R1  r)
  S3 {R0  r, R1  r, U1  u}, W (S3)  P(U1  u | R1  r)
  S4 {R0  r, R1  r, U1  u}, W (S4)  P(U1  u | R1  r)
  S5 {R0  r, R1  r, U1  u}, W (S5)  P(U1  u | R1  r)
  S6 {R0  r, R1  r, U1  u}, W (S6)  P(U1  u | R1  r)
  S7 {R0  r, R1  r, U1  u}, W (S7)  P(U1  u | R1  r)
  S8 {R0  r, R1  r, U1  u}, W (S8)  P(U1  u | R1  r)
  S9 {R0  r, R1  r, U1  u}, W (S9)  P(U1  u | R1  r)
  S10 {R0  r, R1  r, U1  u}, W (S10)  P(U1  u | R1  r)
Вероятностный вывод в ДБС.
    Алгоритм фильтрации частиц-7
6 выборок типа S1 {R0  r, R1  r, U1  u} с весом 0.1
(веса см. по таблицам условных вероятностей)

2 выборки типа S2 {R0  r, R1  r, U1  u} с весом 0.8

2 выборки типа S3 {R0  r, R1  r, U1  u} с весом 0.8

Далее формируем случайную величину S :

     si    #S1 #S2 #S3        P(S  s1)          0.16
 P(S  si ) 0.16 0.42 0.42                  0.1620.820.8
Вероятностный вывод в ДБС.
   Алгоритм фильтрации частиц-8
N раз применяем операцию сэмплирования к S:
                 si       #S1 #S2 #S3
              P(S  si ) 0.16 0.42 0.42

Получаем (например):

                      1 выборка типа S1
                      3 выборки типа S2
                      6 выборок типа S3
Вероятностный вывод в ДБС.
   Алгоритм фильтрации частиц-9
Теперь можем вычислить ответы на поставленные
вопросы.

Имеем:
            1 выборка типа S1             S1 {R0  r, R1  r, U1  u}
            3 выборки типа S2             S2 {R0  r, R1  r, U1  u}
            6 выборок типа S3             S3 {R0  r, R1  r, U1  u}

            P(R1  r |U1  u)  N (выборок, где R1r)
                                     N (выборок)

         P(R1  r |U1  u)  1 , P(R1  r |U1  u)  36  9
                            10                       10 10
Вероятностный вывод в ДБС.
  Алгоритм фильтрации частиц-10
                  Шаги алгоритма:

1. формируется N взвешенных выборок ДБС
2. на основе этих данных составляется случайная
   величина S, значениями которой являются ссылки на
   сгенерированные типы выборок
3. N раз Sample(S) – получаем N «новых» выборок
4. с помощью простой формулы на «новых» выборках
   вычисляем ответы на интересующие нас вопросы
Применение ДБС-1. Задача
  локализации робота.
Применение ДБС-2. Задача
         локализации робота.
Два основных вопроса:

1) Как представлять состояние робота
(требуется много памяти или нет?)

2)Что представляют собой «модели наблюдения»
и «модели перехода»?

2): не хранятся в памяти в виде таблиц.
Рассчитываются по формулам!
1) см. далее.
Применение ДБС-3. Задача
        локализации робота.
0.0   0.1   0.0   Состояние робота представляется с
                  помощью частиц
0.0   0.0   0.2


0.0   0.2   0.5
                  Частица: ( x, y): P( X  x,Y  y)  0


                   В памяти компьютера:

                   (1,2),
                   (2,3), (2,3),
                   (3,2), (3,2),
                   (3,3), (3,3), (3,3), (3,3), (3,3)
Применение ДБС-4. Задача
       локализации робота.
Частицы передвигаются согласно модели перехода
Применение ДБС-5. Задача
       локализации робота.
Частицы взвешиваются согласно модели наблюдений
Применение ДБС-6. Задача
       локализации робота.
Генерируются новые частицы с помощью операции
сэмплирования:

(у новых частиц
веса все равны 1)
                                   Наиболее
                                   вероятное
                                местоположение
                                     робота
Спасибо за
внимание!

             39
Инф. источники:
Большое количество слайдов/
Рассел, Норвиг «Искусственный интеллект: современный подход»

Слайд 5-8,9/
http://sapr.mgsu.ru/biblio/ex-syst/Glava9/Index4.htm

Слайд 24/
Д. Кнут. Том 2. Глава 3

Слайды 33, 35-38/
CS 221: Artificial Intelligence. Lecture 5: Hidden Markov Models and
Temporal Filtering (Thrun, Norvig)

More Related Content

What's hot

10.2.2. курс лекций афу
10.2.2. курс лекций афу10.2.2. курс лекций афу
10.2.2. курс лекций афу
GKarina707
 
презентация лекции по выпуклому анализу
презентация лекции по выпуклому анализупрезентация лекции по выпуклому анализу
презентация лекции по выпуклому анализу
gthtcnhjqrf1952
 
Дифференцциальное исчисление
Дифференцциальное исчислениеДифференцциальное исчисление
Дифференцциальное исчисление
vladimiryaschuk
 
20091129 algorithmsfornphardproblems kulikov_lecture10
20091129 algorithmsfornphardproblems kulikov_lecture1020091129 algorithmsfornphardproblems kulikov_lecture10
20091129 algorithmsfornphardproblems kulikov_lecture10
Computer Science Club
 
звезда
звездазвезда
звезда
rasparin
 
Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...
Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...
Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...
Nikolay Grebenshikov
 
Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...
Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...
Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...
Nikolay Grebenshikov
 
экспертные системы
экспертные системыэкспертные системы
экспертные системы
sokol_klinik
 
20100930 proof complexity_hirsch_lecture03
20100930 proof complexity_hirsch_lecture0320100930 proof complexity_hirsch_lecture03
20100930 proof complexity_hirsch_lecture03
Computer Science Club
 
20081026 structuralcomplexitytheory lecture05-06
20081026 structuralcomplexitytheory lecture05-0620081026 structuralcomplexitytheory lecture05-06
20081026 structuralcomplexitytheory lecture05-06
Computer Science Club
 
Vozmognosti izmerenija krasoty
Vozmognosti izmerenija krasotyVozmognosti izmerenija krasoty
Vozmognosti izmerenija krasoty
Marija_Spicyna
 
20081123 structuralcomplexitytheory lecture11-12
20081123 structuralcomplexitytheory lecture11-1220081123 structuralcomplexitytheory lecture11-12
20081123 structuralcomplexitytheory lecture11-12
Computer Science Club
 

What's hot (19)

10.2.2. курс лекций афу
10.2.2. курс лекций афу10.2.2. курс лекций афу
10.2.2. курс лекций афу
 
презентация лекции по выпуклому анализу
презентация лекции по выпуклому анализупрезентация лекции по выпуклому анализу
презентация лекции по выпуклому анализу
 
Integral1
Integral1Integral1
Integral1
 
Fractal Geometry
Fractal GeometryFractal Geometry
Fractal Geometry
 
Дифференцциальное исчисление
Дифференцциальное исчислениеДифференцциальное исчисление
Дифференцциальное исчисление
 
ПРИМЕНЕНИЕ ДИСКРЕТНОГО КОСИНУСНОГО ПРЕОБРАЗОВАНИЯ ДЛЯ ПОСТРОЕНИЯ ГОЛОГРАММЫ ...
ПРИМЕНЕНИЕ ДИСКРЕТНОГО КОСИНУСНОГО ПРЕОБРАЗОВАНИЯ  ДЛЯ ПОСТРОЕНИЯ ГОЛОГРАММЫ ...ПРИМЕНЕНИЕ ДИСКРЕТНОГО КОСИНУСНОГО ПРЕОБРАЗОВАНИЯ  ДЛЯ ПОСТРОЕНИЯ ГОЛОГРАММЫ ...
ПРИМЕНЕНИЕ ДИСКРЕТНОГО КОСИНУСНОГО ПРЕОБРАЗОВАНИЯ ДЛЯ ПОСТРОЕНИЯ ГОЛОГРАММЫ ...
 
20091129 algorithmsfornphardproblems kulikov_lecture10
20091129 algorithmsfornphardproblems kulikov_lecture1020091129 algorithmsfornphardproblems kulikov_lecture10
20091129 algorithmsfornphardproblems kulikov_lecture10
 
звезда
звездазвезда
звезда
 
Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...
Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...
Лекция №13. Графы: сильно связные компоненты и остовные деревья. Предмет "Стр...
 
Question04
Question04Question04
Question04
 
Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...
Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...
Лекция №14. Графы: кратчайшие пути и максимальные потоки. Предмет "Структуры ...
 
экспертные системы
экспертные системыэкспертные системы
экспертные системы
 
Kuznecova 9klass
Kuznecova 9klassKuznecova 9klass
Kuznecova 9klass
 
20100930 proof complexity_hirsch_lecture03
20100930 proof complexity_hirsch_lecture0320100930 proof complexity_hirsch_lecture03
20100930 proof complexity_hirsch_lecture03
 
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
 
20081026 structuralcomplexitytheory lecture05-06
20081026 structuralcomplexitytheory lecture05-0620081026 structuralcomplexitytheory lecture05-06
20081026 structuralcomplexitytheory lecture05-06
 
Pr i-4
Pr i-4Pr i-4
Pr i-4
 
Vozmognosti izmerenija krasoty
Vozmognosti izmerenija krasotyVozmognosti izmerenija krasoty
Vozmognosti izmerenija krasoty
 
20081123 structuralcomplexitytheory lecture11-12
20081123 structuralcomplexitytheory lecture11-1220081123 structuralcomplexitytheory lecture11-12
20081123 structuralcomplexitytheory lecture11-12
 

More from Natalia Smirnova

автоматизированный анализ психического состояния студентов
автоматизированный анализ психического состояния студентовавтоматизированный анализ психического состояния студентов
автоматизированный анализ психического состояния студентов
Natalia Smirnova
 
смирнова мнш 2013_3
смирнова мнш 2013_3смирнова мнш 2013_3
смирнова мнш 2013_3
Natalia Smirnova
 
Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...
Natalia Smirnova
 
отчет мнш 2012_смирнова_2
отчет мнш 2012_смирнова_2отчет мнш 2012_смирнова_2
отчет мнш 2012_смирнова_2
Natalia Smirnova
 

More from Natalia Smirnova (9)

К автоматизированной проверке решений некоторого класса задач
К автоматизированной проверке решений некоторого класса задачК автоматизированной проверке решений некоторого класса задач
К автоматизированной проверке решений некоторого класса задач
 
Cee secr-2013-smirnova-volga
Cee secr-2013-smirnova-volgaCee secr-2013-smirnova-volga
Cee secr-2013-smirnova-volga
 
автоматизированный анализ психического состояния студентов
автоматизированный анализ психического состояния студентовавтоматизированный анализ психического состояния студентов
автоматизированный анализ психического состояния студентов
 
смирнова мнш 2013_3
смирнова мнш 2013_3смирнова мнш 2013_3
смирнова мнш 2013_3
 
вссда2012 2
вссда2012 2вссда2012 2
вссда2012 2
 
Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...Motivation and Willpower component of the student model and it's application ...
Motivation and Willpower component of the student model and it's application ...
 
отчет мнш 2012_смирнова_2
отчет мнш 2012_смирнова_2отчет мнш 2012_смирнова_2
отчет мнш 2012_смирнова_2
 
логистическая регрессия
логистическая регрессиялогистическая регрессия
логистическая регрессия
 
байесовские сети и их приложения
байесовские сети и их приложениябайесовские сети и их приложения
байесовские сети и их приложения
 

Recently uploaded

Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...
Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...
Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...
Ирония безопасности
 
CVE. The Fortra's GoAnywhere MFT [RU].pdf
CVE. The Fortra's GoAnywhere MFT [RU].pdfCVE. The Fortra's GoAnywhere MFT [RU].pdf
CVE. The Fortra's GoAnywhere MFT [RU].pdf
Хроники кибер-безопасника
 
СИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdf
СИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdfСИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdf
СИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdf
Хроники кибер-безопасника
 
Cyberprint. Dark Pink Apt Group [RU].pdf
Cyberprint. Dark Pink Apt Group [RU].pdfCyberprint. Dark Pink Apt Group [RU].pdf
Cyberprint. Dark Pink Apt Group [RU].pdf
Хроники кибер-безопасника
 
ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...
ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...
ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...
Ирония безопасности
 
2023 Q4. The Ransomware report. [RU].pdf
2023 Q4. The Ransomware report. [RU].pdf2023 Q4. The Ransomware report. [RU].pdf
2023 Q4. The Ransomware report. [RU].pdf
Хроники кибер-безопасника
 

Recently uploaded (9)

Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...
Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...
Cyber Defense Doctrine Managing the Risk Full Applied Guide to Organizational...
 
Malware. DCRAT (DARK CRYSTAL RAT) [RU].pdf
Malware. DCRAT (DARK CRYSTAL RAT) [RU].pdfMalware. DCRAT (DARK CRYSTAL RAT) [RU].pdf
Malware. DCRAT (DARK CRYSTAL RAT) [RU].pdf
 
Ransomware_Q3 2023. The report [RU].pdf
Ransomware_Q3 2023.  The report [RU].pdfRansomware_Q3 2023.  The report [RU].pdf
Ransomware_Q3 2023. The report [RU].pdf
 
CVE. The Fortra's GoAnywhere MFT [RU].pdf
CVE. The Fortra's GoAnywhere MFT [RU].pdfCVE. The Fortra's GoAnywhere MFT [RU].pdf
CVE. The Fortra's GoAnywhere MFT [RU].pdf
 
СИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdf
СИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdfСИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdf
СИСТЕМА ОЦЕНКИ УЯЗВИМОСТЕЙ CVSS 4.0 / CVSS v4.0 [RU].pdf
 
Cyberprint. Dark Pink Apt Group [RU].pdf
Cyberprint. Dark Pink Apt Group [RU].pdfCyberprint. Dark Pink Apt Group [RU].pdf
Cyberprint. Dark Pink Apt Group [RU].pdf
 
MS Navigating Incident Response [RU].pdf
MS Navigating Incident Response [RU].pdfMS Navigating Incident Response [RU].pdf
MS Navigating Incident Response [RU].pdf
 
ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...
ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...
ИСТОЧНИКИ ИННОВАЦИОННОСТИ КИТАЯ (ПО ВЕРСИИ DGAP) | The Sources of China’s Inn...
 
2023 Q4. The Ransomware report. [RU].pdf
2023 Q4. The Ransomware report. [RU].pdf2023 Q4. The Ransomware report. [RU].pdf
2023 Q4. The Ransomware report. [RU].pdf
 

дбс1 1

  • 1. Динамические байесовские сети и их приложения. Смирнова Н.В. ИПУ РАН, 2011 1
  • 2. Определение БС - 1 БС – графическая вероятностная модель A P(a)  0.5 P(b|a)  0.9 B P(b|a)  0.3 A, B булевские (принимают значения из {true, false} (могут быть непрерывными, дискретными) 2
  • 3. Используемые обозначения - 1 P( A true) P(a) P( A false) P(a) Априорная вероятность всех возможных значений сл. величины: P( A) - вектор, P( A)  P(a), P(a)  3
  • 4. Используемые обозначения - 2 P( A, B,C) - вектор, полное совместное распределение случайных величин A, B,C P( A, B,C)  P(a,b,c),P(a,b,c),..., P(a,b,c)  P( A|B)  P(a |b), P(a |b), P(a |b), P(a |b)  4
  • 5. Определение вероятности, используемое в байесовских сетях-1 Классический подход: P(d |s)  P(d ,s) P(s) D  «пациент болеет бронхитом» S  «у пациента есть одышка» P(d ,s), P(s) - такая информация обычно недоступна. 5
  • 6. Определение вероятности, используемое в байесовских сетях-2 Объективная Субъективная частота вероятность n независимых оценки испытаний, совместного n появления событий 6
  • 7. Определение вероятности, используемое в байесовских сетях-3 P(d )  0.3 D болеет бронхитом P(s|d )  0.9 P(s|d )  0.3 S жалуется на одышку P(d | s)  P(d ,s) P(d ,s) P(d ,s) P(d , s)  P(s|d )P(d ) P(d , s)  P(s |d )P(d ) 7
  • 8. Эффект «оттеснения других объяснений»-1 P(a)  0.7 P(b)  0.3 A B бронхит туберкулез С P(c|a,b)  0.9 кашель P(c|a,b)  0.4 P(c|a,b)  0.7 P(c|a,b)  0.1
  • 9. Эффект «оттеснения других объяснений»-2 A B бронхит туберкулез С кашель Эффект: формальная запись P(a|c)  0.903 P(a|b,c)  0.84 P(b|c)  0.382 P(b|a,c)  0.355 Неформальная запись: Известно: одышка, бронхит, тогда P(туберкулез) Известно: одышка, туберкулез, тогда P(бронхит)
  • 10. Эффект «оттеснения других объяснений»-3 P(a|c)  P(a,c) P(a,c) P(a,c) P(a,c)   P( A,B,C)  P(a,b,c)  P(a,b,c) A a, B,C c P(a,b,c)  P(a)P(b)P(c|a,b) P(a,b,c)  0.189, P(a,b,c)  0.343 (Расчеты к P(a,c)  0.532 предыдущему P(a,b,c)  0.036, P(a,b,c)  0.021 примеру) P(a,c)  0.057 P(a|c)  0.532  0.903 0.5320.057
  • 11. Эффект «оттеснения других объяснений»-4 P(b|c)  P(b,c) P(b,c) P(b,c) P(b,c)   P( A,B,C)  P(a,b,c)  P(a,b,c) A, B b,C c P(a,b,c)  P(a)P(b)P(c|a,b) P(a,b,c)  0.189, P(a,b,c)  0.036 (Расчеты к P(b,c)  0.225 предыдущему P(a,b,c)  0.343, P(a,b,c)  0.021 примеру) P(b,c)  0.364 P(b|c)  0.225  0.382 0.2250.364
  • 12. Эффект «оттеснения других объяснений»-5 P(b|a,c)  P(b,a,c) P(b,a,c) P(b,a,c) P(b,a,c)  0.189, P(b,a,c)  0.343 P(b|a,c)  0.189  0.355 0.1890.343 (Расчеты к P(a|b,c)  P(a,b,c) предыдущему P(a,b,c) P(a,b,c) примеру) P(a|b,c)  0.189  0.84 0.1890.036
  • 13. Определение ДБС-1 ДБС определяется как БС следующего вида: Последовательность скрытых X0 X1 Xn состояний, … изменяющихся с течением времени E1 En Каждое состояние зависит только от предыдущего X t - скрытые, Каждое состояние характеризуется скрытыми и Et - наблюдаемые наблюдаемыми переменными переменные
  • 14. Определение ДБС-2. Пример «с зонтиком»  Охранник никогда не выходит на улицу.  По утрам охранник видит директора (иногда с зонтиком)  Какова вероятность дождя на улице? Xt Raint 1 Raint Raint 1 … Et Umbrellat 1 Umbrellat Umbrellat 1 Далее будет использоваться обозначение: X1,..., X t X1 : t , x1,..., xt x1 : t
  • 15. Определение ДБС-3. Задаваемые параметры X0 X1 Xn … E1 En Параметры: P( X 0) P( X t | X t 1) «модель перехода» P(Et | X t ) «модель наблюдения»
  • 16. Определение ДБС-4. Пример «с зонтиком» P(R  r)  0.5 0 P(R  r | R  r)  0.7 t t 1 R0 R1 P(R  r | R  r)  0.3 t t 1 U1 P(U  u| R  r)  0.9 t t P(U  u| R  r)  0.2 t t
  • 17. Основные формулы вероятностного вывода в ДБС (1) P( A| B)  P( A,B) (опр. усл. вер.) P(B) (2) P(B)   P( Ai )P(B| A ) n (ф-ла полн. вер.) i i 1 P( X 0), P( X t | X t 1), P( X t | Et ), (параметры ДБС) P( X t | X 0 : t 1)  P( X t | X t 1), (предположения) P(Et | X 0 : t , E0 : t 1)  P(Et | X t ), t (3) P( X 0, X1,..., E1,..., Et )  P( X 0) P( X i| X i 1)P(Ei| X i ) 17 i 1
  • 18. Основные задачи вероятностного вывода в ДБС-1 (1) Фильтрация (текущий контроль): P( X t |e1 : t ) # вероятность дождя сегодня, если даны все результаты наблюдений за директором (2) Предсказание: P( X t k |e1 : t ), k  0 # вероятность дождя через несколько дней, если даны все результаты наблюдений за директором 18
  • 19. Основные задачи вероятностного вывода в ДБС-2 (3) Сглаживание (ретроспективный анализ): P( X k |e1 : t ), 0 k t # вероятность того, что дождь шел в прошлую среду, если даны все результаты наблюдений за директором (4) Наиболее правдоподобное объяснение: arg max P( X 1 : t |e1 : t ) X1 : t # если директор приходил с зонтиком первые три дня, а в четвертый – без зонтика, найти погоду в каждый из прошедших дней 19
  • 20. Вероятностный вывод в ДБС. 1 способ (неэффективный) Воспринимать ДБС как обыкновенную БС: X X X P( X 2 | E1 : 2) ? 0 1 2 P(x2 |e1,e2)  P(x2,e1,e2) P(x2,e1,e2) P(x2,e1,e2) E1 E2 (опр. усл. вер. + прием «нормализация») P(x2,e1,e2)  P(x0, x1, x2,e1,e2)  P(x0, x1, x2,e1,e2)  P(x 0 , x1, x2,e1,e2)   P(x 0 , x1, x2,e1,e2) (ф-ла полн. вер.) P(x0, x1, x2,e1,e2)  P(x0)P(x1 | x0)P(e1 | x1)P(x2 | x1)P(e2 | x2) (декомп.)
  • 21. Вероятностный вывод в ДБС. 2 способ (эффективный)-1 Два вида шагов: 1. проектирование распределения вероятностей предыдущего состояния от t к t+1 (используется P( X t | X t 1) ) 2. Обновление распределения вероятностей текущего состояния Xt (используется P(Et | X t ) ) P( X t | X t 1) В памяти хранится только: P(Et | X t ) Et
  • 22. Вероятностный вывод в ДБС. 2 способ (эффективный)-2 Продолжая «пример с зонтиком»: пусть было R0 Получили: конкретное значение U1 цикл Достраиваем: (1) : P(Rt  r)   P(Rt |Rt 1)P(Rt 1) R0 R1 Rt 1,Rt r (2) : P(Rt  r |Ut )  P(Rt r,Ut ) (1) P(Rt r,Ut ) P(Rt r,Ut ) U1 P(Rt  r,Ut )  P(Ut | Rt  r)P(Rt  r) (2) Получили: R1 Ждем U 2...
  • 23. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-1 Дано: X - случайная величина с областью значения {x1,..., xn} Операция сэмплирования sample( X ): xk ,1 k  n Выбор xk осуществляется с помощью P( X  xi ) (P( xi )) xi 1 2 3 # P( X  xi ) 0.3 0.6 0.1
  • 24. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-2 Возможный способ осуществления sample( X ): P( x1) P( x ) P( x3) (1) 2 0 p1 1 p2 (2) генерируется случайное число s[0, 1]   x1 , если s[0, p1)  (3)  sample( X )  x2 , если s[ p1, p2 )        x3 , если s[ p2 , p3]
  • 25. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-3 Результатом sample(BN ) является совокупность конкретных значений всех узлов байесовской сети R0 R1 # sample(BN ) {R0  r, R1  r, U1  u} Реализация sample(BN ): U1 последовательное применение sample( X ) к каждому узлу сети в топологическом порядке Для наблюдаемых переменных берется наблюденное значение
  • 26. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-4 Операция Weighted  sample(BN ) возвращает: : -совокупность конкретных значений (выборку) БС, -вес выборки (насколько согласуется с наблюдениями) P( x )  0.3 # Пусть известно наблюдение X1 1 X 2  x2 и получена выборка P( x | x )  0.8 2 1 а) {x1, x2}, тогда вес выборки X2 P( x | x )  0.7 2 1 W  P( x2 | x1)  0.8 б) { x1, x2}, тогда вес выборки W  P( x2 | x1)  0.7
  • 27. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-5 Теперь объяснение всего алгоритма фильтрации на «примере с зонтиком» P(R1 |U1  u)  ? R0 R1 Шаг 1. С помощью Weighted  sample(BN ) формируем N взвешенных выборок U ДБС (пусть N=10 для наглядности) 1 # S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u | R1  r) S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u |R1  r) S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u |R1  r) …
  • 28. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-6 S1 {R0  r, R1  r, U1  u}, W (S1)  P(U1  u | R1  r) S2 {R0  r, R1  r, U1  u}, W (S2)  P(U1  u | R1  r) S3 {R0  r, R1  r, U1  u}, W (S3)  P(U1  u | R1  r) S4 {R0  r, R1  r, U1  u}, W (S4)  P(U1  u | R1  r) S5 {R0  r, R1  r, U1  u}, W (S5)  P(U1  u | R1  r) S6 {R0  r, R1  r, U1  u}, W (S6)  P(U1  u | R1  r) S7 {R0  r, R1  r, U1  u}, W (S7)  P(U1  u | R1  r) S8 {R0  r, R1  r, U1  u}, W (S8)  P(U1  u | R1  r) S9 {R0  r, R1  r, U1  u}, W (S9)  P(U1  u | R1  r) S10 {R0  r, R1  r, U1  u}, W (S10)  P(U1  u | R1  r)
  • 29. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-7 6 выборок типа S1 {R0  r, R1  r, U1  u} с весом 0.1 (веса см. по таблицам условных вероятностей) 2 выборки типа S2 {R0  r, R1  r, U1  u} с весом 0.8 2 выборки типа S3 {R0  r, R1  r, U1  u} с весом 0.8 Далее формируем случайную величину S : si #S1 #S2 #S3 P(S  s1)  0.16 P(S  si ) 0.16 0.42 0.42 0.1620.820.8
  • 30. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-8 N раз применяем операцию сэмплирования к S: si #S1 #S2 #S3 P(S  si ) 0.16 0.42 0.42 Получаем (например): 1 выборка типа S1 3 выборки типа S2 6 выборок типа S3
  • 31. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-9 Теперь можем вычислить ответы на поставленные вопросы. Имеем: 1 выборка типа S1 S1 {R0  r, R1  r, U1  u} 3 выборки типа S2 S2 {R0  r, R1  r, U1  u} 6 выборок типа S3 S3 {R0  r, R1  r, U1  u} P(R1  r |U1  u)  N (выборок, где R1r) N (выборок) P(R1  r |U1  u)  1 , P(R1  r |U1  u)  36  9 10 10 10
  • 32. Вероятностный вывод в ДБС. Алгоритм фильтрации частиц-10 Шаги алгоритма: 1. формируется N взвешенных выборок ДБС 2. на основе этих данных составляется случайная величина S, значениями которой являются ссылки на сгенерированные типы выборок 3. N раз Sample(S) – получаем N «новых» выборок 4. с помощью простой формулы на «новых» выборках вычисляем ответы на интересующие нас вопросы
  • 33. Применение ДБС-1. Задача локализации робота.
  • 34. Применение ДБС-2. Задача локализации робота. Два основных вопроса: 1) Как представлять состояние робота (требуется много памяти или нет?) 2)Что представляют собой «модели наблюдения» и «модели перехода»? 2): не хранятся в памяти в виде таблиц. Рассчитываются по формулам! 1) см. далее.
  • 35. Применение ДБС-3. Задача локализации робота. 0.0 0.1 0.0 Состояние робота представляется с помощью частиц 0.0 0.0 0.2 0.0 0.2 0.5 Частица: ( x, y): P( X  x,Y  y)  0 В памяти компьютера: (1,2), (2,3), (2,3), (3,2), (3,2), (3,3), (3,3), (3,3), (3,3), (3,3)
  • 36. Применение ДБС-4. Задача локализации робота. Частицы передвигаются согласно модели перехода
  • 37. Применение ДБС-5. Задача локализации робота. Частицы взвешиваются согласно модели наблюдений
  • 38. Применение ДБС-6. Задача локализации робота. Генерируются новые частицы с помощью операции сэмплирования: (у новых частиц веса все равны 1) Наиболее вероятное местоположение робота
  • 40. Инф. источники: Большое количество слайдов/ Рассел, Норвиг «Искусственный интеллект: современный подход» Слайд 5-8,9/ http://sapr.mgsu.ru/biblio/ex-syst/Glava9/Index4.htm Слайд 24/ Д. Кнут. Том 2. Глава 3 Слайды 33, 35-38/ CS 221: Artificial Intelligence. Lecture 5: Hidden Markov Models and Temporal Filtering (Thrun, Norvig)