SlideShare ist ein Scribd-Unternehmen logo
1 von 42
Downloaden Sie, um offline zu lesen
Incerteza, Cap 13 
Ronaldo F. Ramos, Dr. 
ronaldo@cefet-ce.br 
Adaptado de : aima.cs.berkeley.edu
Roteiro 
! Incerteza 
! Probabilidade 
! Sintaxe e Semântica 
! Inferência 
! Independência e regra de Bayes
Incerteza 
Seja a ação At = seguir para o aeroporto chegando t minutos antes do vôo 
Esta ação At nos deixará pontualmente? 
Problemas: 
1. observalidade parcial (estado da rodovia, planos de outros motoristas, etc.) 
2. sensores de ruído (relatórios com situação do tráfego) 
3. incerteza nos resultados das ações (pneu furado, etc.) 
4. complexidade excessiva da modelagem e previsão do tráfego. 
Consequentemente uma abordagem puramente lógica poderia: 
1. correr risco de falsa afirmativa: “A25 me deixará à tempo no aeroporto”, ou 
2. levará a conclusões muitos fracas para tomada de decisões: 
“A25 me deixará lá a tempo se não houver acidentes na ponte, se não chover e 
meus pneus permanecerem intactos etc etc.” 
(A1440 pode ser dito razoavelmente que chegarei a tempo, mas eu teria que 
permanecer a noite toda no aeroporto …)
Métodos para tratamento da Incerteza 
! Logica Default ou não monotônica: 
! Assumir que meu carro não terá um pneu furado 
! Assumir que A25 funcionará a não ser que seja contradita pela 
evidência 
! Questões: Que suposições são razoáveis? Como tratar 
contradições? 
! Regras com graus fictícios: 
! A25 |→0.3 chegar a tempo 
! Irrigador |→ 0.99 GramaMolhada 
! GramaMolhada |→ 0.7 Chuva 
! Questões: Problemas com combinações, ex., Irrigador causa 
chuva?? 
! Probabilidade 
! Modela o grau de crença do agente 
! Dada uma evidência disponível, 
! A25 me deixará a tempo com probabilidade 0.04
Probabilidade 
Assertivas probabilisticas sumarizam os efeitos de : 
! Preguiça: falha em enumerar exceções, qualificações, etc. 
! Ignorância: falta de fatos relevantes, condições iniciais, etc. 
Probabilidade Subjetiva: 
! Probabilidades relatam proposições sobre o estado 
de conhecimento do agente 
! ex. P(A25 | não houve acidentes) = 0.06 
Isto não são afirmações sobre o mundo. 
Probabilidades de proposições podem mudar de acordo 
com novas evidências: 
ex., P(A25 | não houve acidentes as 5h)= 0.15
Tomando decisões em face da incerteza 
Suponha que acreditemos que: 
P(A25 me deixará a tempo| …) = 0.04 
P(A90 me deixará a tempo|…) = 0.70 
P(A120 me deixará a tempo| …) = 0.95 
P(A1440 me deixará a tempo| …) = 0.9999 
! Que ação devo escolher? 
Dependerá de minhas preferências por vôos não 
disponíveis vc tempo gasto esperando, etc. 
! Teoria da Utilidade é usada para representar e inferir 
preferências 
! Teoria da Decisão = Teoria da Probabilidade + Teoria da 
Utilidade
Sintaxe 
! Elemento Básico: variável aleatória 
! Semelhante a logica proposicional: mundos possíveis definidos pela 
atribuição de valores a variáveis aleatórias. 
! Variables aleatórias booleanas 
ex., Cárie (tenho cárie?) 
! Variáveis aleatórias discretas 
ex., Tempo pode ser: <ensolarado,chovendo,nublado,nevando> 
! Valores de domínios devem ser exautivos e mutuamente exclusivos 
! Proposição elementar construída pela atribuição de um valor a A 
! Proposições complexas formadas a partir de proposições elementares 
e conectivos lógicos padrões. ex. Tempo = ensolarado ∨ Cárie = falso 
variável aleatória: ex., Tempo = ensolarado, Cárie = falso 
(abreviado como cárie)
Sintaxe 
! Evento Atômico: Uma especificação completa 
do estado do mundo sobre o qual o agente é 
incerto 
! Ex. Se o mundo consiste de apenas duas variáveis 
aleatórias booleanas Cárie e DorDeDente, então 
existem 4 possíveis eventos atômicos: 
Cárie = falso ∧ DorDeDente = falso 
Cárie = falso ∧ DorDeDente = verdade 
Cárie = verdade ∧ DorDeDente = falso 
Cárie = verdade ∧ DorDeDente = verdade 
! Eventos atômicos são mutualmente 
exclusivos e exaustivos
Axiomas da Probabilidade 
! Para quaisquer proposições A, B 
! 0 ≤ P(A) ≤ 1 
! P(verdade) = 1 e P(falso) = 0 
! P(A ∨ B) = P(A) + P(B) - P(A ∧ B)
Probabilidade a Priori 
! Probabilidade a priori ou probabilidade incondicional de proposições 
ex., P(Cárie = verdade) = 0.1 e P(Tempo = ensolarado) = 0.72 corresponde a 
uma crença inicial antes da chegada de qualquer evidência nova. 
! Distribuição de Probabilidade dá valores para todas possíveis 
atribuições: 
P(Tempo) = <0.72,0.1,0.08,0.1> (normalizado, i.e., soma é 1) 
! Distribuição de probabilidade conjunta para um conjunto de variáveis 
aleatórias dá a probabilidade de todos os eventos sobre estas variáveis 
! Ex. 
P(Tempo,Cárie) = uma matriz 4 × 2 de valores: 
Tempo = sol chuva nuvens neve 
Cárie = verdade 0.144 0.02 0.016 0.02 
Cárie = falso 0.576 0.08 0.064 0.08 
! Toda questão a cerca do domínio pode ser respondida pela 
distribuição de probabilidade conjunta
Probabilidade Condicional 
! Probabilidade Condicional ou posterior 
! ex.P(cárie | dordedente) = 0.8 
i.e., dado que dordedente é tudo o que sei. 
! Se sabemos mais, ex. que cárie é dada. Então temos: 
P(cárie | dordedente,cárie) = 1 
! Novas evidências podem ser irrelevantes, permitindo a 
simplificação, ex., 
P(cárie| dordedente, ensolarado) = P(cárie| dordedente) = 0.8 
! Este tipo de inferência, sancionada pelo conhecimento do 
domínio é crucial
Probabilidade Condicional 
! Definição. 
P(a | b) = P(a ∧ b) / P(b) se P(b) > 0 
! A regra do produto dá uma formulação alternativa: 
P(a ∧ b) = P(a | b) P(b) = P(b | a) P(a) 
! Uma versão geral serve para distribuições inteiras. Ex., 
P(Tempo,Cárie) = P(Tempo | Cárie) P(Cárie) 
! (Visto como um conjunto de 4 × 2 equações, não é 
multiplicação de matrizes) 
! Regra da Cadeia é derivada por sucessivas aplicações da regra 
do produto: 
P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) 
= P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) 
= … 
= πi=n 1 
P(Xi | X1, … ,Xi-1)
Inferência por enumeração 
! Começa com a distribuição de probabilidade 
conjunta: 
DordeDente ~DordeDente 
Boticão ~Boticão Boticão ~Boticão 
0,108 0,012 0,072 0,008 
0,016 0,064 0,144 0,576 
Cárie 
~Cárie 
! Para qualquer proposição soma-se o eventos 
atômicos onde a mesma é verdade. 
P(carie=verdade)=0,108+0,012+0,072+0,008=0,2 
(Chamada de probabilidade marginal) 
Podemos também calcular 
P(carie v dordedente) = 
0,108+0,012+0,072+0,008+0,016+0,064=0,28. 
etc.
Inferência por enumeração 
! Iniciar com a distribuição conjunta: 
! Pode calcular também as probabilidades 
condicionais: 
P(¬cárie | dordedente) = P(¬cárie ∧ dordedente) 
P(dordedente) 
= 0.016+0.064 
0.108 + 0.012 + 0.016 + 0.064 
= 0.4
Normalização 
! Denominador pode ser visto como uma constante de 
normalização 
P(Cárie | DorDeDente) = α P(Cárie,DorDeDente) 
= α [P(Cárie,DorDeDente,Boticão) + P(Cárie,DorDeDente,¬ 
Boticao)] 
= α [<0.108,0.016> + <0.012,0.064>] 
= α <0.12,0.08> = <0.6,0.4> 
Idéia geral: Calcular a distribuição sobre a variável de consulta 
fixando as variáveis de evidência e somando as variáveis 
ocultas.
Inferência por enumeração 
Normalmente estamos interessandos: 
Na distribuição conjunta posterior das variáveis de consulta Y 
sendo dados valores específicos (e) para as variáveis de evidência E 
Sejam as variáveis ocultas H = X - Y - E 
Então a totalização esperada dos valores da distribuição conjunta é 
realizada pela soma das variáveis ocultas: 
P(Y | E = e) = αP(Y,E = e) = αΣhP(Y,E= e, H = h) 
! Os termos são partes da distribuição conjunta pelo fato de que Y, E e 
H juntos são exaustivos dentro do conjunto de variáveis aleatórias. 
Problemas óbvios: 
1. Complexidade do pior caso é O(dn) onde d é a maior aridade (domínio da 
variável aleatória) 
2. Complexidade de espaço é O(dn) para armazenamento da distribuição 
conjunta 
3. Como encontrar valores para elementos de entrada em ordem O(dn)?
Independência 
! A e B são independentes sse: 
P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) 
P(DorDeDente, Boticão, Cárie, Tempo) 
= P(DorDeDente, Boticão, Cárie) P(Tempo) 
! 32 entradas foram reduzidas a 12; 
! Para n moedas independentes (não “viciadas “) teríamos O(2n) 
→O(n) (! reduzida) 
! Independência Absoluta é poderosa, mas rara. 
! Odontologia é um campo amplo com centenas de variáveis , 
nenhuma das quais é independente. O que fazer?
Independência Condicional 
! P(DorDeDente, Cárie, Boticão) tem 23 – 1 = 7 entradas 
independentes 
! Se temos cárie, a probabilidade de ter que usar o 
boticão não depende do fato de termos dor de dente. 
(1) P(boticão | dordedente, cárie) = P(boticão | cárie) 
! O memos ocorre se não temos cárie: 
(2) P(boticão | DorDeDente,¬cárie) = P(boticao | ¬cárie) 
! Boticao é condicionalmente independente de 
DorDeDente dado Cárie 
! Declarações equivalentes: 
P(DorDeDente | Boticao, Cárie) = P(DorDeDente | Cárie) 
P(DorDeDente, Boticao | Cárie) = P(DorDeDente | Cárie) P(Boticao| Cárie)
Independência condicional-cont 
! Escreve-se uma Distribuição conjunta completa 
usando a regra da cadeia. 
P(DorDeDente, Boticão, Cárie) 
= P(DorDeDente | Boticão, Cárie) P(Boticão, Cárie) 
= P(DorDeDente | Boticão, Cárie) P(Boticão | Cárie) P(Cárie) 
= P(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) 
I.e., 2 + 2 + 1 = 5 números independentes 
! Na maioria dos casos a independência reduz o 
tamanho da representação da distribuição conjunta 
de exponencial para linear em n .
Regra de Bayes 
! Regra do produto: P(a∧b) = P(a | b) P(b) = P(b | a) P(a) 
⇒ Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) 
! Na forma de distribuição: 
P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) 
! Útil para determinação de uma probabilidade de 
diagnóstico a partir da probabilidade causal: 
! P(Causa|Efeito) = P(Efeito|Causa) P(Causa) / P(Efeito) 
! E.g., seja M para o fator de alguém estar com meningite, S 
para ter o percoço rígido: 
P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008
Regra de Bayes e Independência Condicional 
P(Cárie | DorDeDente ∧ Boticão) 
= αP(DorDeDente ∧ Boticão | Cárie) P(Cárie) 
= αP(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) 
! Modelo de Bayes Ingênuo (Naïve): (IDIOTA) 
P(Causa,Efeito1, … ,Efeiton) = P(Cause) πiP(Effecti|Cause) 
Número total de Parâmetros é linear em n
Redes Bayesianas 
! Def: Notação gráfica para declarações de independência 
condicional e consequentemente para uma especificação 
compacta de distribuições conjuntas complexas 
! Sintaxe: 
! Um conjunto de “nós”, um por variável 
! Um grafo direcional acíclico mostrando influencias diretas 
! Uma distribuição condicional para cada nó dado seu pais 
P (Xi | Pais (Xi)) 
! No caso mais simples, a distribuição condicional é representada como uma tabela de 
prabilidade condicional dando a distribução sobre Xi para cada combinação de valores dos 
pais
Exemplo de Rede Bayesiana 
! A topologia da rede codifica as declarações de 
independência condicional: 
! Tempo é independente de outras variáveis 
! DorDeDente and Boticão são condicionalmente 
independentes dada cárie
Exemplo de Rede Bayesiana 
! A topologia da rede codifica as declarações de 
independência condicional: 
! Tempo é independente de outras variáveis 
! DorDeDente and Boticão são condicionalmente 
independentes dada cárie
Exemplo do Alarme 
Alguém estando no trabalho recebe o telefone do vizinho 
João Rapadura dizendo que o alarme da casa está tocando, 
mas a vizinha do outro lado Maria Amargura não 
ligou.Algumas vezes o alarme é disparado por pequenos 
tremores de terra. Será que tem um ladrão na casa? 
Variáveis: Ladrão, Terremoto, Alarme,JoaoLiga, MariaLiga 
A rede reflete o conhecimento "causal": 
Um ladrão(burglar) pode disparar o alarme 
Um terremoto (earthquake) pode disparar o alarme 
O Alarme pode fazer Maria(Mary) telefonar 
O Alarme pode fazer Joao(John) telefonar
A rede!
Compactação da Rede 
! Uma tabela com variáveis aleatórias booleanas Xi com k 
parentes booleanos terá 2k linhas para a combinação de valores 
dos pais 
! Cada linha requererá um valor p para Xi = Verdade 
(o valor para Xi = false é 1-p) 
! Se cada variável não tem mais que k pais, a rede completa fará 
O(n · 2k) valores 
! I.e., cresce linearmente com n, vs. O(2n) para a distribuição 
conjunta total 
! Para a rede do alarme teremos 1 + 1 + 4 + 2 + 2 = 10 valores 
(vs. 25-1 = 31)
Semântica da Rede 
A distribuição conjunta total é definida como o produto 
das distribuições condicionais locais 
P (X1, … ,Xn) = πi = 1 P (Xi | Pais(Xi)) 
e.g., P(j ∧ m ∧ a ∧ ¬b ∧ ¬e) 
= P (j | a) P (m | a) P (a | ¬b, ¬e) P (¬b) P (¬e)
Rede não puramente causal 
! Vamos usar o exemplo do alarme com a seguinte ordem de 
inserção dos nós: 
! MaryCalls, JohnCalls, Alarme, Roubo e Terremoto. 
Roubo 
Terremoto 
Alarme 
JohnCalls 
MaryCalls
Redes não puramente causais 
" Problemas: 
" A figura possui duas conexões a mais 
" julgamento não natural e difícil das probabilidades 
" Tendo uma rede puramente causal, teríamos um 
número menor de conexões
Tipos de Inferência em Redes Bayesianas 
Causal – Causa para efeito 
" P(JohnCalls/Roubo) = 0,86 
Roubo Alarme JohnCalls 
Evidência Query 
Diagnóstico – Efeito para Causa 
" P(Roubo/JohnCalls) = 0,016 
JohnCalls Alarme Roubo 
Evidência Query 
! Intercausal (entre causas com um efeito comum) 
! P(Roubo/Alarme) = 0,376 
! P(Roubo/Alarme ∧Terremoto) = 0,373 
Roubo Alarme Terremoto 
Query Evidência
Tipos de Inferências 
" Mista (combinando duas ou mais das de cima) 
" P(Alarme/JohnCalls ∧¬Terremoto) = 0,03 
" Este é um uso simultâneo de inferência causal e diagnóstico. 
JohnCalls Alarme Terremoto 
Evidência Query Evidência
Independência de Novo 
• Dependências 
• Intuitiva. 
• Dois nós conectados 
influenciam um ao outro 
simetricamente. 
• Independências 
• Exemplo: I (J;M|A), 
I(B;E) 
• Outros I(B;E|A)? 
• -- d-seperation. 
• (Separação Direcional)
Separação -d 
M e B são separados-d Dado A 
(Independentes) 
B A M
Separação –d - Divergente 
M e J são separados-d Dado A 
(Independentes) 
A 
J M 
Influencia pode 
ocorrer de J em M se 
não conhecemos A 
mas I(J;M|A)
Separação –d – convergente 
E e B são separados-d NÃO Dado A 
(Independentes) 
E B 
A 
E não pode influenciar 
B dado que A não é 
conhecido. 
I(E;B)
Consultas (Query) 
Informações interessantes das probabilidades conjuntas: 
Qual a probabilidade de ambos Maria e John ligarem se 
acontecer um roubo? P(M, J|B) 
Qual a mais provável explicação para o fato que Maria 
Ligou? 
Pode ser Respondido por Inferência na RB 
P(M,J|B)=P(B, M, J)/P(B) = 
ΣA 
E 
P E B A M J P B 
, 
( ( , , , , )) / ( )
Algoritmo de Eliminação de Variáveis – Inferência 
Exata 
• Idéia: Somar uma variável por vez, gerando uma nova 
distribuição em relação as outras variáveis conectando com a 
variável eliminada. 
• Quando Elimina-se E gera-se uma distribuição de A e B 
• Alta Complexidade (NP-HARD) usar Algoritmos de Formação 
de Agrupamentos /Árvores de Junção
Inferência Aproximada 
! Amostagem direta 
! Amostragem de rejeição 
! Ponderação de probabilidade 
! Simulação de Cadeias de Markov- 
Algoritmo CMMC (Cadeia de Markov 
Monte Carlo)
Modelos Temporais 
R t-1 P(Rt) 
V 0,7 
F 0,3 
R t-1 
U t-1 
R t 
U t 
R t+1 
U t +1 
R t P(Ut) 
V 0,9 
F 0,2
Modelos Temporais 
Hipótese de Markov: Estado atual depende apenas 
de um histórico finito de estados anteriores. 
Processos de Markov ou Cadeias de Markov 
Processo de Markov de Primeira Ordem: 
P(Xt|X0:t-1) = P(Xt|Xt-1) 
Usos: Filtragem, monitoramento e suavização
Modelos Temporais 
! Redes bayesianas dinâmicas 
! Casos especiais: 
! MOM – Modelos Ocultos de Markov 
! Filtros de Kalman 
! Etc. 
! Aplicações em PDS/Voz, Imagem, etc 
! Fica para a próxima .........................

Weitere ähnliche Inhalte

Was ist angesagt?

Artificial Intelligence
Artificial IntelligenceArtificial Intelligence
Artificial Intelligence
Bise Mond
 
Logica fuzzy Conceitos e Aplicações
Logica fuzzy   Conceitos e AplicaçõesLogica fuzzy   Conceitos e Aplicações
Logica fuzzy Conceitos e Aplicações
Toni Esteves
 

Was ist angesagt? (20)

ARTIFICIAL INTELLIGENCE - SHAPING THE FUTURE.pptx
ARTIFICIAL INTELLIGENCE - SHAPING THE FUTURE.pptxARTIFICIAL INTELLIGENCE - SHAPING THE FUTURE.pptx
ARTIFICIAL INTELLIGENCE - SHAPING THE FUTURE.pptx
 
First Order Logic resolution
First Order Logic resolutionFirst Order Logic resolution
First Order Logic resolution
 
Introduction to artificial intelligence
Introduction to artificial intelligenceIntroduction to artificial intelligence
Introduction to artificial intelligence
 
paradigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfparadigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdf
 
Fundamentos da Inteligencia Artificial :: Prof Dr. Carlos Estombelo
Fundamentos da Inteligencia Artificial :: Prof Dr. Carlos EstombeloFundamentos da Inteligencia Artificial :: Prof Dr. Carlos Estombelo
Fundamentos da Inteligencia Artificial :: Prof Dr. Carlos Estombelo
 
Knowledge Representation in Artificial intelligence
Knowledge Representation in Artificial intelligence Knowledge Representation in Artificial intelligence
Knowledge Representation in Artificial intelligence
 
Lecture 05 problem solving through ai
Lecture 05 problem solving through aiLecture 05 problem solving through ai
Lecture 05 problem solving through ai
 
AI Governance and Ethics - Industry Standards
AI Governance and Ethics - Industry StandardsAI Governance and Ethics - Industry Standards
AI Governance and Ethics - Industry Standards
 
AI - PAST, PRESENT, FUTURE.pptx
AI - PAST, PRESENT, FUTURE.pptxAI - PAST, PRESENT, FUTURE.pptx
AI - PAST, PRESENT, FUTURE.pptx
 
Artificial Intelligence
Artificial IntelligenceArtificial Intelligence
Artificial Intelligence
 
Assignment in T.L.E
Assignment in T.L.EAssignment in T.L.E
Assignment in T.L.E
 
Logica fuzzy Conceitos e Aplicações
Logica fuzzy   Conceitos e AplicaçõesLogica fuzzy   Conceitos e Aplicações
Logica fuzzy Conceitos e Aplicações
 
What Is The Next Level Of AI Technology?
What Is The Next Level Of AI Technology?What Is The Next Level Of AI Technology?
What Is The Next Level Of AI Technology?
 
Artificial intelligence
Artificial intelligenceArtificial intelligence
Artificial intelligence
 
Problem Solving
Problem Solving Problem Solving
Problem Solving
 
A Tutorial to AI Ethics - Fairness, Bias & Perception
A Tutorial to AI Ethics - Fairness, Bias & Perception A Tutorial to AI Ethics - Fairness, Bias & Perception
A Tutorial to AI Ethics - Fairness, Bias & Perception
 
Knowledge representation
Knowledge representationKnowledge representation
Knowledge representation
 
Artificial Intelligence(AI)
Artificial Intelligence(AI)Artificial Intelligence(AI)
Artificial Intelligence(AI)
 
(Ch#1) artificial intelligence
(Ch#1) artificial intelligence(Ch#1) artificial intelligence
(Ch#1) artificial intelligence
 
Ethics of Artificial Intelligence in Medicine
Ethics of Artificial Intelligence in MedicineEthics of Artificial Intelligence in Medicine
Ethics of Artificial Intelligence in Medicine
 

Andere mochten auch

Andere mochten auch (20)

Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 - Inteligência Artificial - Parte 5 -
Inteligência Artificial - Parte 5 -
 
Curso de IA - Parte 4 -
Curso de IA - Parte 4 -Curso de IA - Parte 4 -
Curso de IA - Parte 4 -
 
Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]Inteligência Artificial Parte 6 [IA]
Inteligência Artificial Parte 6 [IA]
 
Apresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma AracatiApresentação para Candidatos do MPCOMP Turma Aracati
Apresentação para Candidatos do MPCOMP Turma Aracati
 
Inteligência Artificial - Data Mining
Inteligência Artificial - Data MiningInteligência Artificial - Data Mining
Inteligência Artificial - Data Mining
 
Logica programacao python-slides
Logica programacao python-slidesLogica programacao python-slides
Logica programacao python-slides
 
Compiladores
CompiladoresCompiladores
Compiladores
 
Compiladores 5
Compiladores 5Compiladores 5
Compiladores 5
 
Introducao a LPC
Introducao a LPCIntroducao a LPC
Introducao a LPC
 
Compiladores-aula01
Compiladores-aula01Compiladores-aula01
Compiladores-aula01
 
Compiladores 1
Compiladores 1Compiladores 1
Compiladores 1
 
Teoria da Computação
Teoria da ComputaçãoTeoria da Computação
Teoria da Computação
 
Creando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con KivyCreando Aplicaciones para Android con Kivy
Creando Aplicaciones para Android con Kivy
 
Gerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - CompiladoresGerador de Código-Objeto - Compiladores
Gerador de Código-Objeto - Compiladores
 
Árvore B
Árvore BÁrvore B
Árvore B
 
Árvores Rubro Negras
Árvores Rubro NegrasÁrvores Rubro Negras
Árvores Rubro Negras
 
Desarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y KivyDesarrollo de aplicaciones multiplataforma con python y Kivy
Desarrollo de aplicaciones multiplataforma con python y Kivy
 
Árvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenaçãoÁrvore b+ pesquisa e ordenação
Árvore b+ pesquisa e ordenação
 
Inteligência Artificial - Aula2 - Busca em Grafos
Inteligência Artificial - Aula2 - Busca em GrafosInteligência Artificial - Aula2 - Busca em Grafos
Inteligência Artificial - Aula2 - Busca em Grafos
 
Árvores balanceadas - AVL
Árvores balanceadas - AVLÁrvores balanceadas - AVL
Árvores balanceadas - AVL
 

Ähnlich wie Curso de Inteligência Artificial - Parte 3 -

3 probabilidade
3   probabilidade3   probabilidade
3 probabilidade
Meireles01
 
Teoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptxTeoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptx
joaoluciodesouzajnio
 
Aula 6 probabilidade condicional
Aula 6   probabilidade condicionalAula 6   probabilidade condicional
Aula 6 probabilidade condicional
Ariel Rennó Chaves
 
Probabilidade
ProbabilidadeProbabilidade
Probabilidade
marianax3
 
Estatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao BayesianaEstatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao Bayesiana
Renato Vicente
 
Estatística: Modelos Discretos
Estatística: Modelos DiscretosEstatística: Modelos Discretos
Estatística: Modelos Discretos
Renato Vicente
 
Probabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantasProbabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantas
Angelica Alves
 

Ähnlich wie Curso de Inteligência Artificial - Parte 3 - (20)

37
3737
37
 
Probabilidade
ProbabilidadeProbabilidade
Probabilidade
 
44-aula44-incertezaII.pdf
44-aula44-incertezaII.pdf44-aula44-incertezaII.pdf
44-aula44-incertezaII.pdf
 
3 probabilidade
3   probabilidade3   probabilidade
3 probabilidade
 
P1fmt20141
P1fmt20141P1fmt20141
P1fmt20141
 
Aula 5 probabilidade
Aula 5   probabilidadeAula 5   probabilidade
Aula 5 probabilidade
 
Notas de aula 01 2015-2
Notas de aula 01 2015-2Notas de aula 01 2015-2
Notas de aula 01 2015-2
 
aula estatistica.ppt
aula estatistica.pptaula estatistica.ppt
aula estatistica.ppt
 
Teoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptxTeoria_das_Probabilidades_processos_estocasticos.pptx
Teoria_das_Probabilidades_processos_estocasticos.pptx
 
Aula 6 probabilidade condicional
Aula 6   probabilidade condicionalAula 6   probabilidade condicional
Aula 6 probabilidade condicional
 
Rlm
RlmRlm
Rlm
 
Raciocínio lógico argumentativo
Raciocínio lógico argumentativoRaciocínio lógico argumentativo
Raciocínio lógico argumentativo
 
m60
m60m60
m60
 
Modulo 4
Modulo 4Modulo 4
Modulo 4
 
Probabilidade
ProbabilidadeProbabilidade
Probabilidade
 
29-aula29.pdf
29-aula29.pdf29-aula29.pdf
29-aula29.pdf
 
Estatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao BayesianaEstatística: Introduçao à Estimacao Bayesiana
Estatística: Introduçao à Estimacao Bayesiana
 
Trabalho de física erro absoluto e erro relatico
Trabalho de física erro absoluto e erro relaticoTrabalho de física erro absoluto e erro relatico
Trabalho de física erro absoluto e erro relatico
 
Estatística: Modelos Discretos
Estatística: Modelos DiscretosEstatística: Modelos Discretos
Estatística: Modelos Discretos
 
Probabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantasProbabilidade um curso introdutório dantas
Probabilidade um curso introdutório dantas
 

Mehr von ronaldo ramos

Mehr von ronaldo ramos (20)

03_lisp.pdf
03_lisp.pdf03_lisp.pdf
03_lisp.pdf
 
02_lisp.pdf
02_lisp.pdf02_lisp.pdf
02_lisp.pdf
 
01_lisp.pdf
01_lisp.pdf01_lisp.pdf
01_lisp.pdf
 
_001_introducao.pdf
_001_introducao.pdf_001_introducao.pdf
_001_introducao.pdf
 
paradigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdfparadigmas_de_programacao_2_X.pdf
paradigmas_de_programacao_2_X.pdf
 
paradigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdfparadigmas_de_programacao_1_X.pdf
paradigmas_de_programacao_1_X.pdf
 
paradigmas_de_programacao.pdf
paradigmas_de_programacao.pdfparadigmas_de_programacao.pdf
paradigmas_de_programacao.pdf
 
paradigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdfparadigmas_de_programacao_3_X.pdf
paradigmas_de_programacao_3_X.pdf
 
python_funcional.pdf
python_funcional.pdfpython_funcional.pdf
python_funcional.pdf
 
40-aula40.pdf
40-aula40.pdf40-aula40.pdf
40-aula40.pdf
 
43-aula43.pdf
43-aula43.pdf43-aula43.pdf
43-aula43.pdf
 
48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf48-aula48-modelosTemporais.pdf
48-aula48-modelosTemporais.pdf
 
47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf47-aula47-fuzzy-aplicacao.pdf
47-aula47-fuzzy-aplicacao.pdf
 
46-aula46-fuzzy.pdf
46-aula46-fuzzy.pdf46-aula46-fuzzy.pdf
46-aula46-fuzzy.pdf
 
42-aula42.pdf
42-aula42.pdf42-aula42.pdf
42-aula42.pdf
 
39-aula39.pdf
39-aula39.pdf39-aula39.pdf
39-aula39.pdf
 
38-aula38.pdf
38-aula38.pdf38-aula38.pdf
38-aula38.pdf
 
36-aula36.pdf
36-aula36.pdf36-aula36.pdf
36-aula36.pdf
 
35-aula35.pdf
35-aula35.pdf35-aula35.pdf
35-aula35.pdf
 
34-aula34.pdf
34-aula34.pdf34-aula34.pdf
34-aula34.pdf
 

Kürzlich hochgeladen

8 Aula de predicado verbal e nominal - Predicativo do sujeito
8 Aula de predicado verbal e nominal - Predicativo do sujeito8 Aula de predicado verbal e nominal - Predicativo do sujeito
8 Aula de predicado verbal e nominal - Predicativo do sujeito
tatianehilda
 
19- Pedagogia (60 mapas mentais) - Amostra.pdf
19- Pedagogia (60 mapas mentais) - Amostra.pdf19- Pedagogia (60 mapas mentais) - Amostra.pdf
19- Pedagogia (60 mapas mentais) - Amostra.pdf
marlene54545
 
Teoria heterotrófica e autotrófica dos primeiros seres vivos..pptx
Teoria heterotrófica e autotrófica dos primeiros seres vivos..pptxTeoria heterotrófica e autotrófica dos primeiros seres vivos..pptx
Teoria heterotrófica e autotrófica dos primeiros seres vivos..pptx
TailsonSantos1
 

Kürzlich hochgeladen (20)

Cartão de crédito e fatura do cartão.pptx
Cartão de crédito e fatura do cartão.pptxCartão de crédito e fatura do cartão.pptx
Cartão de crédito e fatura do cartão.pptx
 
PRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEM
PRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEMPRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEM
PRÁTICAS PEDAGÓGICAS GESTÃO DA APRENDIZAGEM
 
TCC_MusicaComoLinguagemNaAlfabetização-ARAUJOfranklin-UFBA.pdf
TCC_MusicaComoLinguagemNaAlfabetização-ARAUJOfranklin-UFBA.pdfTCC_MusicaComoLinguagemNaAlfabetização-ARAUJOfranklin-UFBA.pdf
TCC_MusicaComoLinguagemNaAlfabetização-ARAUJOfranklin-UFBA.pdf
 
Sistema de Bibliotecas UCS - Cantos do fim do século
Sistema de Bibliotecas UCS  - Cantos do fim do séculoSistema de Bibliotecas UCS  - Cantos do fim do século
Sistema de Bibliotecas UCS - Cantos do fim do século
 
Texto dramático com Estrutura e exemplos.ppt
Texto dramático com Estrutura e exemplos.pptTexto dramático com Estrutura e exemplos.ppt
Texto dramático com Estrutura e exemplos.ppt
 
Aula 25 - A america espanhola - colonização, exploraçãp e trabalho (mita e en...
Aula 25 - A america espanhola - colonização, exploraçãp e trabalho (mita e en...Aula 25 - A america espanhola - colonização, exploraçãp e trabalho (mita e en...
Aula 25 - A america espanhola - colonização, exploraçãp e trabalho (mita e en...
 
Monoteísmo, Politeísmo, Panteísmo 7 ANO2.pptx
Monoteísmo, Politeísmo, Panteísmo 7 ANO2.pptxMonoteísmo, Politeísmo, Panteísmo 7 ANO2.pptx
Monoteísmo, Politeísmo, Panteísmo 7 ANO2.pptx
 
P P P 2024 - *CIEJA Santana / Tucuruvi*
P P P 2024  - *CIEJA Santana / Tucuruvi*P P P 2024  - *CIEJA Santana / Tucuruvi*
P P P 2024 - *CIEJA Santana / Tucuruvi*
 
Introdução às Funções 9º ano: Diagrama de flexas, Valor numérico de uma funçã...
Introdução às Funções 9º ano: Diagrama de flexas, Valor numérico de uma funçã...Introdução às Funções 9º ano: Diagrama de flexas, Valor numérico de uma funçã...
Introdução às Funções 9º ano: Diagrama de flexas, Valor numérico de uma funçã...
 
6ano variação linguística ensino fundamental.pptx
6ano variação linguística ensino fundamental.pptx6ano variação linguística ensino fundamental.pptx
6ano variação linguística ensino fundamental.pptx
 
EDUCAÇÃO ESPECIAL NA PERSPECTIVA INCLUSIVA
EDUCAÇÃO ESPECIAL NA PERSPECTIVA INCLUSIVAEDUCAÇÃO ESPECIAL NA PERSPECTIVA INCLUSIVA
EDUCAÇÃO ESPECIAL NA PERSPECTIVA INCLUSIVA
 
Estudar, para quê? Ciência, para quê? Parte 1 e Parte 2
Estudar, para quê?  Ciência, para quê? Parte 1 e Parte 2Estudar, para quê?  Ciência, para quê? Parte 1 e Parte 2
Estudar, para quê? Ciência, para quê? Parte 1 e Parte 2
 
Conflitos entre: ISRAEL E PALESTINA.pdf
Conflitos entre:  ISRAEL E PALESTINA.pdfConflitos entre:  ISRAEL E PALESTINA.pdf
Conflitos entre: ISRAEL E PALESTINA.pdf
 
Apresentação ISBET Jovem Aprendiz e Estágio 2023.pdf
Apresentação ISBET Jovem Aprendiz e Estágio 2023.pdfApresentação ISBET Jovem Aprendiz e Estágio 2023.pdf
Apresentação ISBET Jovem Aprendiz e Estágio 2023.pdf
 
8 Aula de predicado verbal e nominal - Predicativo do sujeito
8 Aula de predicado verbal e nominal - Predicativo do sujeito8 Aula de predicado verbal e nominal - Predicativo do sujeito
8 Aula de predicado verbal e nominal - Predicativo do sujeito
 
19- Pedagogia (60 mapas mentais) - Amostra.pdf
19- Pedagogia (60 mapas mentais) - Amostra.pdf19- Pedagogia (60 mapas mentais) - Amostra.pdf
19- Pedagogia (60 mapas mentais) - Amostra.pdf
 
Teoria heterotrófica e autotrófica dos primeiros seres vivos..pptx
Teoria heterotrófica e autotrófica dos primeiros seres vivos..pptxTeoria heterotrófica e autotrófica dos primeiros seres vivos..pptx
Teoria heterotrófica e autotrófica dos primeiros seres vivos..pptx
 
PROJETO DE EXTENSÃO I - TERAPIAS INTEGRATIVAS E COMPLEMENTARES.pdf
PROJETO DE EXTENSÃO I - TERAPIAS INTEGRATIVAS E COMPLEMENTARES.pdfPROJETO DE EXTENSÃO I - TERAPIAS INTEGRATIVAS E COMPLEMENTARES.pdf
PROJETO DE EXTENSÃO I - TERAPIAS INTEGRATIVAS E COMPLEMENTARES.pdf
 
Plano de aula Nova Escola períodos simples e composto parte 1.pptx
Plano de aula Nova Escola períodos simples e composto parte 1.pptxPlano de aula Nova Escola períodos simples e composto parte 1.pptx
Plano de aula Nova Escola períodos simples e composto parte 1.pptx
 
LISTA DE EXERCICIOS envolveto grandezas e medidas e notação cientifica 1 ANO ...
LISTA DE EXERCICIOS envolveto grandezas e medidas e notação cientifica 1 ANO ...LISTA DE EXERCICIOS envolveto grandezas e medidas e notação cientifica 1 ANO ...
LISTA DE EXERCICIOS envolveto grandezas e medidas e notação cientifica 1 ANO ...
 

Curso de Inteligência Artificial - Parte 3 -

  • 1. Incerteza, Cap 13 Ronaldo F. Ramos, Dr. ronaldo@cefet-ce.br Adaptado de : aima.cs.berkeley.edu
  • 2. Roteiro ! Incerteza ! Probabilidade ! Sintaxe e Semântica ! Inferência ! Independência e regra de Bayes
  • 3. Incerteza Seja a ação At = seguir para o aeroporto chegando t minutos antes do vôo Esta ação At nos deixará pontualmente? Problemas: 1. observalidade parcial (estado da rodovia, planos de outros motoristas, etc.) 2. sensores de ruído (relatórios com situação do tráfego) 3. incerteza nos resultados das ações (pneu furado, etc.) 4. complexidade excessiva da modelagem e previsão do tráfego. Consequentemente uma abordagem puramente lógica poderia: 1. correr risco de falsa afirmativa: “A25 me deixará à tempo no aeroporto”, ou 2. levará a conclusões muitos fracas para tomada de decisões: “A25 me deixará lá a tempo se não houver acidentes na ponte, se não chover e meus pneus permanecerem intactos etc etc.” (A1440 pode ser dito razoavelmente que chegarei a tempo, mas eu teria que permanecer a noite toda no aeroporto …)
  • 4. Métodos para tratamento da Incerteza ! Logica Default ou não monotônica: ! Assumir que meu carro não terá um pneu furado ! Assumir que A25 funcionará a não ser que seja contradita pela evidência ! Questões: Que suposições são razoáveis? Como tratar contradições? ! Regras com graus fictícios: ! A25 |→0.3 chegar a tempo ! Irrigador |→ 0.99 GramaMolhada ! GramaMolhada |→ 0.7 Chuva ! Questões: Problemas com combinações, ex., Irrigador causa chuva?? ! Probabilidade ! Modela o grau de crença do agente ! Dada uma evidência disponível, ! A25 me deixará a tempo com probabilidade 0.04
  • 5. Probabilidade Assertivas probabilisticas sumarizam os efeitos de : ! Preguiça: falha em enumerar exceções, qualificações, etc. ! Ignorância: falta de fatos relevantes, condições iniciais, etc. Probabilidade Subjetiva: ! Probabilidades relatam proposições sobre o estado de conhecimento do agente ! ex. P(A25 | não houve acidentes) = 0.06 Isto não são afirmações sobre o mundo. Probabilidades de proposições podem mudar de acordo com novas evidências: ex., P(A25 | não houve acidentes as 5h)= 0.15
  • 6. Tomando decisões em face da incerteza Suponha que acreditemos que: P(A25 me deixará a tempo| …) = 0.04 P(A90 me deixará a tempo|…) = 0.70 P(A120 me deixará a tempo| …) = 0.95 P(A1440 me deixará a tempo| …) = 0.9999 ! Que ação devo escolher? Dependerá de minhas preferências por vôos não disponíveis vc tempo gasto esperando, etc. ! Teoria da Utilidade é usada para representar e inferir preferências ! Teoria da Decisão = Teoria da Probabilidade + Teoria da Utilidade
  • 7. Sintaxe ! Elemento Básico: variável aleatória ! Semelhante a logica proposicional: mundos possíveis definidos pela atribuição de valores a variáveis aleatórias. ! Variables aleatórias booleanas ex., Cárie (tenho cárie?) ! Variáveis aleatórias discretas ex., Tempo pode ser: <ensolarado,chovendo,nublado,nevando> ! Valores de domínios devem ser exautivos e mutuamente exclusivos ! Proposição elementar construída pela atribuição de um valor a A ! Proposições complexas formadas a partir de proposições elementares e conectivos lógicos padrões. ex. Tempo = ensolarado ∨ Cárie = falso variável aleatória: ex., Tempo = ensolarado, Cárie = falso (abreviado como cárie)
  • 8. Sintaxe ! Evento Atômico: Uma especificação completa do estado do mundo sobre o qual o agente é incerto ! Ex. Se o mundo consiste de apenas duas variáveis aleatórias booleanas Cárie e DorDeDente, então existem 4 possíveis eventos atômicos: Cárie = falso ∧ DorDeDente = falso Cárie = falso ∧ DorDeDente = verdade Cárie = verdade ∧ DorDeDente = falso Cárie = verdade ∧ DorDeDente = verdade ! Eventos atômicos são mutualmente exclusivos e exaustivos
  • 9. Axiomas da Probabilidade ! Para quaisquer proposições A, B ! 0 ≤ P(A) ≤ 1 ! P(verdade) = 1 e P(falso) = 0 ! P(A ∨ B) = P(A) + P(B) - P(A ∧ B)
  • 10. Probabilidade a Priori ! Probabilidade a priori ou probabilidade incondicional de proposições ex., P(Cárie = verdade) = 0.1 e P(Tempo = ensolarado) = 0.72 corresponde a uma crença inicial antes da chegada de qualquer evidência nova. ! Distribuição de Probabilidade dá valores para todas possíveis atribuições: P(Tempo) = <0.72,0.1,0.08,0.1> (normalizado, i.e., soma é 1) ! Distribuição de probabilidade conjunta para um conjunto de variáveis aleatórias dá a probabilidade de todos os eventos sobre estas variáveis ! Ex. P(Tempo,Cárie) = uma matriz 4 × 2 de valores: Tempo = sol chuva nuvens neve Cárie = verdade 0.144 0.02 0.016 0.02 Cárie = falso 0.576 0.08 0.064 0.08 ! Toda questão a cerca do domínio pode ser respondida pela distribuição de probabilidade conjunta
  • 11. Probabilidade Condicional ! Probabilidade Condicional ou posterior ! ex.P(cárie | dordedente) = 0.8 i.e., dado que dordedente é tudo o que sei. ! Se sabemos mais, ex. que cárie é dada. Então temos: P(cárie | dordedente,cárie) = 1 ! Novas evidências podem ser irrelevantes, permitindo a simplificação, ex., P(cárie| dordedente, ensolarado) = P(cárie| dordedente) = 0.8 ! Este tipo de inferência, sancionada pelo conhecimento do domínio é crucial
  • 12. Probabilidade Condicional ! Definição. P(a | b) = P(a ∧ b) / P(b) se P(b) > 0 ! A regra do produto dá uma formulação alternativa: P(a ∧ b) = P(a | b) P(b) = P(b | a) P(a) ! Uma versão geral serve para distribuições inteiras. Ex., P(Tempo,Cárie) = P(Tempo | Cárie) P(Cárie) ! (Visto como um conjunto de 4 × 2 equações, não é multiplicação de matrizes) ! Regra da Cadeia é derivada por sucessivas aplicações da regra do produto: P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) = P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) = … = πi=n 1 P(Xi | X1, … ,Xi-1)
  • 13. Inferência por enumeração ! Começa com a distribuição de probabilidade conjunta: DordeDente ~DordeDente Boticão ~Boticão Boticão ~Boticão 0,108 0,012 0,072 0,008 0,016 0,064 0,144 0,576 Cárie ~Cárie ! Para qualquer proposição soma-se o eventos atômicos onde a mesma é verdade. P(carie=verdade)=0,108+0,012+0,072+0,008=0,2 (Chamada de probabilidade marginal) Podemos também calcular P(carie v dordedente) = 0,108+0,012+0,072+0,008+0,016+0,064=0,28. etc.
  • 14. Inferência por enumeração ! Iniciar com a distribuição conjunta: ! Pode calcular também as probabilidades condicionais: P(¬cárie | dordedente) = P(¬cárie ∧ dordedente) P(dordedente) = 0.016+0.064 0.108 + 0.012 + 0.016 + 0.064 = 0.4
  • 15. Normalização ! Denominador pode ser visto como uma constante de normalização P(Cárie | DorDeDente) = α P(Cárie,DorDeDente) = α [P(Cárie,DorDeDente,Boticão) + P(Cárie,DorDeDente,¬ Boticao)] = α [<0.108,0.016> + <0.012,0.064>] = α <0.12,0.08> = <0.6,0.4> Idéia geral: Calcular a distribuição sobre a variável de consulta fixando as variáveis de evidência e somando as variáveis ocultas.
  • 16. Inferência por enumeração Normalmente estamos interessandos: Na distribuição conjunta posterior das variáveis de consulta Y sendo dados valores específicos (e) para as variáveis de evidência E Sejam as variáveis ocultas H = X - Y - E Então a totalização esperada dos valores da distribuição conjunta é realizada pela soma das variáveis ocultas: P(Y | E = e) = αP(Y,E = e) = αΣhP(Y,E= e, H = h) ! Os termos são partes da distribuição conjunta pelo fato de que Y, E e H juntos são exaustivos dentro do conjunto de variáveis aleatórias. Problemas óbvios: 1. Complexidade do pior caso é O(dn) onde d é a maior aridade (domínio da variável aleatória) 2. Complexidade de espaço é O(dn) para armazenamento da distribuição conjunta 3. Como encontrar valores para elementos de entrada em ordem O(dn)?
  • 17. Independência ! A e B são independentes sse: P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) P(DorDeDente, Boticão, Cárie, Tempo) = P(DorDeDente, Boticão, Cárie) P(Tempo) ! 32 entradas foram reduzidas a 12; ! Para n moedas independentes (não “viciadas “) teríamos O(2n) →O(n) (! reduzida) ! Independência Absoluta é poderosa, mas rara. ! Odontologia é um campo amplo com centenas de variáveis , nenhuma das quais é independente. O que fazer?
  • 18. Independência Condicional ! P(DorDeDente, Cárie, Boticão) tem 23 – 1 = 7 entradas independentes ! Se temos cárie, a probabilidade de ter que usar o boticão não depende do fato de termos dor de dente. (1) P(boticão | dordedente, cárie) = P(boticão | cárie) ! O memos ocorre se não temos cárie: (2) P(boticão | DorDeDente,¬cárie) = P(boticao | ¬cárie) ! Boticao é condicionalmente independente de DorDeDente dado Cárie ! Declarações equivalentes: P(DorDeDente | Boticao, Cárie) = P(DorDeDente | Cárie) P(DorDeDente, Boticao | Cárie) = P(DorDeDente | Cárie) P(Boticao| Cárie)
  • 19. Independência condicional-cont ! Escreve-se uma Distribuição conjunta completa usando a regra da cadeia. P(DorDeDente, Boticão, Cárie) = P(DorDeDente | Boticão, Cárie) P(Boticão, Cárie) = P(DorDeDente | Boticão, Cárie) P(Boticão | Cárie) P(Cárie) = P(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) I.e., 2 + 2 + 1 = 5 números independentes ! Na maioria dos casos a independência reduz o tamanho da representação da distribuição conjunta de exponencial para linear em n .
  • 20. Regra de Bayes ! Regra do produto: P(a∧b) = P(a | b) P(b) = P(b | a) P(a) ⇒ Regra de Bayes: P(a | b) = P(b | a) P(a) / P(b) ! Na forma de distribuição: P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) ! Útil para determinação de uma probabilidade de diagnóstico a partir da probabilidade causal: ! P(Causa|Efeito) = P(Efeito|Causa) P(Causa) / P(Efeito) ! E.g., seja M para o fator de alguém estar com meningite, S para ter o percoço rígido: P(m|s) = P(s|m) P(m) / P(s) = 0.8 × 0.0001 / 0.1 = 0.0008
  • 21. Regra de Bayes e Independência Condicional P(Cárie | DorDeDente ∧ Boticão) = αP(DorDeDente ∧ Boticão | Cárie) P(Cárie) = αP(DorDeDente | Cárie) P(Boticão | Cárie) P(Cárie) ! Modelo de Bayes Ingênuo (Naïve): (IDIOTA) P(Causa,Efeito1, … ,Efeiton) = P(Cause) πiP(Effecti|Cause) Número total de Parâmetros é linear em n
  • 22. Redes Bayesianas ! Def: Notação gráfica para declarações de independência condicional e consequentemente para uma especificação compacta de distribuições conjuntas complexas ! Sintaxe: ! Um conjunto de “nós”, um por variável ! Um grafo direcional acíclico mostrando influencias diretas ! Uma distribuição condicional para cada nó dado seu pais P (Xi | Pais (Xi)) ! No caso mais simples, a distribuição condicional é representada como uma tabela de prabilidade condicional dando a distribução sobre Xi para cada combinação de valores dos pais
  • 23. Exemplo de Rede Bayesiana ! A topologia da rede codifica as declarações de independência condicional: ! Tempo é independente de outras variáveis ! DorDeDente and Boticão são condicionalmente independentes dada cárie
  • 24. Exemplo de Rede Bayesiana ! A topologia da rede codifica as declarações de independência condicional: ! Tempo é independente de outras variáveis ! DorDeDente and Boticão são condicionalmente independentes dada cárie
  • 25. Exemplo do Alarme Alguém estando no trabalho recebe o telefone do vizinho João Rapadura dizendo que o alarme da casa está tocando, mas a vizinha do outro lado Maria Amargura não ligou.Algumas vezes o alarme é disparado por pequenos tremores de terra. Será que tem um ladrão na casa? Variáveis: Ladrão, Terremoto, Alarme,JoaoLiga, MariaLiga A rede reflete o conhecimento "causal": Um ladrão(burglar) pode disparar o alarme Um terremoto (earthquake) pode disparar o alarme O Alarme pode fazer Maria(Mary) telefonar O Alarme pode fazer Joao(John) telefonar
  • 27. Compactação da Rede ! Uma tabela com variáveis aleatórias booleanas Xi com k parentes booleanos terá 2k linhas para a combinação de valores dos pais ! Cada linha requererá um valor p para Xi = Verdade (o valor para Xi = false é 1-p) ! Se cada variável não tem mais que k pais, a rede completa fará O(n · 2k) valores ! I.e., cresce linearmente com n, vs. O(2n) para a distribuição conjunta total ! Para a rede do alarme teremos 1 + 1 + 4 + 2 + 2 = 10 valores (vs. 25-1 = 31)
  • 28. Semântica da Rede A distribuição conjunta total é definida como o produto das distribuições condicionais locais P (X1, … ,Xn) = πi = 1 P (Xi | Pais(Xi)) e.g., P(j ∧ m ∧ a ∧ ¬b ∧ ¬e) = P (j | a) P (m | a) P (a | ¬b, ¬e) P (¬b) P (¬e)
  • 29. Rede não puramente causal ! Vamos usar o exemplo do alarme com a seguinte ordem de inserção dos nós: ! MaryCalls, JohnCalls, Alarme, Roubo e Terremoto. Roubo Terremoto Alarme JohnCalls MaryCalls
  • 30. Redes não puramente causais " Problemas: " A figura possui duas conexões a mais " julgamento não natural e difícil das probabilidades " Tendo uma rede puramente causal, teríamos um número menor de conexões
  • 31. Tipos de Inferência em Redes Bayesianas Causal – Causa para efeito " P(JohnCalls/Roubo) = 0,86 Roubo Alarme JohnCalls Evidência Query Diagnóstico – Efeito para Causa " P(Roubo/JohnCalls) = 0,016 JohnCalls Alarme Roubo Evidência Query ! Intercausal (entre causas com um efeito comum) ! P(Roubo/Alarme) = 0,376 ! P(Roubo/Alarme ∧Terremoto) = 0,373 Roubo Alarme Terremoto Query Evidência
  • 32. Tipos de Inferências " Mista (combinando duas ou mais das de cima) " P(Alarme/JohnCalls ∧¬Terremoto) = 0,03 " Este é um uso simultâneo de inferência causal e diagnóstico. JohnCalls Alarme Terremoto Evidência Query Evidência
  • 33. Independência de Novo • Dependências • Intuitiva. • Dois nós conectados influenciam um ao outro simetricamente. • Independências • Exemplo: I (J;M|A), I(B;E) • Outros I(B;E|A)? • -- d-seperation. • (Separação Direcional)
  • 34. Separação -d M e B são separados-d Dado A (Independentes) B A M
  • 35. Separação –d - Divergente M e J são separados-d Dado A (Independentes) A J M Influencia pode ocorrer de J em M se não conhecemos A mas I(J;M|A)
  • 36. Separação –d – convergente E e B são separados-d NÃO Dado A (Independentes) E B A E não pode influenciar B dado que A não é conhecido. I(E;B)
  • 37. Consultas (Query) Informações interessantes das probabilidades conjuntas: Qual a probabilidade de ambos Maria e John ligarem se acontecer um roubo? P(M, J|B) Qual a mais provável explicação para o fato que Maria Ligou? Pode ser Respondido por Inferência na RB P(M,J|B)=P(B, M, J)/P(B) = ΣA E P E B A M J P B , ( ( , , , , )) / ( )
  • 38. Algoritmo de Eliminação de Variáveis – Inferência Exata • Idéia: Somar uma variável por vez, gerando uma nova distribuição em relação as outras variáveis conectando com a variável eliminada. • Quando Elimina-se E gera-se uma distribuição de A e B • Alta Complexidade (NP-HARD) usar Algoritmos de Formação de Agrupamentos /Árvores de Junção
  • 39. Inferência Aproximada ! Amostagem direta ! Amostragem de rejeição ! Ponderação de probabilidade ! Simulação de Cadeias de Markov- Algoritmo CMMC (Cadeia de Markov Monte Carlo)
  • 40. Modelos Temporais R t-1 P(Rt) V 0,7 F 0,3 R t-1 U t-1 R t U t R t+1 U t +1 R t P(Ut) V 0,9 F 0,2
  • 41. Modelos Temporais Hipótese de Markov: Estado atual depende apenas de um histórico finito de estados anteriores. Processos de Markov ou Cadeias de Markov Processo de Markov de Primeira Ordem: P(Xt|X0:t-1) = P(Xt|Xt-1) Usos: Filtragem, monitoramento e suavização
  • 42. Modelos Temporais ! Redes bayesianas dinâmicas ! Casos especiais: ! MOM – Modelos Ocultos de Markov ! Filtros de Kalman ! Etc. ! Aplicações em PDS/Voz, Imagem, etc ! Fica para a próxima .........................