SlideShare ist ein Scribd-Unternehmen logo
1 von 44
Corso di Laurea Magistrale in Scienze Statistiche

LE PROBABILITA’ A PRIORI
INFORMATIVE

A.A. 2008/2009
Le probabilità a priori: una questione controversa

Fine di un paradigma o sua evoluzione?
APPROCCIO DECISIONALE
Determinanti di una decisione:
esperienza a priori
campione
conseguenze potenziali

Concetto di “informazione allargata”, che comprende anche
quella inosservabile, consente di formalizzare l’esperienza a
priori tramite modelli probabilistici.
Le probabilità a priori: una questione controversa

Fine di un paradigma o sua evoluzione?
SOGGETTIVITA’
nella scelta delle probabilità

mette in discussione la scientificità della statistica
mancanza di protezione da rappresentazioni distorte della realtà
Le probabilità a priori: una questione controversa
La scelta dipende dall’ammontare
di informazione disponibile
Se esiste tanta informazione in materia
In letteratura esiste una distribuzione a priori usata comunemente con
valori dei parametri già specificati
Se l’informazione è parziale
Si ricorre alle probabilità a priori informative
Se non si hanno informazioni
Si utilizzano probabilità a priori non informative, tali da non veicolare
alcun tipo di conoscenza a priori all’interno del modello utilizzato
Le probabilità a priori informative

Le probabilità a priori informative sono probabilità stabilite dal soggetto
che effettua lo studio - prima di procedere all’osservazione della realtà - in
base alla plausibilità che egli attribuisce a ciascun valore del parametro.

Legame indissolubile con il giudizio del soggetto “assertore”, che esprime
il “grado di credibilità”– degree of belief – che egli attribuisce ad un insieme
di valori plausibili del parametro.
Le probabilità a priori informative
Regole nella scelta delle probabilità a priori

Osservabilità
Solo gli eventi verificabili (osservabili) nella realtà possono essere
oggetto di assegnazione di probabilità

Coerenza
Rispetto degli assiomi di Kolmogorov, così da garantire la
comprensibilità del linguaggio probabilistico e l’assenza di
contraddizioni
Le probabilità a priori informative
Una “buona” assegnazione di probabilità
Definizione

A chi compete?

Bontà
sostanziale

dipende dalla conoscenza che
l’assertore ha riguardo l’oggetto
dell’asserzione

all’ esperto in
materia

Bontà
normativa

legata all’abilità dell’assertore
ad esprimere le sue opinioni in
forma probabilistica.

allo statistico

Necessità di una integrazione tra le due competenze per
raggiungere un’assegnazione il più possibile vicina alla realtà.
Le probabilità a priori informative
Tipologie di probabilità a priori informative

Probabilità a priori coniugate

Probabilità a priori di massima entropia
Probabilità a priori coniugate

La trattabilità matematica della formula di Bayes

Una probabilità a priori
verosimiglianza

coniugata con la funzione di
consente

la

semplificazione

matematica della formula di Bayes:

poiché la probabilità a posteriori apparterrà alla stessa famiglia
di quella a priori.
Probabilità a priori coniugate

La libertà di scelta è assicurata da:

i parametri della curva, che per certe distribuzioni – per es. la Beta –
possono modificare radicalmente l’andamento della curva

l’esistenza di famiglie coniugate mistura, che ampliano lo spettro di
distribuzioni che possono esser utilizzate
Probabilità a priori coniugate

Definizione di famiglia coniugata

Sia F=

f X ( x | s), s

S

una classe di funzioni di verosimiglianza

e P un insieme di funzioni di probabilità – discrete o continue; se, per
ogni x, ciascun

f X ( x | sF e
)

probabilità a posteriori p S s | x

P,
p S s la risultante funzione di
f X ( x | s) p S s è ancora in

P, allora P è chiamata famiglia coniugata, o famiglia di probabilità a
priori coniugate, per F.
Probabilità a priori coniugate

Caratteristiche di una famiglia coniugata

Le famiglie sono:
• il più piccole possibile
• parametrizzate

il calcolo delle probabilità a
posteriori si riduce ad un
aggiornamento dei parametri
associati alla probabilità a
priori coniugata.
Probabilità a priori coniugate
Famiglie coniugate di particolari distribuzioni di probabilità
Probabilità a priori coniugate
Esempio di updating per variabili aleatorie discrete
 Distribuzione a priori: Beta

g ( ; a, b)

( a b)
(a ) (b)

a 1

(1

) b 1 ,0

1

 Verosimiglianza del parametro rispetto alle osservazioni:
Binomiale

g( y | )

n
y

y

(1

)n

y

 Nel calcolo delle probabilità a posteriori le costanti
possono essere omesse. Allora sarà:

( a b)
e
(a) (b)

n
y
Probabilità a priori coniugate
Esempio di updating per variabili aleatorie discrete

g ( | y)

a 1

(1

)b

1

y

(1

)n

y

a y 1

(1

)b

n y 1

 cioè la probabilità a posteriori è ancora della famiglia Beta, con i
parametri aggiornati:

( | y)

Beta(a

a

y, b

b n

y)
Probabilità a priori coniugate
Esempio di updating per variabili aleatorie continue

 Quando la probabilità a priori e la funzione di verosimiglianza sono
entrambe normali, cioè:

-

-

g( )

exp(

f (y | )

(

m) 2
)
2
2s

(y
exp(
2

N ( m, s 2 )

)2
2

)

y

N( ,

2

)
Probabilità a priori coniugate
Esempio di updating per variabili aleatorie continue

 la probabilità a posteriori ha questa forma:

g ( | y1 , y2 ,..., yn )

exp

1

1
2

(

2 2

s

2

ns

2

n

2

s

n

2

1

m
s

2

n

2

2

1

y
s2

 quindi la distribuzione a posteriori è ancora normale, ma con i parametri
aggiornati

N (m ' , ( s 2 ) ' )
Probabilità a priori coniugate
Esempio di updating per variabili aleatorie continue
 Infatti, definendo la precisione di una distribuzione come il reciproco della
varianza, con la proprietà dell’additività, la varianza a posteriori viene
calcolata proprio dalla precisione a posteriori, ottenuta come somma tra la
precisione a priori e la precisione delle osservazioni:

1

2 '

(s )

n

2

1

s

2

(s )

, da cui

2 2

2

2 '

s

2

ns 2

 mentre la media a posteriori è la media ponderata della media a priori e
quella osservata, dove i pesi sono dati rispettivamente dalla proporzione della
precisione a posteriori dovuta alla distribuzione a priori e da quella dovuta alla
distribuzione campionaria:

1
m'

n

2

s

n

2

1

m
s

2

n

2

2

1

y
s2
Probabilità a priori coniugate
Applicazione: studio della quota di mercato ottenuta
da un nuovo brand con probabilità a priori coniugate
- quota di mercato ottenuta da un nuovo brand.

- distribuzione triangolare, cioè g( )=2(1-

g(π)

.

π

), o anche

Beta(3,1)
Probabilità a priori coniugate
Applicazione: studio della quota di mercato ottenuta
da un nuovo brand con probabilità a priori coniugate
 Si estragga un campione casuale di 5 consumatori: solo uno dei 5
compra il nuovo prodotto.
 Dal momento che la quota di mercato è una proporzione e
. supponendo le decisioni degli individui estratti indipendenti, si può
.
ipotizzare una f.d.v. Binomiale, cioè

f (x | )

5
x

x

(1

)

5 x

5
1

(1

)4

5 (1

)4
Probabilità a priori coniugate
Applicazione: studio della quota di mercato ottenuta
da un nuovo brand con probabilità a priori coniugate

 Calcolo delle probabilità a posteriori

g ( | x)

g( ) f (x | )
1

2(1- ) * 5 (1
1

g ( ) f ( x | )d

.
0

)4

10 (1

)5

10 (1

)5 d

1

2(1- . ) * 5 (1

4

) d

0

 La distribuzione a posteriori è quindi

10 (1 ) 5
10 / 42

0

( | x)

Beta(8,2)

42 (1

)5
Probabilità a priori coniugate
Applicazione: studio della quota di mercato ottenuta
da un nuovo brand con probabilità a priori coniugate
Posterior

( | x)

0.4

0.6

Beta(8,2)

3

f

2

.

1
0
-1 0

.
0.2

0.8

1

x

 In realtà, sarebbe bastato osservare che la distribuzione beta è la famiglia
coniugata delle funzioni di verosimiglianza binomiali e, al fine di
individuare le probabilità a posteriori, procedere all’updating dei parametri
Probabilità a priori coniugate
Misture di famiglie coniugate

.

L’introduzione di misture di famiglie coniugate permette di
raggiungere una maggiore libertà e flessibilità nella formalizzazione
delle conoscenze a priori
.
Proprietà di approssimazione universale
Probabilità a priori coniugate
Definizione di mistura di famiglie coniugate

Se P è una famiglia coniugata per F, lo è qualsiasi mistura m-dimensionale
costruita con elementi di P.

Se però è la verosimiglianza ad essere una mistura di funzioni di F, la
probabilità a posteriori risultante dalla combinazione di questa verosimiglianza
con una probabilità a priori da P, non appartiene a P.
E’ possibile adottare una famiglia coniugata mistura per verosimiglianze di
tipo mistura.
Probabilità a priori coniugate
Applicazione sulle misture di famiglie coniugate
 CAMPIONE
Sia S una quantità ignota osservata n volte (cioè si estrae un campione
casuale composto da n unità x1,x2,…xn) da una popolazione che si
suppone
( s, 2 ) con varianza nota.
La funzione di verosimiglianza sarà:
Probabilità a priori coniugate
Applicazione sulle misture di famiglie coniugate
 PROBABILITA’ A PRIORI
Si supponga che la conoscenza a priori del fenomeno spinga a ritenere che:
-

la probabilità che s sia vicina allo 0 è molto alta cioè p(s=0)→1;

-

c’è una probabilità positiva, ma bassa, che il parametro assuma

valori molto lontani dallo 0.
Questo tipo di comportamento fa pensare ad una distribuzione a code
pesanti, non contemplata nella famiglia coniugata normale. E’ quindi
necessario ricorrere ad un modello mistura per le probabilità a priori:
Probabilità a priori coniugate
Applicazione sulle misture di famiglie coniugate

Una distribuzione N(s|

2
0

), con

2
0

=1

Una distribuzione N(s|

Il modello mistura di a) e b), con

0

0 .2

2
1),

con

2
1 =20
Probabilità a priori coniugate
Applicazione sulle misture di famiglie coniugate
 PROBABILITA’ A POSTERIORI NELLA MIXTURE FORM

Aggiornamento del peso:
Probabilità a priori di massima entropia

Il metodo della massima entropia ha come obiettivo la
ricerca di una probabilità a priori il più oggettiva (il
meno informativa) possibile, pur non rinunciando
all’informazione parziale disponibile.
Probabilità a priori di massima entropia
L’informazione
L’informazione può essere rappresentata da un codice costituito da una
sequenza di bit.
Quando viene posta una domanda, essa porta con sé una quantità di incertezza
sulla risposta corretta proporzionale alle alternative disponibili.

Se la domanda (variabile) X ha N risposte alternative (determinazioni), l’incertezza
(Uncertainty) ad essa associata è pari a:

U(X )

log 2 N X
Probabilità a priori di massima entropia
L’informazione
Numero di
Alternativ
e

Probabilità logica
delle opzioni

Bits

1

1

0

2

0.5

1

4

0.25

2

…

…

…

256

0.00390625
1
N

8

N

log 2 N
Probabilità a priori di massima entropia
L’informazione
Se x è una risposta – o un insieme di risposte - alternativa alla domanda X
(cioè una determinazione - o un insieme di determinazioni - della variabile
X), allora l’informazione che essa trasmette può esser definita come la
differenza tra due stati di incertezza:

I (x

X ) U ( X ) U ( x)

log 2 N X

log 2 N x

tanto più alta quanto più è bassa la probabilità di quell’evento:

I ( x)

log( P( x))

1
log(
)
P ( x)
Probabilità a priori di massima entropia
L’entropia

“L’entropia di una variabile aleatoria X è la media dell’ informazione

I ( x i ) associata a ciascuna delle realizzazioni ( x1 , x2 ,..., xn )

della stessa”:

n

H (X )

E[ I ( xi )]

I ( xi ) P ( xi )
i 1

dove con

I ( xi )

si indica la “quantità di incertezza associata ad un

evento, cioè l’informazione che si ottiene affermando che tale evento si è

realizzato”
Probabilità a priori di massima entropia

Probabilità a priori di massima entropia per problemi a natura discreta
Quando il parametro s può assumere un numero finito di valori:

s

S

s1 , s2 ,..., sM

l’entropia della funzione di probabilità

a priori p S (s ) è definita come:

H (S )
si

ES [log(

1
pS ( si ) log(
)
pS ( si )
S

ES I ( si )

1
)] ES [ log pS ( si )]
pS ( si )
Probabilità a priori di massima entropia
Il metodo dei moltiplicatori di Lagrange

Il metodo dei moltiplicatori di Lagrange è un metodo che
serve “per trovare i massimi e i minimi di una funzione in
più variabili soggetta ad uno o più vincoli”, che si pone
“alla base dell’ottimizzazione lineare non vincolata.”
“Esso riduce la ricerca dei punti stazionari di una funzione
vincolata in n variabili con k vincoli a trovare i punti
stazionari di una funzione non vincolata in n+k
variabili, introducendo una nuova variabile scalare
incognita per ogni vincolo”, detta moltiplicatore di
Lagrange, “e definisce una nuova funzione (la
Lagrangiana) in termini della funzione originaria, dei
vincoli e dei moltiplicatori di Lagrange.”
Probabilità a priori di massima entropia
Metodo dei moltiplicatori di Lagrange e massimizzazione
dell’entropia per problemi a natura discreta
Poiché anche la massimizzazione dell’entropia rientra tra i problemi di
ottimizzazione vincolata, essa viene trattata con il metodo dei moltiplicatori
di Lagrange.
Una probabilità a priori di massima entropia per problemi a natura
discreta è una funzione di probabilità che massimizza l’entropia
(l’incertezza) tra tutte le funzioni compatibili con l’informazione parziale
disponibile che, per l’applicabilità del criterio, deve essere espressa
formalmente (rappresenta i vincoli al problema di massimizzazione):

pS (si ) g k (si )

k

per k=0,1,…,m,

si S

p S (si ) 1 è il vincolo onnipresente.

dove
si S
Probabilità a priori di massima entropia
Metodo dei moltiplicatori di Lagrange e massimizzazione
dell’entropia per problemi a natura discreta

Sotto questo tipo di vincoli, la probabilità a priori di massima entropia per
problemi a natura discreta assume la forma:
m

p

ME
S

k gk

0

(s)

e

k 1

, dove i valori dei parametri

soluzioni del problema di ottimizzazione vincolata di

ME
p S (s )

k sono
Probabilità a priori di massima entropia
La distribuzione che massimizza
l’entropia per problemi a natura discreta

 Problema: ricerca della distribuzione di probabilità a priori discreta

g ( p1 , p2 ,... pn ) che massimizza l’entropia:
n

g ( p1 , p2 ,...pn ) :

pk ln pk
k 1

dove l’unico vincolo è quello onnipresente.

max H ( S )
pS ( s )
Probabilità a priori di massima entropia
La distribuzione che massimizza
l’entropia per problemi a natura discreta
 Si possono usare i moltiplicatori di Lagrange per trovare il punto di
massima entropia (dipendente dalle probabilità). Per tutti i k da 1 a n, si
richieda che:

(g

(f

p S ( sk )

exp

pk

1))

0

1

Questo dimostra che tutti i pk sono uguali (perché dipendono da λ soltanto).
Probabilità a priori di massima entropia
La distribuzione che massimizza
l’entropia per problemi a natura discreta
 Utilizzando il vincolo ∑k pk = 1, troviamo:

pk

1/ N

La distribuzione uniforme è la distribuzione di massima entropia
Probabilità a priori di massima entropia
La distribuzione che minimizza
l’entropia per problemi a natura discreta
 Distribuzione di probabilità discreta:

p S ( sk ) 1

p S ( sk )

, dove

e

1

k i

 Ma se

tende a 0, allora devono farlo tutti i p S ( sk ), cioè:

La concentrazione della massa di probabilità su un solo punto
massimizza la certezza e minimizza l’informazione.
Probabilità a priori di massima entropia
Probabilità a priori di massima entropia per problemi a natura continua
L’informazione disponibile, che rappresenta i vincoli al problema di
massimizzazione dell’entropia, è espressa come:

pS ( s) g k ( s)ds

k=0, 1,…, m

k

S

La probabilità a priori di massima entropia diventa
m

ME
S

p

k gk

0

( s)

qS ( s)e

(s)

k 1

dove i parametri sono ricavati dai vincoli.

per

s

S,
Probabilità a priori di massima entropia
Probabilità a priori di massima entropia per problemi a natura continua

Non esiste la distribuzione che massimizza l’entropia, ma occorre
di volta in volta scegliere una distribuzione a priori qS(s) non
informativa.
Se non ci sono vincoli espliciti oltre la normalizzazione, allora la
probabilità a priori di massima entropia coincide con la densità noninformativa qS(s) prescelta.
Grazie per l’attenzione!
Carla Guadalaxara

Weitere ähnliche Inhalte

Andere mochten auch

I rapporti statistici
I rapporti statisticiI rapporti statistici
I rapporti statisticiVispo Srl
 
Funzioni e modelli matematici
Funzioni e modelli matematiciFunzioni e modelli matematici
Funzioni e modelli matematiciSalvatore Menniti
 
Dispensa di analisi dei dati
Dispensa di analisi dei datiDispensa di analisi dei dati
Dispensa di analisi dei datiStefano Bussolon
 
Introduzione allelezionidiCI
Introduzione allelezionidiCIIntroduzione allelezionidiCI
Introduzione allelezionidiCIRiccardo Rigon
 
Lezione introduttiva costruzioni Idrauliche
Lezione introduttiva costruzioni IdraulicheLezione introduttiva costruzioni Idrauliche
Lezione introduttiva costruzioni IdraulicheRiccardo Rigon
 
1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologico
1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologico1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologico
1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologicoRiccardo Rigon
 
2 c-dove iniziano i canali
2 c-dove iniziano i canali2 c-dove iniziano i canali
2 c-dove iniziano i canaliRiccardo Rigon
 
8.1 probabilita-introduzione
8.1   probabilita-introduzione8.1   probabilita-introduzione
8.1 probabilita-introduzioneRiccardo Rigon
 
3 a-descriptive statistics
3 a-descriptive statistics3 a-descriptive statistics
3 a-descriptive statisticsRiccardo Rigon
 
Introduzione al Corso di Idrologia
Introduzione al Corso di IdrologiaIntroduzione al Corso di Idrologia
Introduzione al Corso di IdrologiaRiccardo Rigon
 
2 b-grandezze derivate&bacini
2 b-grandezze derivate&bacini2 b-grandezze derivate&bacini
2 b-grandezze derivate&baciniRiccardo Rigon
 
1a - a- introduzione all'idrologia - 2014
1a - a-  introduzione all'idrologia - 20141a - a-  introduzione all'idrologia - 2014
1a - a- introduzione all'idrologia - 2014Riccardo Rigon
 
2 a-idro-geomorfologia-the basics
2 a-idro-geomorfologia-the basics2 a-idro-geomorfologia-the basics
2 a-idro-geomorfologia-the basicsRiccardo Rigon
 
Tesi di laurea sullo studio statistico delle determinanti della permanenza in...
Tesi di laurea sullo studio statistico delle determinanti della permanenza in...Tesi di laurea sullo studio statistico delle determinanti della permanenza in...
Tesi di laurea sullo studio statistico delle determinanti della permanenza in...Carla Gua
 

Andere mochten auch (16)

I rapporti statistici
I rapporti statisticiI rapporti statistici
I rapporti statistici
 
Funzioni e modelli matematici
Funzioni e modelli matematiciFunzioni e modelli matematici
Funzioni e modelli matematici
 
Dispensa di analisi dei dati
Dispensa di analisi dei datiDispensa di analisi dei dati
Dispensa di analisi dei dati
 
3 j grass-new-age
3 j grass-new-age3 j grass-new-age
3 j grass-new-age
 
Introduzione allelezionidiCI
Introduzione allelezionidiCIIntroduzione allelezionidiCI
Introduzione allelezionidiCI
 
Lezione introduttiva costruzioni Idrauliche
Lezione introduttiva costruzioni IdraulicheLezione introduttiva costruzioni Idrauliche
Lezione introduttiva costruzioni Idrauliche
 
1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologico
1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologico1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologico
1a b-introduzione all'idrologia-ilbuonvecchiocicloidrologico
 
2 c-dove iniziano i canali
2 c-dove iniziano i canali2 c-dove iniziano i canali
2 c-dove iniziano i canali
 
3 c-form andshape
3 c-form andshape3 c-form andshape
3 c-form andshape
 
8.1 probabilita-introduzione
8.1   probabilita-introduzione8.1   probabilita-introduzione
8.1 probabilita-introduzione
 
3 a-descriptive statistics
3 a-descriptive statistics3 a-descriptive statistics
3 a-descriptive statistics
 
Introduzione al Corso di Idrologia
Introduzione al Corso di IdrologiaIntroduzione al Corso di Idrologia
Introduzione al Corso di Idrologia
 
2 b-grandezze derivate&bacini
2 b-grandezze derivate&bacini2 b-grandezze derivate&bacini
2 b-grandezze derivate&bacini
 
1a - a- introduzione all'idrologia - 2014
1a - a-  introduzione all'idrologia - 20141a - a-  introduzione all'idrologia - 2014
1a - a- introduzione all'idrologia - 2014
 
2 a-idro-geomorfologia-the basics
2 a-idro-geomorfologia-the basics2 a-idro-geomorfologia-the basics
2 a-idro-geomorfologia-the basics
 
Tesi di laurea sullo studio statistico delle determinanti della permanenza in...
Tesi di laurea sullo studio statistico delle determinanti della permanenza in...Tesi di laurea sullo studio statistico delle determinanti della permanenza in...
Tesi di laurea sullo studio statistico delle determinanti della permanenza in...
 

Kürzlich hochgeladen

IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla CresimaIL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla CresimaRafael Figueredo
 
Storia dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptxStoria dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptxOrianaOcchino
 
XIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia RomanaXIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia RomanaStefano Lariccia
 
Corso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativoCorso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativovaleriodinoia35
 
Ticonzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza culturaTiconzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza culturaPierLuigi Albini
 
La seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medieLa seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medieVincenzoPantalena1
 
Esperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superioreEsperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superiorevaleriodinoia35
 
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia RomanaXI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia RomanaStefano Lariccia
 
lezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldilezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldivaleriodinoia35
 

Kürzlich hochgeladen (9)

IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla CresimaIL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
IL CHIAMATO ALLA CONVERSIONE - catechesi per candidati alla Cresima
 
Storia dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptxStoria dell’Inghilterra nell’Età Moderna.pptx
Storia dell’Inghilterra nell’Età Moderna.pptx
 
XIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia RomanaXIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
XIII Lezione - Arabo G.Rammo @ Libera Accademia Romana
 
Corso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativoCorso di digitalizzazione e reti per segretario amministrativo
Corso di digitalizzazione e reti per segretario amministrativo
 
Ticonzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza culturaTiconzero news 148.pdf aprile 2024 Terza cultura
Ticonzero news 148.pdf aprile 2024 Terza cultura
 
La seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medieLa seconda guerra mondiale per licei e scuole medie
La seconda guerra mondiale per licei e scuole medie
 
Esperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superioreEsperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superiore
 
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia RomanaXI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
XI Lezione - Arabo LAR Giath Rammo @ Libera Accademia Romana
 
lezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldilezione di fisica_I moti nel piano_Amaldi
lezione di fisica_I moti nel piano_Amaldi
 

Probabilità a priori informative - Statistica bayesiana

  • 1. Corso di Laurea Magistrale in Scienze Statistiche LE PROBABILITA’ A PRIORI INFORMATIVE A.A. 2008/2009
  • 2. Le probabilità a priori: una questione controversa Fine di un paradigma o sua evoluzione? APPROCCIO DECISIONALE Determinanti di una decisione: esperienza a priori campione conseguenze potenziali Concetto di “informazione allargata”, che comprende anche quella inosservabile, consente di formalizzare l’esperienza a priori tramite modelli probabilistici.
  • 3. Le probabilità a priori: una questione controversa Fine di un paradigma o sua evoluzione? SOGGETTIVITA’ nella scelta delle probabilità mette in discussione la scientificità della statistica mancanza di protezione da rappresentazioni distorte della realtà
  • 4. Le probabilità a priori: una questione controversa La scelta dipende dall’ammontare di informazione disponibile Se esiste tanta informazione in materia In letteratura esiste una distribuzione a priori usata comunemente con valori dei parametri già specificati Se l’informazione è parziale Si ricorre alle probabilità a priori informative Se non si hanno informazioni Si utilizzano probabilità a priori non informative, tali da non veicolare alcun tipo di conoscenza a priori all’interno del modello utilizzato
  • 5. Le probabilità a priori informative Le probabilità a priori informative sono probabilità stabilite dal soggetto che effettua lo studio - prima di procedere all’osservazione della realtà - in base alla plausibilità che egli attribuisce a ciascun valore del parametro. Legame indissolubile con il giudizio del soggetto “assertore”, che esprime il “grado di credibilità”– degree of belief – che egli attribuisce ad un insieme di valori plausibili del parametro.
  • 6. Le probabilità a priori informative Regole nella scelta delle probabilità a priori Osservabilità Solo gli eventi verificabili (osservabili) nella realtà possono essere oggetto di assegnazione di probabilità Coerenza Rispetto degli assiomi di Kolmogorov, così da garantire la comprensibilità del linguaggio probabilistico e l’assenza di contraddizioni
  • 7. Le probabilità a priori informative Una “buona” assegnazione di probabilità Definizione A chi compete? Bontà sostanziale dipende dalla conoscenza che l’assertore ha riguardo l’oggetto dell’asserzione all’ esperto in materia Bontà normativa legata all’abilità dell’assertore ad esprimere le sue opinioni in forma probabilistica. allo statistico Necessità di una integrazione tra le due competenze per raggiungere un’assegnazione il più possibile vicina alla realtà.
  • 8. Le probabilità a priori informative Tipologie di probabilità a priori informative Probabilità a priori coniugate Probabilità a priori di massima entropia
  • 9. Probabilità a priori coniugate La trattabilità matematica della formula di Bayes Una probabilità a priori verosimiglianza coniugata con la funzione di consente la semplificazione matematica della formula di Bayes: poiché la probabilità a posteriori apparterrà alla stessa famiglia di quella a priori.
  • 10. Probabilità a priori coniugate La libertà di scelta è assicurata da: i parametri della curva, che per certe distribuzioni – per es. la Beta – possono modificare radicalmente l’andamento della curva l’esistenza di famiglie coniugate mistura, che ampliano lo spettro di distribuzioni che possono esser utilizzate
  • 11. Probabilità a priori coniugate Definizione di famiglia coniugata Sia F= f X ( x | s), s S una classe di funzioni di verosimiglianza e P un insieme di funzioni di probabilità – discrete o continue; se, per ogni x, ciascun f X ( x | sF e ) probabilità a posteriori p S s | x P, p S s la risultante funzione di f X ( x | s) p S s è ancora in P, allora P è chiamata famiglia coniugata, o famiglia di probabilità a priori coniugate, per F.
  • 12. Probabilità a priori coniugate Caratteristiche di una famiglia coniugata Le famiglie sono: • il più piccole possibile • parametrizzate il calcolo delle probabilità a posteriori si riduce ad un aggiornamento dei parametri associati alla probabilità a priori coniugata.
  • 13. Probabilità a priori coniugate Famiglie coniugate di particolari distribuzioni di probabilità
  • 14. Probabilità a priori coniugate Esempio di updating per variabili aleatorie discrete  Distribuzione a priori: Beta g ( ; a, b) ( a b) (a ) (b) a 1 (1 ) b 1 ,0 1  Verosimiglianza del parametro rispetto alle osservazioni: Binomiale g( y | ) n y y (1 )n y  Nel calcolo delle probabilità a posteriori le costanti possono essere omesse. Allora sarà: ( a b) e (a) (b) n y
  • 15. Probabilità a priori coniugate Esempio di updating per variabili aleatorie discrete g ( | y) a 1 (1 )b 1 y (1 )n y a y 1 (1 )b n y 1  cioè la probabilità a posteriori è ancora della famiglia Beta, con i parametri aggiornati: ( | y) Beta(a a y, b b n y)
  • 16. Probabilità a priori coniugate Esempio di updating per variabili aleatorie continue  Quando la probabilità a priori e la funzione di verosimiglianza sono entrambe normali, cioè: - - g( ) exp( f (y | ) ( m) 2 ) 2 2s (y exp( 2 N ( m, s 2 ) )2 2 ) y N( , 2 )
  • 17. Probabilità a priori coniugate Esempio di updating per variabili aleatorie continue  la probabilità a posteriori ha questa forma: g ( | y1 , y2 ,..., yn ) exp 1 1 2 ( 2 2 s 2 ns 2 n 2 s n 2 1 m s 2 n 2 2 1 y s2  quindi la distribuzione a posteriori è ancora normale, ma con i parametri aggiornati N (m ' , ( s 2 ) ' )
  • 18. Probabilità a priori coniugate Esempio di updating per variabili aleatorie continue  Infatti, definendo la precisione di una distribuzione come il reciproco della varianza, con la proprietà dell’additività, la varianza a posteriori viene calcolata proprio dalla precisione a posteriori, ottenuta come somma tra la precisione a priori e la precisione delle osservazioni: 1 2 ' (s ) n 2 1 s 2 (s ) , da cui 2 2 2 2 ' s 2 ns 2  mentre la media a posteriori è la media ponderata della media a priori e quella osservata, dove i pesi sono dati rispettivamente dalla proporzione della precisione a posteriori dovuta alla distribuzione a priori e da quella dovuta alla distribuzione campionaria: 1 m' n 2 s n 2 1 m s 2 n 2 2 1 y s2
  • 19. Probabilità a priori coniugate Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate - quota di mercato ottenuta da un nuovo brand. - distribuzione triangolare, cioè g( )=2(1- g(π) . π ), o anche Beta(3,1)
  • 20. Probabilità a priori coniugate Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate  Si estragga un campione casuale di 5 consumatori: solo uno dei 5 compra il nuovo prodotto.  Dal momento che la quota di mercato è una proporzione e . supponendo le decisioni degli individui estratti indipendenti, si può . ipotizzare una f.d.v. Binomiale, cioè f (x | ) 5 x x (1 ) 5 x 5 1 (1 )4 5 (1 )4
  • 21. Probabilità a priori coniugate Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate  Calcolo delle probabilità a posteriori g ( | x) g( ) f (x | ) 1 2(1- ) * 5 (1 1 g ( ) f ( x | )d . 0 )4 10 (1 )5 10 (1 )5 d 1 2(1- . ) * 5 (1 4 ) d 0  La distribuzione a posteriori è quindi 10 (1 ) 5 10 / 42 0 ( | x) Beta(8,2) 42 (1 )5
  • 22. Probabilità a priori coniugate Applicazione: studio della quota di mercato ottenuta da un nuovo brand con probabilità a priori coniugate Posterior ( | x) 0.4 0.6 Beta(8,2) 3 f 2 . 1 0 -1 0 . 0.2 0.8 1 x  In realtà, sarebbe bastato osservare che la distribuzione beta è la famiglia coniugata delle funzioni di verosimiglianza binomiali e, al fine di individuare le probabilità a posteriori, procedere all’updating dei parametri
  • 23. Probabilità a priori coniugate Misture di famiglie coniugate . L’introduzione di misture di famiglie coniugate permette di raggiungere una maggiore libertà e flessibilità nella formalizzazione delle conoscenze a priori . Proprietà di approssimazione universale
  • 24. Probabilità a priori coniugate Definizione di mistura di famiglie coniugate Se P è una famiglia coniugata per F, lo è qualsiasi mistura m-dimensionale costruita con elementi di P. Se però è la verosimiglianza ad essere una mistura di funzioni di F, la probabilità a posteriori risultante dalla combinazione di questa verosimiglianza con una probabilità a priori da P, non appartiene a P. E’ possibile adottare una famiglia coniugata mistura per verosimiglianze di tipo mistura.
  • 25. Probabilità a priori coniugate Applicazione sulle misture di famiglie coniugate  CAMPIONE Sia S una quantità ignota osservata n volte (cioè si estrae un campione casuale composto da n unità x1,x2,…xn) da una popolazione che si suppone ( s, 2 ) con varianza nota. La funzione di verosimiglianza sarà:
  • 26. Probabilità a priori coniugate Applicazione sulle misture di famiglie coniugate  PROBABILITA’ A PRIORI Si supponga che la conoscenza a priori del fenomeno spinga a ritenere che: - la probabilità che s sia vicina allo 0 è molto alta cioè p(s=0)→1; - c’è una probabilità positiva, ma bassa, che il parametro assuma valori molto lontani dallo 0. Questo tipo di comportamento fa pensare ad una distribuzione a code pesanti, non contemplata nella famiglia coniugata normale. E’ quindi necessario ricorrere ad un modello mistura per le probabilità a priori:
  • 27. Probabilità a priori coniugate Applicazione sulle misture di famiglie coniugate Una distribuzione N(s| 2 0 ), con 2 0 =1 Una distribuzione N(s| Il modello mistura di a) e b), con 0 0 .2 2 1), con 2 1 =20
  • 28. Probabilità a priori coniugate Applicazione sulle misture di famiglie coniugate  PROBABILITA’ A POSTERIORI NELLA MIXTURE FORM Aggiornamento del peso:
  • 29. Probabilità a priori di massima entropia Il metodo della massima entropia ha come obiettivo la ricerca di una probabilità a priori il più oggettiva (il meno informativa) possibile, pur non rinunciando all’informazione parziale disponibile.
  • 30. Probabilità a priori di massima entropia L’informazione L’informazione può essere rappresentata da un codice costituito da una sequenza di bit. Quando viene posta una domanda, essa porta con sé una quantità di incertezza sulla risposta corretta proporzionale alle alternative disponibili. Se la domanda (variabile) X ha N risposte alternative (determinazioni), l’incertezza (Uncertainty) ad essa associata è pari a: U(X ) log 2 N X
  • 31. Probabilità a priori di massima entropia L’informazione Numero di Alternativ e Probabilità logica delle opzioni Bits 1 1 0 2 0.5 1 4 0.25 2 … … … 256 0.00390625 1 N 8 N log 2 N
  • 32. Probabilità a priori di massima entropia L’informazione Se x è una risposta – o un insieme di risposte - alternativa alla domanda X (cioè una determinazione - o un insieme di determinazioni - della variabile X), allora l’informazione che essa trasmette può esser definita come la differenza tra due stati di incertezza: I (x X ) U ( X ) U ( x) log 2 N X log 2 N x tanto più alta quanto più è bassa la probabilità di quell’evento: I ( x) log( P( x)) 1 log( ) P ( x)
  • 33. Probabilità a priori di massima entropia L’entropia “L’entropia di una variabile aleatoria X è la media dell’ informazione I ( x i ) associata a ciascuna delle realizzazioni ( x1 , x2 ,..., xn ) della stessa”: n H (X ) E[ I ( xi )] I ( xi ) P ( xi ) i 1 dove con I ( xi ) si indica la “quantità di incertezza associata ad un evento, cioè l’informazione che si ottiene affermando che tale evento si è realizzato”
  • 34. Probabilità a priori di massima entropia Probabilità a priori di massima entropia per problemi a natura discreta Quando il parametro s può assumere un numero finito di valori: s S s1 , s2 ,..., sM l’entropia della funzione di probabilità a priori p S (s ) è definita come: H (S ) si ES [log( 1 pS ( si ) log( ) pS ( si ) S ES I ( si ) 1 )] ES [ log pS ( si )] pS ( si )
  • 35. Probabilità a priori di massima entropia Il metodo dei moltiplicatori di Lagrange Il metodo dei moltiplicatori di Lagrange è un metodo che serve “per trovare i massimi e i minimi di una funzione in più variabili soggetta ad uno o più vincoli”, che si pone “alla base dell’ottimizzazione lineare non vincolata.” “Esso riduce la ricerca dei punti stazionari di una funzione vincolata in n variabili con k vincoli a trovare i punti stazionari di una funzione non vincolata in n+k variabili, introducendo una nuova variabile scalare incognita per ogni vincolo”, detta moltiplicatore di Lagrange, “e definisce una nuova funzione (la Lagrangiana) in termini della funzione originaria, dei vincoli e dei moltiplicatori di Lagrange.”
  • 36. Probabilità a priori di massima entropia Metodo dei moltiplicatori di Lagrange e massimizzazione dell’entropia per problemi a natura discreta Poiché anche la massimizzazione dell’entropia rientra tra i problemi di ottimizzazione vincolata, essa viene trattata con il metodo dei moltiplicatori di Lagrange. Una probabilità a priori di massima entropia per problemi a natura discreta è una funzione di probabilità che massimizza l’entropia (l’incertezza) tra tutte le funzioni compatibili con l’informazione parziale disponibile che, per l’applicabilità del criterio, deve essere espressa formalmente (rappresenta i vincoli al problema di massimizzazione): pS (si ) g k (si ) k per k=0,1,…,m, si S p S (si ) 1 è il vincolo onnipresente. dove si S
  • 37. Probabilità a priori di massima entropia Metodo dei moltiplicatori di Lagrange e massimizzazione dell’entropia per problemi a natura discreta Sotto questo tipo di vincoli, la probabilità a priori di massima entropia per problemi a natura discreta assume la forma: m p ME S k gk 0 (s) e k 1 , dove i valori dei parametri soluzioni del problema di ottimizzazione vincolata di ME p S (s ) k sono
  • 38. Probabilità a priori di massima entropia La distribuzione che massimizza l’entropia per problemi a natura discreta  Problema: ricerca della distribuzione di probabilità a priori discreta g ( p1 , p2 ,... pn ) che massimizza l’entropia: n g ( p1 , p2 ,...pn ) : pk ln pk k 1 dove l’unico vincolo è quello onnipresente. max H ( S ) pS ( s )
  • 39. Probabilità a priori di massima entropia La distribuzione che massimizza l’entropia per problemi a natura discreta  Si possono usare i moltiplicatori di Lagrange per trovare il punto di massima entropia (dipendente dalle probabilità). Per tutti i k da 1 a n, si richieda che: (g (f p S ( sk ) exp pk 1)) 0 1 Questo dimostra che tutti i pk sono uguali (perché dipendono da λ soltanto).
  • 40. Probabilità a priori di massima entropia La distribuzione che massimizza l’entropia per problemi a natura discreta  Utilizzando il vincolo ∑k pk = 1, troviamo: pk 1/ N La distribuzione uniforme è la distribuzione di massima entropia
  • 41. Probabilità a priori di massima entropia La distribuzione che minimizza l’entropia per problemi a natura discreta  Distribuzione di probabilità discreta: p S ( sk ) 1 p S ( sk ) , dove e 1 k i  Ma se tende a 0, allora devono farlo tutti i p S ( sk ), cioè: La concentrazione della massa di probabilità su un solo punto massimizza la certezza e minimizza l’informazione.
  • 42. Probabilità a priori di massima entropia Probabilità a priori di massima entropia per problemi a natura continua L’informazione disponibile, che rappresenta i vincoli al problema di massimizzazione dell’entropia, è espressa come: pS ( s) g k ( s)ds k=0, 1,…, m k S La probabilità a priori di massima entropia diventa m ME S p k gk 0 ( s) qS ( s)e (s) k 1 dove i parametri sono ricavati dai vincoli. per s S,
  • 43. Probabilità a priori di massima entropia Probabilità a priori di massima entropia per problemi a natura continua Non esiste la distribuzione che massimizza l’entropia, ma occorre di volta in volta scegliere una distribuzione a priori qS(s) non informativa. Se non ci sono vincoli espliciti oltre la normalizzazione, allora la probabilità a priori di massima entropia coincide con la densità noninformativa qS(s) prescelta.