SlideShare ist ein Scribd-Unternehmen logo
1 von 71
Downloaden Sie, um offline zu lesen
Appunti del Corso



                DINAMICA DELLE STRUTTURE

                    TEORIA DELLA PROBABILITÀ




                 DICAT – Università di Genova




Versione: 1.4
31.03.2011                                      Luigi Carassale

                                                             1
Sommario
1     Teoria della Probabilità ................................................................................................................ 5

    1.1     Eventi e spazio campionario.................................................................................................. 5
    1.2     Probabilità ............................................................................................................................. 6

      1.2.1       Definizione classica (eventi equiprobabili, Laplace, 1812) ........................................... 6

      1.2.2       Definizione empirica (frequentista, Von Mises 1920) ................................................... 7

      1.2.3       Definizione assiomatica (Kolmogorov 1933) ................................................................ 8

    1.3     Teoremi classici della probabilità.......................................................................................... 9

      1.3.1       Teorema dell’evento complementare ............................................................................. 9

      1.3.2       Teorema dell’evento totale........................................................................................... 10

    1.4     Probabilità condizionata e composta ................................................................................... 11

    1.5     Variabili Aleatorie ............................................................................................................... 14

      1.5.1       Definizione ................................................................................................................... 14

      1.5.2       Distribuzione di probabilità ......................................................................................... 14

      1.5.3       Funzione di probabilità (di una variabile aleatoria discreta)........................................ 16

      1.5.4       Densità di probabilità (di una variabile aleatoria continua) ......................................... 18

      1.5.5       Valore atteso ................................................................................................................ 21

      1.5.6       Momenti statistici di una variabile aleatoria ................................................................ 23

      1.5.7       Funzione caratteristica di una variabile aleatoria continua .......................................... 26
    1.6     Modelli di variabili aleatorie ............................................................................................... 26

      1.6.1       Distribuzione normale (o Gaussiana) ........................................................................... 26

      1.6.2       Distribuzione uniforme ................................................................................................ 28

      1.6.3       Modello log-normale.................................................................................................... 28

      1.6.4       Modello di Rayleigh..................................................................................................... 29

      1.6.5       Modello di binomiale ................................................................................................... 29

      1.6.6       Modello di Poisson....................................................................................................... 32

    1.7     Rappresentazione della relazione probabilistica fra due grandezze .................................... 34

      1.7.1       Distribuzione congiunta di probabilità......................................................................... 34

      1.7.2       Densità congiunta di probabilità .................................................................................. 34

      1.7.3       Variabili aleatorie statisticamente indipendenti ........................................................... 36

                                                                                                                                                     2
1.7.4        Valore atteso ................................................................................................................ 37

      1.7.5        Correlazione e covarianza ............................................................................................ 37

      1.7.6        Modello normale bi-variato ......................................................................................... 39

      1.7.7        Distribuzione condizionata di probabilità di una variabile aleatoria ........................... 40

    1.8     Proprietà delle variabili aleatorie Gaussiane ....................................................................... 41

      1.8.1        Indipendenza statistica di variabili non-correlate ........................................................ 41

      1.8.2        Linearità dello spazio delle variabili Gaussiane .......................................................... 41

      1.8.3        Teorema del limite centrale.......................................................................................... 42

2     Vettori Aleatori .......................................................................................................................... 44

    2.1     Definizione .......................................................................................................................... 44

    2.2     Momenti statistici ................................................................................................................ 44

    2.3     Modello normale (Gaussiano) ............................................................................................. 45

    2.4     Rappresentazione di vettori aleatori .................................................................................... 46

      2.4.1        Analisi a componenti principali (PCA)........................................................................ 46

    2.5     Simulazione di vettori Gaussiani......................................................................................... 47

3     Processi aleatori ......................................................................................................................... 49

    3.1     Definizioni ........................................................................................................................... 49

      3.1.1        Medie statistiche del primo ordine ............................................................................... 50
      3.1.2        Medie statistiche del secondo ordine ........................................................................... 51

    3.2     Processi aleatori stazionari .................................................................................................. 51

      3.2.1        Medie temporali di una funzione campione ................................................................. 54

      3.2.2        Processi aleatori ergodici ............................................................................................. 55

      3.2.3        Rappresentazione nel dominio della frequenza di processi stazionari ......................... 56

    3.3     Rappresentazione congiunta di una coppia di processi aleatori .......................................... 59

      3.3.1        Medie statistiche congiunte del secondo ordine .......................................................... 59

      3.3.2        Densità di Potenza spettrale incrociata ........................................................................ 61

      3.3.3        Funzione di coerenza ................................................................................................... 61

    3.4     Trasformazioni lineari di processi stazionari ...................................................................... 62

      3.4.1        Risposta nel dominio del tempo di operatori lineari con eccitazione stazionaria ........ 64

      3.4.2        Derivazione di processi stazionari ............................................................................... 64
                                                                                                                                       3
3.5   Momenti spettrali ................................................................................................................ 65

3.6   Modelli di processi stazionari.............................................................................................. 67

  3.6.1     Processo armonico ....................................................................................................... 67

  3.6.2     Processo a banda stretta ............................................................................................... 68

  3.6.3     Processo a banda estesa................................................................................................ 69

  3.6.4     White random process .................................................................................................. 70




                                                                                                                                         4
1    Teoria della Probabilità
Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di
diverse discipline scientifiche. I primi studi che portarono successivamente a concetti legati alla
probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano
(scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi
di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò il motivo per cui, lanciando
tre dadi, il 10 sia più probabile del 9 nonostante che entrambi i risultati si ottengano da un uguale
numero di combinazioni.1
La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre
de Fermat (1601-1665).2 Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de
ratiociniis in ludo aleæ, il primo trattato sul calcolo delle probabilità, nel quale introduceva il
concetto di valore atteso. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli,
dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri.
Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre
Simon Laplace (1749-1827), del Teorema del limite centrale. La teoria della probabilità raggiunse
così basi matematicamente solide e, con esse, il rango di nuova disciplina.

1.1 Eventi e spazio campionario
In teoria della probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista
della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Un ruolo centrale in
questo contesto è svolto dal concetto di evento.
Si consideri una singola osservazione o misura di un fenomeno (es. la tensione di snervamento in un
provino metallico soggetto alla prova di trazione, il numero di studenti in un aula, la velocità del
vento in un determinato luogo e in un dato istante). Se il fenomeno in esame è deterministico, il
risultato dell’osservazione (o dell’esperimento) può essere predetto con esattezza. Se il fenomeno è
aleatorio, il risultato dell’osservazione non è noto a priori; tuttavia è possibile identificare un
insieme Ω, che contiene tutti i possibili risultati dell’esperimento. L’insieme Ω è chiamato spazio
campionario; gli elementi ω di Ω sono detti punti campionari.
Si definisce evento, E, un insieme di punti campionari (e quindi di risultati possibili
dell’osservazione). Lo spazio campionario Ω contiene tutti i possibili punti campionari, quindi gli
eventi sono sottoinsiemi dello spazio campionario. Si definisce evento elementare l’evento che
contiene un solo punto campionario; evento certo, quello che contiene tutti i punti campionari (cioè
coincide con lo spazio campionario); evento impossibile, quello che non contiene punti campionari.
Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con
A∪B la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si
indica con A∩B la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che


1
  Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni
(1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi
in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi
diversi. Si può quindi ottenere il 10 in 27 modi (6+6+3+6+3+3), il 9 in 25 modi (6+6+3+3+6+1).
2
  Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4
lanci di un dado era equivalente ad ottenere almeno un doppio 6 in 24 lanci. Tuttavia, visto che giocando secondo tale
convinzione invece di vincere perdeva, scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza
empirica. Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità
nell'accezione frequentista.
                                                                                                                           5
dell'evento B. Se A∩B = ∅ i due eventi A e B vengono detti mutuamente esclusivi o incompatibili
(non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, ΩA, è detto
negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).


Esempio 1.1. Eventi.
               Nel lancio di un dado, i possibili risultati sono i numeri 1, 2, … 6. Ognuno è un punto
               campionario ω dello spazio campionario Ω = {1, 2, 3, 4, 5, 6}. Si considerino i seguenti
               eventi:
               A = “occorrenza di un numero pari” = {2,4, 6};
               B = “occorrenza di un numero dispari” = {1, 3, 5};
               C = “occorrenza del numero 2” = {2};
               D = “occorrenza del numero 7” = ∅;
               E = A∪B = Ω;
               A e B sono eventi incompatibili;
               C è un evento elementare, D è un evento impossibile, E è l’evento certo.



1.2 Probabilità
Esistono diverse definizioni di probabilità. Nel seguito si forniranno 3 definizioni che hanno rilievo
per la loro importanza storica o utilità pratica.
1.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812)
Secondo la prima definizione di probabilità, per questo detta classica, la probabilità P(A) di
occorrenza dell’evento A è definita come:

                                                               NA
                                                    P ( A) =                                              (1.1)
                                                               N

dove N è il numero di risultati possibili (assumendo che siano equiprobabili) e NA è il numero di
risultati favorevoli all’evento A.


Esempio 1.2. Definizione classica di probabilità

               Lancio di una moneta Ω = {T, C}; sia A:=T, allora P(A) = 1/2;
               Lancio di un dado Ω = {1, 2,…,6}; sia A = {1, 2}, allora P(A) = 2/6 = 1/3;
               Estrazione numero roulette: Ω = {0, 1,…,90}; sia A = “estrazione numero dispari” = {1,
               3,…,89}, allora P(A) = 45/91.


La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni.
Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia
diversi aspetti negativi non irrilevanti:

    •    si applica soltanto a fenomeni con risultati equiprobabili;

    •    presuppone un numero finito di risultati possibili;
    •    la definizione è circolare perché utilizza la nozione di probabilità (eventi equiprobabili) per
         definire la probabilità stessa.



                                                                                                             6
1.2.2 Definizione empirica (frequentista, Von Mises 1920)
Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un
evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli
esperimenti. Si consideri un esperimento che possa essere ripetuto un numero infinito di volte e si
assuma che un evento E si sia verificato un numero nE di volte durante l’esecuzione di n
esperimenti. La probabilità di occorrenza dell’evento E si definisce come il limite per n che tende a
infinito della sua frequenza relative nE/n:

                                                                      nE
                                                      P ( E ) = lim                                                (1.2)
                                                                n→∞   n


Esempio 1.3. Definizione frequentista di probabilità: convergenza alla definizione classica

               Si simuli il lancio di un dado e si verifichi mediante la definizione (1.2) che l’evento A =
               {1, 2} ha probabilità 1/3.
               Il codice Matlab riportato in Figura 1.1 genera una successione di numeri casuali, x,
               mediante il comando rand. I valori di x così generati sono compresi nell’intervallo chiuso
               [2-53, 1-2-53]. A partire da x, il codice genera numeri interi, y, casuali equiprobabili compresi
               fra 1 e 6.
               La Figura 1.2 mostra i primi 10 risultati di una sequenza casuale. La Figura 1.3 mostra la
               convergenza della probabilità calcolata mediante la definizione frequentista al valore
               ottenuto dalla definizione classica (1/3). Si osserva che per avere una buona corrispondenza
               fra i due valori sono necessari circa 104 esperimenti.

               % Convergenza definizione frequentista probabilità

               %   Esempio: lancio di un dado
               %   n = numero esperimenti
               %   A = evento
               %   y = risultati esperimenti
               %   fA = elenco eventi favorevoli (1) e sfavorevoli (0)
               %   PA = probabilità di occorrenza evento A

               n = 1e6;
               x = rand(n,1);
               y = round(6 * x + 0.5);

               A = [1 2];
               fA = zeros(n,1);
               for k=1:n
                   fA(k) = sum(A==y(k));
               end
               PA = cumsum(fA) ./ (1:n)';

               figure(1)
               plot(1:10,y(1:10),'xr')
               ylim([0 7])
               grid on
               xlabel('j')
               ylabel('y_j')

               figure(2)
               semilogx(1:n,PA, 1:n, ones(n,1)*length(A)/6,'r--')
               xlabel('n')
               ylabel('n_E/n')
               grid on
               set(gca,'xMinorGrid','off')

               Figura 1.1. Codice Matlab per verifica convergenza definizione frequentista di probabilità.




                                                                                                                      7
7

                                  6

                                  5

                                  4




                            yj
                                  3

                                  2

                                  1

                                  0
                                   1    2        3   4       5           6   7       8        9   10
                                                                 j


            Figura 1.2. Lancio di un dado: punti campionari corrispondenti a 10 esperimenti.


                                0.45

                                 0.4

                                0.35

                                 0.3

                                0.25
                         nE/n




                                 0.2

                                0.15

                                 0.1

                                0.05

                                  0
                                    0        1           2           3           4        5        6
                                  10        10       10          10          10          10       10
                                                                  n


            Figura 1.3. Convergenza della frequenza relative al valore della probabilità definita mediante la
            (1.1).




La definizione frequentista, come quella classica, è operativa, cioè consente di calcolare
praticamente la probabilità di eventi in molte circostanze; inoltre, è coerente con quanto fornito
dalla definizione classica nel caso di eventi equiprobabili. Tuttavia è necessario osservare:
   •   il "limite" delle frequenze relative non corrisponde all'analogo concetto matematico; ad
       esempio, data una successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un
       numero naturale N tale che |an - a| < ε per ogni n > N, e, comunque dato ε, è sempre
       possibile calcolare N; nella definizione frequentista, invece, N non è sempre calcolabile;
   •   non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia
       la probabilità che vi sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la
       metà di quello attuale, ma in casi simili non è possibile immaginare esperimenti ripetibili
       all'infinito.
1.2.3 Definizione assiomatica (Kolmogorov 1933)
L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov
nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo
delle probabilità). Va notato che la definizione assiomatica non è una definizione operativa e non
fornisce indicazioni su come calcolare la probabilità. Il nome deriva dal procedimento per
"assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati
da cui poi si passava a definire i teoremi.

                                                                                                                8
L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi
esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω,
detto spazio campionario, e ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in
prima approssimazione, come una misura, cioè come una funzione che associa a ciascun
sottoinsieme di Ω un numero reale non negativo tale che la somma delle probabilità di tutti gli
eventi sia pari a 1.
Si assuma che ogni evento nello spazio campionari Ω sia associato a un numero reale P(E),
chiamato probabilità di E. Questo numero soddisfa le tre seguenti condizioni:

    1. La probabilità è un numero non-negativo: P(E) ≥ 0;

    2. La probabilità dell’evento certo è unitaria: P(Ω) = 1;

    3. Dati due eventi A e B definiti come mutuamente esclusivi, allora P(A∪B) = P(A) + P(B).

Si osservi che, come conseguenza degli assiomi precedenti, necessariamente, P(E) ≤ 1.
I tre assiomi introdotti da Kolmogorov sono coerenti con la definizione empirica fornita da Von
Mises e con la definizione classica enunciata da Laplace.

1.3 Teoremi classici della probabilità
Dagli assiomi precedenti si ricavano i teoremi di seguito riportati.
1.3.1 Teorema dell’evento complementare
Si definisce evento complementare Ec = ΩE dell’evento E, l’evento che comprende tutti i punti
campionari di Ω non compresi in E (Figura 1.4).




Figura 1.4. Evento complementare.

Un evento E e il suo complementare Ec sono mutuamente esclusivi, cioè la loro intersezione
fornisce l’evento vuoto, mentre la loro unione genera l’evento certo

                                               E ∩ Ec = 0
                                                                                                (1.3)
                                               E ∪ Ec = Ω

Applicando alla (1.3) l’Assioma 3 si deduce:

                                          P ( Ec ) = 1− P ( E )                                 (1.4)

In particolare, essendo Ωc = ∅, l’applicazione della (1.4) dimostra che l’evento vuoto ha probabilità
di occorrenza zero (P(0) = 0). La (1.4) e l’assioma 1 dimostrano che P(E) ≤ 1.
                                                                                                   9
Esempio 1.4. Probabilità dell’evento complementare

               Sia P = 10-6 la probabilità di collasso di una struttura in un anno. La probabilità che tale
               struttura non collassi in un anno è 1 – P = 1 – 10-6.


1.3.2 Teorema dell’evento totale
Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due, ovvero la
probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi
se sono mutuamente esclusivi; in caso contrario, alla somma va sottratta la probabilità
dell’intersezione. Si consideri due eventi E1 e E2 in Ω (Figura 1.5):




Figura 1.5. Evento totale.

L’unione degli eventi E1 e E2 può essere scritta come:

                                   E1 ∪ E 2 = ( E1 − E 2 ) ∪ ( E 2 − E1 ) ∪ ( E1 ∩ E 2 )                      (1.5)

dove (E1 – E2) contiene i punti campionari presenti in E1, ma non in E2 (E2 – E1 è definito
analogamente). I tre eventi rappresentati dagli insiemi del termine di destra della (1.5) sono
mutuamente esclusivi, quindi per l’Assioma 3 risulta:

                              P ( E1 ∪ E 2 ) = P ( E1 − E 2 ) + P ( E 2 − E1 ) + P ( E1 ∩ E 2 )               (1.6)

Da Figura 1.5 risulta inoltre che E1 = ( E1 − E2 ) ∪ ( E1 ∩ E2 ) . La probabilità di occorrenza
dell’evento E1 – E2 risulta pertanto:

                                         P ( E1 − E 2 ) = P ( E1 ) − P ( E1 ∩ E 2 )                           (1.7)

Sostituendo la (1.7) (e un’espressione analoga per E2 – E1) nella (1.6), la probabilità di occorrenza
dell’evento totale E1 ∪ E2 risulta:

                                   P ( E1 ∪ E 2 ) = P ( E1 ) + P ( E 2 ) − P ( E1 ∩ E 2 )                     (1.8)

Dalla (1.8) e dall’assioma di positività discende la condizione:

                                            P ( E1 ∪ E 2 ) ≤ P ( E1 ) + P ( E 2 )                             (1.9)




                                                                                                                10
Esempio 1.5. Probabilità dell’evento totale.
               Si consideri il lancio di un dado e si considerino i seguenti eventi:
               E1 = {1, 2, 3};     E2 = {3, 4};       Ω = {1,… , 6}
               Applicando la definizione (1.1) risulta:
               P [ E1 ] = 1 2    P [ E2 ] = 1 3;    P [ E1 ∩ E2 ] = 1 6
               Applicando il teorema dell’evento totale risulta:
               P [ E1 ∪ E2 ] = P [ E1 ] + P [ E2 ] − P [ E1 ∩ E2 ] = 2 3




1.4 Probabilità condizionata e composta
Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di
verificarsi quando si sappia che B si è verificato.

                                                   P ( A ∩ B)
                                   P ( A | B) =
                                                     P (B)
                                                                                 ( P ( B ) > 0)         (1.10)


La definizione di probabilità condizionata può essere facilmente spiegata considerando il caso di
uno spazio campionario Ω contenente N punti campionari equiprobabili ω. Sia NB il numero di
risultati favorevoli per l’evento B e NAB il numero di risultati favorevoli contemporaneamente per
gli eventi A e B (e quindi per l’evento A ∩ B). Sostituendo nella (1.10) la definizione classica di
probabilità (Eq. (1.1)):

                                                                   N AB N N AB
                                                   P ( A | B) =          =                              (1.11)
                                                                    N N B NB

La probabilità condizionata P(A|B) può essere dunque interpretata come la probabilità di occorrenza
di A nello spazio campionario ridotto determinato da B (Figura 1.6).




Figura 1.6. Probabilità condizionata.



Esempio 1.6. Probabilità condizionata.
               Si consideri il lancio simultaneo di due dadi. Si voglia determinare la probabilità di
               occorrenza del numero 7 (evento A), dato che uno dei due dadi ha fornito il numero 1
               (evento B). Lo spazio campionario Ω contiene i 36 punti campionari equiprobabili:




                                                                                                           11
(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6),
              (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),
              (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6),
              (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),
              (5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6),
              (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6).
              Il numero di risultati favorevoli a A è NA = 6, quindi P(A) = 1/6; il numero di risultati
              favorevoli a B è NB=11, quindi P(B) = 11/36; il numero di risultati favorevoli
              simultaneamente ad A e B è NA∩B = 2, quindi P(A∩B) = 1/18; il numero di risultati
              favorevoli a A, dato che si è verificato B sono 2 su 11 possibilità, quindi P(A|B)=2/11.


Attraverso il concetto di probabilità condizionata si perviene al teorema della probabilità composta,
che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità
che essi si verifichino entrambi. Nel caso di due eventi, si ha

                                     P ( A ∩ B ) = P ( A | B ) P ( B ) = P ( B | A) P ( A)                  (1.12)

Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti
stocasticamente (o probabilisticamente, o statisticamente) indipendenti e dalla stessa definizione
segue una diversa formulazione della probabilità composta, caso particolare del precedente:

                                                    P ( A ∩ B ) = P ( A) P ( B )                            (1.13)



Esempio 1.7. Eventi statisticamente indipendenti.
              Si consideri i seguenti eventi legati al lancio di un dado:
               Ω = {1, 2, 3, 4,5, 6};            A = {1, 2};         B {1, 3,5};       C = {2, 4, 6}
               P ( A) = 2 / 6;        P ( B ) = 3 / 6;     P (C ) = 3 / 6 ;
               A ∩ B = {1},           P ( A ∩ B ) = 1/ 6 = P ( A ) P ( B ) ⇒ A, B indipendenti;
               B ∩ C = ∅,            P ( B ∩ C ) = 0 ≠ P ( B ) P ( C ) ⇒ B, C dipendenti.
              Si osserva che gli eventi A e B sono indipendenti, ma non mutuamente esclusivi, mentre gli
              eventi B e C sono mutuamente esclusivi, ma non indipendenti. Si potrebbe osservare, in
              proposito, che due eventi mutuamente esclusivi non possono essere statisticamente
              indipendenti, in quanto la realizzazione di uno comporta la non-realizzazione dell’altro.
              Il codice Matlab riportato in Figura 1.7 valuta, applicando la definizione frequentista, la
              probabilità di occorrenza dell’evento A = {1, 2} e la probabilità di occorrenza di A
              condizionata all’occorrenza di B = {2, 4, 5}. La Figura 1.8 mostra che, all’aumentare del
              numero di esperimenti n, le probabilità P(A) e P(A|B) tendono al medesimo valore. Ciò
              indica che gli eventi A e B sono statisticamente indipendenti.




                                                                                                               12
%   Esempio: lancio di un dado
%   verifica che gli eventi A = [1 2] e B = [2 4 5] sono statisticamente
%   indipendenti.
%
%   n = numero di esperimenti
%   y = risultati esperimenti (lanci dado)
%   fA = elenco eventi favorevoli (1) e sfavorevoli (0) per A
%   fB = elenco eventi favorevoli (1) e sfavorevoli (0) per B
%   fAB = elenco eventi favorevoli (1) e sfavorevoli (0) per A e B
%   contemporaneamente
%   PA = probabilità di occorrenza evento A
%   PAcB = probabilità di occorrenza di A dato B

n = 1e5;
x = rand(n,1);
y = round(6 * x + 0.5);

A = [1 2];
B = [2 4 5];
fB = zeros(n,1);
fAB = zeros(n,1);
for k=1:n
    fA(k) = sum(A==y(k));
    fB(k) = sum(B==y(k));
    fAB(k) = sum(A==y(k)) & sum(B==y(k));
end
PA = cumsum(fA) ./ (1:n)';
PAcB = cumsum(fAB) ./ cumsum(fB);

Figura 1.7. Codice Matlab per verifica indipendenza statistica mediante definizione frequentista
di probabilità.


                              0.5

                             0.45

                              0.4

                             0.35
              P(A), P(A|B)




                              0.3

                             0.25

                              0.2

                             0.15

                              0.1

                             0.05

                               0
                                  0        1        2            3        4        5
                               10     10       10           10       10       10
                                                        n




Figura 1.8. Probabilità di A (linea blu), e probabilità di A dato B (linea rossa).




                                                                                                   13
1.5 Variabili Aleatorie
In teoria della probabilità, una variabile casuale (o variabile aleatoria o variabile stocastica o
random variable) può essere pensata come il risultato numerico di un esperimento quando questo
non è prevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un
dado può essere matematicamente modellato come una variabile casuale che può assumere uno dei
sei possibili valori 1, 2, 3, 4, 5, 6. Bruno de Finetti definiva numero aleatorio (termine suggerito
dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza
di informazioni.
1.5.1 Definizione
Dato uno spazio campionario Ω su cui è definita una misura di probabilità, una variabile aleatoria è
una funzione (misurabile) dallo spazio campionario a uno spazio misurabile (es. l’insieme dei
numeri naturali, l’insieme dei numeri reali, ecc.; Figura 1.9).
In questo capitolo, si considerano variabili aleatorie a valori scalari (dette mono-variate). Variabili
aleatorie a valori vettoriali sono definite nei capitoli successivi.
Una variabile aleatoria è definita continua se ha valori in intervalli continui di . Una variabile è
detta discreta si ha valori in un insieme di numeri finito o numerabile (es. ). Una variabile
aleatoria è detta mista se assume valori in un insieme continuo, ma possiede un numero discreto di
valori aventi probabilità di occorrenza finita.
Nel seguito, le variabili aleatorie verranno indicate con lettere maiuscole (es. X), mentre le
corrispondenti lettere minuscole (es. x) verranno utilizzare per identificare generici valori assunti da
X, detti realizzazioni. La realizzazione x può essere interpretata come l’immagine del punto
campionario ω attraverso X (Figura 1.9).



                                         ω
                                                          x = X(ω)

                                     Ω

                                                               x

Figura 1.9. Variabile aleatoria X.

1.5.2 Distribuzione di probabilità
La distribuzione di probabilità (o distribuzione cumulative, o cumulative distribution function,
CDF) è una funzione che definisce la probabilità che la variabile aleatoria X assuma valori minori o
uguali ad un parametro ξ in .

                                                  FX ( ξ) = P ( X ≤ ξ )                          (1.14)

La distribuzione di probabilità è definite per qualsiasi valore dell’argomento ξ in e possiede le
seguenti proprietà (facilmente deducibili dalla (1.14) e dagli assiomi della teoria della probabilità):

                                         FX ( −∞ ) = P ( X ≤ −∞ ) = P ( ∅ ) = 0                  (1.15)
                                         FX ( +∞ ) = P ( X ≤ +∞ ) = P ( Ω ) = 1                  (1.16)

                                                                                                     14
P ( ξ1 < X ≤ ξ 2 ) = FX ( ξ 2 ) − FX ( ξ1 )                 ( ξ1 < ξ2 )              (1.17)

Dalla (1.17) discende (per l’assioma di positività) che la distribuzione di probabilità è una funzione
non-decrescente i cui valori appartengono all’intervallo chiuso [0, 1]. Sarebbe possibile dimostrare
anche l’implicazione inversa: una funzione non-decrescente che soddisfa le condizioni (1.15) e
(1.16) rappresenta la distribuzione di probabilità di una qualche variabile aleatoria.
Esempio 1.8. Stima distribuzione di probabilità di una variabile aleatoria discrete

               La Figura 1.10 mostra il codice Matlab per la stima della distribuzione di probabilità di una
               variabile aleatoria discreta X, rappresentativa dei risultati del lancio di un dado. La Figura
               1.11 mostra la distribuzione di probabilità stimata. Si osserva la struttura discontinua della
               funzione, tipica delle variabili aleatorie discrete. I salti nella funzione rappresentano
               probabilità finite di avere risultati in corrispondenza dei valori 1, 2,…,6.

               % stima distribuzione di probabilità di v.a. discreta
               n = 1e5;
               X = round(6*rand(n,1) + 0.5);   % lancio di un dado

               xi = linspace(-2, 10, 3001);
               FX = zeros(size(xi));
               for k=1:length(xi)
                   FX(k) = sum(X<=xi(k))/n;
               end
               plot(xi,FX,'.')
               xlabel('xi')
               ylabel('F_X(xi)')
               grid on
               ylim([0 1.1])

               Figura 1.10. Codice Matlab per stima distribuzione di probabilità: esempio variabile aleatoria
               discreta




                                      1



                                     0.8



                                     0.6
                             FX(ξ)




                                     0.4



                                     0.2



                                      0
                                       -2    0         2        4           6         8         10
                                                                ξ


               Figura 1.11. Distribuzione di probabilità dei risultati del lancio di un dado stimata mediante il
               codice di Figura 1.10.



Esempio 1.9. Stima distribuzione di probabilità di una variabile aleatoria continua
               Il codice riportato in Figura 1.12 stima la distribuzione di probabilità della variabile
               aleatoria continua X, il cui spazio campionario è generato attraverso una trasformazione
               non-lineare di numeri casuali Gaussiani u. Per ogni valore ξ(k) dell’ascissa discretizzata, la
               distribuzione di probabilità è ottenuta valutando la probabilità dell’evento X ≤ ξ(k)
               mediante la definizione frequentista. La Figura 1.13 mostra la distribuzione di probabilità
               stimata.
                                                                                                                      15
%   stima CDF della variabile aleatoria X
            n   = 1e5;    % numero esperimenti
            u   = randn(n,1);
            X   = u + 0.1*u.^2 + 0.05*u.^3;   % generazione spazio campionario per X

            xi = linspace(-10, 10, 300); % definizione ascissa discretizzata
            FX = zeros(size(xi));
            for k=1:length(xi)
                FX(k) = sum(X<=xi(k))/n;
            end
            plot(xi,FX)
            xlabel('xi')
            ylabel('F_X(xi)')
            grid on
            ylim([0 1.1])

            Figura 1.12. Codice Matlab per stima distribuzione di probabilità




                                  1



                                 0.8



                                 0.6
                         FX(ξ)




                                 0.4



                                 0.2



                                  0
                                  -10   -8   -6    -4    -2       0         2       4   6   8   10
                                                                 ξ


            Figura 1.13. Distibuzione di probabilità di una variabile aleatoria continua stimata mediante il
            codice di Figura 1.12.




1.5.3 Funzione di probabilità (di una variabile aleatoria discreta)
Si consideri una variabile aleatoria discrete X che può assumere gli n valori discreti ξj (j = 1,…,n).
Si definisce funzione di probabilità di X la funzione:

                                                  PX ( ξ j ) = P ( X = ξ j )                                   (1.18)

che definisce, la probabilità di realizzazione di ogni possibile valore ξj. La funzione di probabilità e
la distribuzione di probabilità sono legate dalla relazione:

                                             PX ( ξ j ) = FX ( ξ j ) − FX ( ξ− )
                                                                             j                                 (1.19)
                                                  FX ( ξ ) =   ∑ P (ξ )
                                                               ξj ≤ ξ
                                                                        X       j                              (1.20)


dove ξj- indica un numero reale minore, ma arbitrariamente vicino a ξj. La Figura 1.14 mostra la
funzione di probabilità e la corrispondente distribuzione di probabilità di una variabile aleatoria
discreta.


                                                                                                                  16
0.8


                                                                               0.7
               1

                                                                               0.6

              0.8
                                                                               0.5
      FX(ξ)




                                                                       PX(ξ)
              0.6                                                              0.4


                                                                               0.3
              0.4

                                                                               0.2

              0.2
                                                                               0.1


               0                                                                0
                      1             2            3            4                      1          2             3          4
                                        ξ                                                           ξ



Figura 1.14. Funzione di probabilità e distribuzione di probabilità di una variabile discrete.



Esempio 1.10. Stima della funzione di probabilità
                    Si consideri un esperimento realizzando lanciando due dadi. Sia X ottenuto come somma
                    dei risultati forniti dai due dati. La Figura 1.15 riporta il codice per simulare il lancio di due
                    dadi; la funzione di probabilità è valutata attraverso la funzione riportata in Figura 1.15
                    realizzata introducendo la definizione frequentista di probabilità nella (1.18).
                    La Figura 1.17 mostra la funzione di probabilità (a) e la distribuzione di probabilità (b)
                    stimata sulla base di 105 lanci di dadi simulati.

                    % esempio lancio di due dadi
                    n = 1e5;
                    X1 = round(6*rand(n,1) + 0.5);            % lancio di un dado 1
                    X2 = round(6*rand(n,1) + 0.5);            % lancio di un dado 2
                    X = X1 + X2;

                    [PX, xi] = pf1(X);
                    figure(1)
                    for k=1:length(xi)
                        plot(xi(k)*[1 1],PX(k)*[0 1],'b',xi(k),P(k),'.b')
                        hold on
                    end
                    hold off

                    xlim([0 14])
                    grid on
                    xlabel('xi')
                    ylabel('P_X(xi)')

                    Figura 1.15. Codice Matlab per simulazione del lancio di due dadi.


                    function [P, xi] = pf1(x)
                    % stima funzione di probabilità per v.a. discreta X di cui sono disponibili
                    % n realizzazioni contenute nel vettore x
                    % P = funxione di probabilità
                    % xi = ascissa P

                    xi = min(x):max(x);        % ascissa funz di probabilità
                    P = zeros(length(xi),1);
                    z = x - min(x) + 1;
                    for k=1:length(x)
                        P(z(k)) = P(z(k)) + 1;
                    end
                    P = P / length(x);
                    end

                    Figura 1.16. Codice Matlab per stima dai dati della funzione di probabilità di una variabile
                    aleatoria discreta.




                                                                                                                             17
0.18

                                                                                                   1
             0.16

             0.14
                                                                                              0.8
             0.12

              0.1                                                                             0.6
     PX(ξ)




                                                                                      FX(ξ)
             0.08

                                                                                              0.4
             0.06

             0.04
                                                                                              0.2
             0.02

               0                                                                                   0
                    0       2       4      6       8   10    12           14                           0   2   4   6       8      10      12   14
                                               ξ
                                                                               (a)                                     ξ
                                                                                                                                                    (b)
                        Figura 1.17. Funzione di probabilità (a) e distribuzione di probabilità (b).




1.5.4 Densità di probabilità (di una variabile aleatoria continua)
La distribuzione di probabilità, FX, di una variabile aleatoria continua, X, è una funzione continua in
  , ma non necessariamente derivabile. Si assuma che i punti in cui FX non è derivabile formino un
insieme numerabile. Ove FX è derivabile, si definisce la densità di probabilità pX(ξ) (o probability
density function, o pdf) come derivata di FX rispetto all’argomento ξ:

                                                                                     d FX ( ξ )
                                                                  pX ( ξ ) =                                                                        (1.21)
                                                                                        dξ

In virtù delle proprietà di FX si deducono le seguenti proprietà della densità di probabilità:

                                                                          pX ( ξ) ≥ 0                                                               (1.22)
                                                                                 ξ
                                                            FX ( ξ ) = ∫ pX ( α ) dα                                                                (1.23)
                                                                                 −∞
                                                                      ∞
                                                                  ∫       pX ( ξ ) d ξ = 1                                                          (1.24)
                                                                   −∞
                                                                                              ξ2
                                P ( ξ1 < X ≤ ξ 2 ) = FX ( ξ 2 ) − FX ( ξ1 ) = ∫ p X ( α ) dα                               ( ξ1 < ξ 2 )             (1.25)
                                                                                              ξ1



In cui si è supposto che, nei punti dove pX non è definita (FX non derivabile), essa assuma un
qualsiasi valore positivo finito.
La Figura 1.18 descrive la relazione fra pX e FX definita dalla (1.23): l’ordinata FX(ξ) equivale
all’area sottesa da pX a sinistra dell’ascissa ξ.
La Figura 1.19 mostra che l’occorrenza di un punto ξ* in cui FX non è derivabile si riflette in una
discontinuità in pX.




                                                                                                                                                          18
(a)                                    (b)
Figura 1.18. Relazione fra densità (a) e distribuzione (b) di probabilità.




Figura 1.19. Punti singolari nella densità di probabilità.

La (1.25) afferma che l’area sottesa dalla densità di probabilità, compresa fra due valori di ascissa,
ξ1 e ξ2, rappresenta la probabilità che la variabile aleatoria assuma un valore compreso in tale
intervallo (Figura 1.20). Ponendo ξ1 = ξ e ξ2 = ξ + Δξ, la (1.25) può essere riscritta nella forma:
                                                              ξ+Δξ

                                   P ( ξ < X ≤ ξ + Δξ ) =      ∫     pX (α ) d α     Δξ p X ( ξ )   (1.26)
                                                               ξ



Nella quale, l’applicazione del teorema della media impone di assumere che pX sia continua in ξ.




Figura 1.20. Significato probabilistico di densità e distribuzione di probabilità.



                                                                                                       19
L’applicazione della definizione empirica di probabilità alla (1.26) fornisce uno strumento per
stimare la densità di probabilità attraverso la relazione:

                                                                  Δn ( ξ )
                                                    p X ( ξ ) ≅ lim                                      (1.27)
                                                              n →∞ nΔξ



dove Δn(ξ) è il numero di volte in cui il valore di X è compreso nell’intervallo (ξ,ξ + Δξ] in n
esperimenti. La densità così ottenuta è rappresentata da un istogramma (Figura 1.21) che, se Δξ è
sufficientemente piccolo può essere interpretato come la discretizzazione di una funzione di
variabile continua.




Figura 1.21. Stima della densità di probabilità.



Esempio 1.11. Stima della densità di probabilità.

               Si consideri la variabile aleatoria del precedente Esempio 1.9 e si stimi la densità di
               probabilità utilizzando la definizione frequentista.

               %   stima pdf della variabile aleatoria X
               n   = 1e6;    % numero esperimenti
               u   = randn(n,1);
               X   = u + 0.1*u.^2 + 0.05*u.^3;   % generazione spazio campionario per X

               xi = linspace(-10, 10, 300); % definizione ascissa discretizzata
               pX = zeros(size(xi));
               Dx = xi(2) - xi(1);
               for k=1:length(xi)
                   pX(k) = sum(X > xi(k)-Dx/2 & X <= xi(k)+Dx/2)/n/Dx;
               end
               plot(xi,pX)
               xlabel('xi')
               ylabel('p_X(xi)')
               grid on
               xlim([-6 6])

               Figura 1.22. Codice Matlab per stima densità di probabilità.




                                                                                                            20
0.45

                                  0.4

                                 0.35

                                  0.3

                                 0.25
                         pX(ξ)

                                  0.2

                                 0.15

                                  0.1

                                 0.05

                                   0
                                    -6    -4       -2             0         2       4      6
                                                               ξ


            Figura 1.23. Densità di probabilità stimata mediante il codice riportato in Figura 1.22.

            Il codice riportato in Figura 1.22 è molto semplice perché implementa brutalmente
            l’estimatore definito dalla (1.27). Sfortunatamente, tale algoritmo è piuttosto inefficiente,
            avendo una complessità computazionale pari a n2. In alternativa, la densità di probabilità
            può essere stimata mediante la funzione riportata in Figura 1.24, che ha complessità
            computazionale pari a n.

            function [p, xi] = pdf1(x,Nx)
            % stima pdf per v.a. continua X di cui sono disponibili le realizzazioni
            % raccolte nel vettore x
            % p = pdf
            % xi = ascissa pdf
            % Nx = numero punti ascizza pdf


            xi = linspace(min(x),max(x),Nx)';                         % ascissa discretizzata pdf
            Dx = (max(x)-min(x)) / Nx;                                % ampiezza intervalli

            p = zeros(Nx,1);
            z = (x - min(x)) / (max(x) - min(x));                     % x è mappato in [0 1]
            z1 = round((Nx-1) * z)+1;                                 % numero d'ordine intervallo ascissa
            for k=1:length(x)
                p(z1(k)) = p(z1(k)) + 1;
            end
            p = p / length(x) / Dx;                                   % normalizzazione
            end

            Figura 1.24. Codice Matlab per stima distribuzione di probabilità.



1.5.5 Valore atteso
Il valore atteso (o media, o expectation) di una variabile aleatoria X, è un numero E[X] che
formalizza l'idea euristica di valore medio di un fenomeno aleatorio.
In generale il valore atteso di una variabile aleatoria discreta è dato dalla somma dei possibili valori
di tale variabile, ciascuno moltiplicato per la probabilità di essere assunto (ossia di verificarsi), cioè
è la media ponderata dei possibili risultati. Se la variabile aleatoria X può assumere i valori ξj (j =
1,2,…), il valore atteso è definito dalla relazione:
                                                           ∞
                                                E [ X ] = ∑ ξ j PX ( ξ j )                                   (1.28)
                                                           j =1




                                                                                                                21
Per una variabile aleatoria continua il valore atteso è essere definito mediante un integrale.
                                              ∞                           ∞
                                   E[ X ] =   ∫ ξ dFX ( ξ ) =             ∫ ξ p ( ξ ) dξ
                                                                                  X                (1.29)
                                              −∞                      −∞


Si osservi che la definizione di valore atteso ottenuta attraverso l’integrale di Stieltjes nella (1.29)
può essere applicata anche nei casi in cui la funzione densità di probabilità non è definita, come per
le variabili aleatorie discrete e miste.
Il valore atteso è un operatore lineare che dallo spazio delle variabili aleatorie conduce nello spazio
dei numeri reali. Esso gode quindi delle proprietà:

                                      E [ aX + bY ] = a E [ X ] + b E [Y ]                         (1.30)

dove X e Y sono variabili aleatorie, mentre a e b sono costanti reali.
Il valore atteso ha la proprietà di monotonia, cioè se una variabile aleatoria X appartiene
all’intervallo [a, b], allora anche il suo valore atteso E[X] appartiene ad [a, b].
Il valore atteso di una variabile aleatoria di cui è disponibile un insieme di realizzazioni può essere
stimato attraverso la media statistica. Ciò può essere dimostrato facilmente nel caso di variabili
aleatorie discrete (il concetto è altrettanto valido per le variabili continue) sostituendo la definizione
frequentista di probabilità nella (1.28)
                                                           ∞              nj
                                              E[ X ]       ∑ξ         j                            (1.31)
                                                           j =1               n

dove nj rappresenta il numero di volte che si è realizzato il valore ξj nel corso di n esperimenti, con
n grande a sufficienza. La (1.31) contiene la somma dei risultati possibili ξj moltiplicati per il
numero di volte che questi si sono realizzati nj. Questa somma corrisponde alla somma dei valori xk
realizzati dalla variabile aleatoria negli n esperimenti (ammesso che n sia grande a sufficienza a fin
che l’insieme dei risultati xk contenga tutti i risultati ξj aventi una probabilità di occorrenza
significativa). La (1.31) può dunque essere riscritta nella forma:

                                                           1 n
                                                  E[ X ]     ∑ xk                                  (1.32)
                                                           n k =1

Il concetto di valore atteso può essere esteso al caso di una variabile aleatoria Y legata, attraverso
una funzione deterministica, ad una variabile aleatoria X di cui è nota la densità di probabilità (cioè,
Y = f(X), con f funzione deterministica). Il valore atteso di Y è fornito dalle espressioni:
                                                                  ∞
                                  E [Y ] = E ⎡ f ( X ) ⎤ = ∑ f ( ξ j ) PX ( ξ j )
                                             ⎣         ⎦                                           (1.33)
                                                                  j =1
                                                               ∞
                                 E [Y ] = E ⎡ f ( X ) ⎤ =
                                            ⎣         ⎦        ∫ f ( ξ ) p ( ξ ) dξ   X
                                                                                                   (1.34)
                                                               −∞


per i casi di variabili aleatorie discrete e continue, rispettivamente.



                                                                                                       22
1.5.6 Momenti statistici di una variabile aleatoria
Si definisce momento statistico di ordine k (k ≥ 1) di una variabile aleatoria X il valore atteso della
potenza di ordine k di X:

                              mk [ X ] = E ⎡ X k ⎤
                                           ⎣ ⎦                        ( k = 1, 2,…)               (1.35)

Sostituendo la (1.35) nelle (1.33) e (1.34), ponendo f(X) = Xk, si ottengono le espressioni:
                                            ∞
                              m k [ X ] = ∑ ξ kj PX ( ξ j )           ( k = 1, 2,…)               (1.36)
                                           j =1
                                           ∞
                              mk [ X ] =   ∫ξ
                                                  k
                                                      p X ( ξ ) dξ    ( k = 1, 2,…)               (1.37)
                                           −∞


Il momento statistico di ordine 1, μX = m1[X], è detto valore medio (o media); il momento statistico
di ordine 2, ϕX2 = m2[X], è detto valore quadratico medio (o media quadratica).

Si definisce momento statistico centrale di ordine k (k ≥ 2) di una variabile aleatoria X la quantità:

                           μ k [ X ] = E ⎡( X − μ X ) ⎤                   ( k = 2,3,…)
                                                     k
                                                                                                  (1.38)
                                         ⎣             ⎦

Il momento statistico centrale di ordine 2, σX2 = μ2[X] è detto varianza, mentre la sua radice
quadrata, σX, è detta deviazione standard.
I momenti statistici centrali sono legati ai momenti statistici da relazioni ricorsive. Arrestandosi
all’ordine 4, risultano:

                                    μ 2 = m 2 − m1
                                                 2


                                    μ 3 = m3 − 3m2 m1 + 2 m1
                                                           3
                                                                                                  (1.39)
                                    μ 4 = m 4 − 4 m3 m1 + 6 m 2 m − 3m2
                                                                      1
                                                                             4
                                                                             1


Nel caso in cui X è una variabile aleatoria continua, la media μX = m1[X] rappresenta, da un punto di
vista grafico, la posizione (ascissa) del baricentro dell’area sottesa dalla densità di probabilità;
pertanto, la media misura la posizione della funzione di densità di probabilità rispetto all’asse reale.
La media ha la medesima dimensione (unità di misura) delle realizzazioni della variabile aleatoria.
La varianza σX2 = μ2[X] rappresenta il momento d’inerzia dell’area sottesa dalla densità di
probabilità rispetto all’asse baricentrico; pertanto, la varianza rappresenta una misura di dispersione,
intono al valore medio, delle realizzazioni di una variabile aleatoria. La deviazione standard ha la
medesima dimensione delle realizzazioni della variabile aleatoria.

In accordo con le (1.39), media, varianza e media quadratica sono legate dalla relazione:

                                                      σ2 = ϕ2 − μ 2
                                                       X    X     X                               (1.40)

Il rapporto fra deviazione standard e media è detto coefficiente di variazione:

                                                                σX
                                                        IX =                                      (1.41)
                                                                μX

                                                                                                         23
Il momento centrale di ordine 3, adimensionalizzato con la deviazione standard è detto skewness (o
coefficiente di asimmetria). Il momento centrale di ordine 4 adimensionalizzato con la deviazione
standard è detto kurtosis (o coefficiente di piattezza).

                                           μ3 [ X ]                            μ4 [ X ]
                             skw [ X ] =            ;           kurt [ X ] =                     (1.42)
                                            σ3 X                                σ4 X


Lo skewness è generalmente indicato con il simbolo γ3. Frequentemente, al valore del kurtosis
definito dalla (1.42) si sottrae 3; in questo caso modo si ottiene un valore detto coefficiente di
eccesso (o eccesso di kurtosis), generalmente indicato con il simbolo γ4.

                                        μ3 [ X ]                             μ4 [ X ]
                           γ3 [ X ] =            ;              γ4 [ X ] =            −3         (1.43)
                                         σ3 X                                 σ4 X


La Figura 1.25 mostra l’effetto della media e della deviazione standard sulla forma della densità di
probabilità. La media determina una traslazione della curva lungo l’asse delle ascisse, mentre la
deviazione standard controlla l’ampiezza della curva (alla quale corrisponde un abbassamento per
conservare l’area unitaria).
La Figura 1.26 mostra l’effetto di skewness e coefficiente di eccesso sulla forma della densità di
probabilità. La condizione γ3 = 0 corrisponde ad una funzione simmetrica rispetto alla media; la
condizione γ3 > 0 rappresenta la situazione in cui la densità di probabilità ha la coda di destra più
alta della coda di sinistra. Una variabile aleatoria avente γ4 > 0 è detta super-kurtica e ha densità di
probabilità alta sulla moda (ascissa corrispondente al picco) e sulle code; una variabile aleatoria
avente γ4 < 0 è detta sub-kurtica e ha densità di probabilità bassa sulla moda e sulle code; il caso
γ4=0 corrisponde alla distribuzione Gaussiana che verrà descritta nel seguito. Per lo studio delle
code della distribuzione è generalmente conveniente diagrammare le funzioni di densità di
probabilità con ordinata in scala logaritmica, come mostrato in Figura 1.27 per i casi già discussi in
Figura 1.26.
Una variabile aleatoria è detta standardizzata se è centrata rispetto alla sua media e scalata in modo
da avere varianza unitaria:

                                                     ˆ X − μX
                                                     X =                                         (1.44)
                                                         σX

da cui ovviamente risulta μ Xˆ = 0 e σ Xˆ = 1 .




                                                                                                     24
0.4                                                                                                                                        0.4

                                                                                    μX = 0                             μY = 1                                                                                   μX = 0
                               0.35                                                                                                                                             0.35
                                                                                    σX = 1                             σY = 1                                                                                   σX = 1
                                      0.3                                                                                                                                        0.3

                               0.25                                                                                                                                             0.25
    p (ξ), p (η)




                                                                                                                                                 p (ξ), p (η)
            Y




                                                                                                                                                             Y
                                      0.2                                                                                                                                        0.2
            X




                                                                                                                                                             X
                               0.15                                                                                                                                             0.15
                                                                                                                                                                                                                                                     μY = 0
                                      0.1                                                                                                                                        0.1
                                                                                                                                                                                                                                                     σY = 2
                               0.05                                                                                                                                             0.05

                                                     0                                                                                                                                   0
                                                      -4             -3        -2         -1          0         1        2        3    4                                                  -6         -4           -2              0             2             4            6
                                                                                                    ξ, η                                                                                                                        ξ, η
                                                                                                                                           (a)                                                                                                                                 (b)
Figura 1.25. Densità di probabilità: influenza della media (a) e deviazione standard (b).

                                    0.45                                                                                                                                         0.7
                                                                               γ3 = 0.5                             γ3 = -0.5
                                               0.4
                                                                               γ4 = 0                               γ4 = 0                                                       0.6                             γ3 = 0
                                                                                                                                                                                                                 γ4 = 5
                                    0.35
                                                                                                                         γ3 = 0                                                  0.5                                                        γ3 = 0
                                               0.3
                                                                                                                                                                                                                                            γ4 = 0
         p (ξ), p (η), p (ζ)




                                                                                                                                                          p (ξ), p (η), p (ζ)



                                                                                                                         γ4 = 0
                    Z




                                                                                                                                                                       Z




                                    0.25                                                                                                                                         0.4
                    Y




                                                                                                                                                                       Y




                                               0.2                                                                                                                               0.3                                                                     γ3 = 0
                                                                                                                                                                                                                                                         γ4 = -0.5
                    X




                                                                                                                                                                       X




                                    0.15
                                                                                                                                                                                 0.2
                                               0.1
                                                                                                                                                                                 0.1
                                    0.05

                                                      0                                                                                                                                  0
                                                       -4            -3         -2        -1           0        1        2        3    4                                                  -4    -3         -2          -1        0          1        2            3       4
                                                                                                    ξ, η, ζ                                                                                                                   ξ, η, ζ
                                                                                                                                           (a)                                                                                                                                 (b)
Figura 1.26. Densità di probabilità: influenza skewness (a) e coefficiente di eccesso (b).
                                                            0                                                                                                                        0
                                                      10                                                                                                                        10




                                                            -1                                                                                                                       -1
                                                      10                                                                                                                        10
                               p (ξ), p (η), p (ζ)




                                                                                                                                                 p (ξ), p (η), p (ζ)
                                            Z




                                                                                                                                                              Z
                                            Y




                                                                                                                                                              Y




                                                            -2                                                                                                                       -2
                                            X




                                                                                                                                                              X




                                                      10                                                                                                                        10




                                                            -3                                                                                                                       -3
                                                      10                                                                                                                        10
                                                                -4        -3         -2        -1        0      1        2        3    4                                                 -4    -3         -2      -1           0        1       2         3           4
                                                                                                     ξ , η, ζ
                                                                                                                                           (a)                                                                              ξ, η, ζ
                                                                                                                                                                                                                                                                          (b)
Figura 1.27. Densità di probabilità (scala logaritmica): influenza skewness (a) e coefficiente di eccesso (b).

I momenti statistici della variabile aleatoria X possono essere stimati a partire da un insieme di sue
realizzazioni xj (j = 1,…,n) attraverso un’espressione analoga alla (1.32)

                                                                                                                                                                                          1 n k
                                                                                                                             mk [ X ] = E ⎡ X k ⎤
                                                                                                                                          ⎣ ⎦                                              ∑ xj
                                                                                                                                                                                          n j =1
                                                                                                                                                                                                                                                                               (1.45)




                                                                                                                                                                                                                                                                                     25
1.5.7 Funzione caratteristica di una variabile aleatoria continua
Si definisce funzione caratteristica (o funzione generatrice dei momenti) della variabile aleatoria X,
la funzione a valori complessi:
                                                                   ∞
                               Φ X ( θ ) = E ⎡ exp ( i θX ) ⎤ = ∫ ei θξ p X ( ξ ) dξ
                                             ⎣              ⎦                                        (1.46)
                                                                   −∞


dove l’argomento θ è definito in ℝ. In base alla (1.46), la funzione caratteristica è la trasformata di
Fourier della densità di probabilità, pertanto essa determina completamente la struttura
probabilistica di X.

La funzione caratteristica può essere rappresentata attraverso la serie di McLaurin:
                                                            ∞
                                                                 1 dk Φ
                                     Φ X (θ) = Φ X (0) + ∑                          θk               (1.47)
                                                            k =1 k ! d θ
                                                                         k
                                                                             θ= 0


Operando per derivazione sulla (1.46), i termini della (1.47) risultano nella forma:

                      Φ X ( 0) = 1
                      dk Φ                                                                           (1.48)
                              = ik E ⎡ X k ⎤ = i k m k [ X ]
                                     ⎣ ⎦                                             ( k = 1, 2,…)
                      d θ θ=0
                         k




che, sostituendo nella (1.47), forniscono un’espressione della funzione caratteristica in termini di
momenti statistici.
                                                        ∞
                                                            ik
                                        Φ X ( θ) = 1 + ∑        mk [ X ] θk                          (1.49)
                                                       k =1 k !


La (1.49) dimostra che, conoscendo i momenti statistici fino all’ordine infinito, è possibile
rappresentare la funzione caratteristica e quindi la densità di probabilità. In questo senso, la
conoscenza dei momenti statistici è equivalente alla conoscenza della distribuzione di probabilità,
quindi determina completamente la struttura probabilistica della variabile aleatoria.

1.6 Modelli di variabili aleatorie
Nel presente capitolo si introducono alcuni modelli probabilistici rilevanti per lo studio della
meccanica delle vibrazioni e dell’affidabilità strutturale. Il modello normale (o Gaussiano) è
descritto con maggiore enfasi in virtù delle sue caratteristiche probabilistiche e della sua importanza
applicativa.
1.6.1 Distribuzione normale (o Gaussiana)
Una variabile aleatoria X ha distribuzione normale (o Gaussaina) se la sua densità di probabilità è
nella forma:

                                             1        ⎧ 1 ⎛ ξ − μ ⎞2 ⎫
                                                      ⎪              ⎪
                                 pX ( ξ ) =       exp ⎨ − ⎜      X
                                                                   ⎟ ⎬                               (1.50)
                                            2πσ X     ⎪ 2 σX ⎠ ⎭
                                                      ⎩ ⎝            ⎪

Una variabile aleatoria X, con distribuzione normale μX e varianza σX2 è formalmente definita
attraverso l’espressione X = N(μX, σX2). La Figura 1.28 mostra la densità di probabilità di una

                                                                                                        26
variabile aleatoria normale standardizzata; nel piano semilogaritmico la curva è costituita da una
parabola.
                                                                                     0
               0.4                                                                  10


              0.35

                                                                                     -1
               0.3                                                                  10


              0.25
      pX(ξ)




                                                                            pX(ξ)
                                                                                     -2
               0.2                                                                  10


              0.15

                                                                                     -3
               0.1                                                                  10


              0.05

                                                                                     -4
                0                                                                   10
                 -4   -3   -2   -1     0    1       2     3       4                      -4   -3   -2   -1   0   1   2   3   4
                                       ξ
                                                                      (a)                                    ξ
                                                                                                                                 (b)
Figura 1.28. Densità di probabilità normale: ordinata in scala decimale (a) e logaritmica (b).

La distribuzione di probabilità è data dall’espressione:

                                                   1                  ξ   ⎧ 1 ⎛ α − μ ⎞2 ⎫
                                                                          ⎪              ⎪
                                       FX ( ξ ) =                 ∫−∞ exp ⎨− 2 ⎜ σ X X ⎟ ⎬ dα                                    (1.51)
                                                  2πσ X                   ⎩ ⎝
                                                                          ⎪            ⎠ ⎭
                                                                                         ⎪

che può essere scritta in forma analitica attraverso la funzione di errore

                                                              1⎡        ⎛ ξ − μ X ⎞⎤
                                                    FX ( ξ ) = ⎢1 + erf ⎜         ⎟⎥                                             (1.52)
                                                              2⎣        ⎝ σ X ⎠⎦

Per ispezione della (1.50) è immediato verificare che se Y = aX + b, con a e b costanti
deterministiche e X = N(μX, σX2), allora Y = N(aμX + b, a2σX2).
La funzione caratteristica di una variabile Gaussiana può essere ottenuta calcolando la trasformata
di Fourier della (1.50) e risulta:

                                                                  ⎛            1       ⎞
                                                  Φ X ( θ ) = exp ⎜ − i μ X θ − σ 2 θ2 ⎟
                                                                                  X
                                                                                                                                 (1.53)
                                                                  ⎝            2       ⎠

Se X è una variabile aleatoria Gaussiana standardizzata, X = N(0,1), allora densità di probabilità e
distribuzione di probabilità risultano:

                                                                1         ⎛ 1 ⎞
                                                     pX ( ξ ) =     exp ⎜ − ξ 2 ⎟                                                (1.54)
                                                                2π        ⎝ 2 ⎠
                                                    1    ξ       ⎛ α ⎞2
                                                                               1
                                     FX ( ξ ) =        ∫−∞ exp ⎜ − 2 ⎟ dα = 2 ⎡1 + erf ( ξ )⎤
                                                                                 ⎣          ⎦                                    (1.55)
                                                    2π           ⎝      ⎠
                                                                      ⎛ 1 ⎞
                                                      Φ X ( θ ) = exp ⎜ − θ 2 ⎟                                                  (1.56)
                                                                      ⎝ 2 ⎠

Si osserva che la funzione caratteristica di una variabile Gaussiana standardizzata è formalmente
identica alla corrispondente funzione densità di probabilità.


                                                                                                                                       27
1.6.2 Distribuzione uniforme
Una variabile aleatoria continua ha distribuzione uniforme se la sua densità di probabilità è espresso
nella forma:

                                   ⎧1 / ( b − a )             per a < ξ < b
                          pX (ξ) = ⎨                                                                (a < b)       (1.57)
                                   ⎩0                         altrove

Il modello uniforme è utilizzato quando una variabile aleatoria può assumere valori equiprobabili in
un intervallo chiuso [a, b]. La funzione di distribuzione può essere ottenuta dalla (1.57) per
integrazione e risulta:

                                               ⎧0                                   per ξ < a
                                               ⎪
                                    FX ( ξ ) = ⎨( ξ − a ) / ( b − a )               per a ≤ ξ ≤ b                 (1.58)
                                               ⎪1                                   per ξ > b
                                               ⎩

La media e la varianza di una variabile aleatoria uniforme risultano:

                                                      μX = ( a + b) / 2                                           (1.59)
                                                     σ2 = ( b − a ) /12
                                                                        2
                                                      X
                                                                                                                  (1.60)
    pX(ξ)




                                                                    FX(ξ)




            1/(b-a)                                                         1




                 0                                                          0
                      0      a                b                                 0               a             b
                                     ξ                                                                 ξ


Figura 1.29. Densità e distribuzione di probabilità di una variabile aleatoria uniforme.

1.6.3 Modello log-normale
Una variabile aleatoria X è della log-normale se Y = log(X) ha distribuzione normale. La densità di
probabilità di una variabile log-normale è espressa nella forma:

                                                      1       ⎛ ( log ξ − m ) 2 ⎞
                                         pX ( ξ ) =       exp ⎜ −               ⎟                                 (1.61)
                                                    ξ 2πs     ⎜      2s 2       ⎟
                                                              ⎝                 ⎠

dove m e s sono i parametri della distribuzione (e rappresentano, rispettivamente, la media e la
deviazione standard di Y). La media e la varianza di X risultano:




                                                                                                                     28
⎛    s2 ⎞
                                                          μ X = exp ⎜ m + ⎟
                                                                    ⎝    2⎠                                                                              (1.62)
                                                          σ2 = exp ( 2m + s 2 ) exp ( s 2 − 1)
                                                           X



              0.25                                                                         1

                                                                                          0.9

               0.2                                                                        0.8

                                                                                          0.7

              0.15                                                                        0.6




                                                                                  FX(ξ)
     pX(ξ)




                                                                                          0.5

               0.1                                                                        0.4

                                                                                          0.3

              0.05                                                                        0.2

                                                                                          0.1

                0                                                                          0
                     0   2     4    6    8   10    12   14    16   18    20                     0   2     4    6    8   10    12   14    16   18    20
                                             ξ                                                                          ξ



Figura 1.30. Densità e distribuzione di probabilità di una variabile aleatoria log-normale (m = 1, s = 1).

1.6.4 Modello di Rayleigh
Una variabile aleatoria X è detta di Rayleigh se ha densità di probabilità nella forma:

                                                                              ξ      ⎛ ξ2 ⎞
                                                               pX ( ξ ) =        exp ⎜ − 2 ⎟                                                             (1.63)
                                                                              b2     ⎝ 2b ⎠

dove b è il parametro della distribuzione.

               0.7                                                                         1

                                                                                          0.9
               0.6
                                                                                          0.8

               0.5                                                                        0.7

                                                                                          0.6
               0.4
                                                                                  FX(ξ)
      pX(ξ)




                                                                                          0.5
               0.3
                                                                                          0.4

               0.2                                                                        0.3

                                                                                          0.2
               0.1
                                                                                          0.1

                0                                                                          0
                     0   0.5   1   1.5   2   2.5   3    3.5   4    4.5   5                      0   0.5   1   1.5   2   2.5   3    3.5   4    4.5   5
                                             ξ                                                                          ξ



Figura 1.31. Densità e distribuzione di probabilità di una variabile aleatoria di Rayleigh (b = 1).

1.6.5 Modello di binomiale
Si consideri una successione di variabili aleatorie discrete, Xk (k = 1,2,…), aventi spazio
campionario Ω = {0, 1}. Si assuma che gli eventi legati a ogni possibile coppia di variabili aleatorie
Xh e Xk (h,k = 1,2,…; h≠k) siano statisticamente indipendenti; sia inoltre P(Xk = 1) = p.
La successione Xk è detta sequenza di Bernoulli. La funzione di probabilità di una variabile aleatoria
di Bernoulli risulta dunque:



                                                                                                                                                            29
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4
Teoria probabilità 4

Weitere ähnliche Inhalte

Andere mochten auch

Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Sergio Pinna
 
Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Sergio Pinna
 
Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Sergio Pinna
 
Combinatoria e probabilità
Combinatoria e probabilitàCombinatoria e probabilità
Combinatoria e probabilitàLuca Gervasio
 
Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Sergio Pinna
 
Le distribuzioni di probabilità
Le distribuzioni di probabilitàLe distribuzioni di probabilità
Le distribuzioni di probabilitàVispo Srl
 
Inferenza statistica
Inferenza statisticaInferenza statistica
Inferenza statisticaVispo Srl
 
Distribuzioni di Probabilita e Variabili Casuali
Distribuzioni di Probabilita e Variabili CasualiDistribuzioni di Probabilita e Variabili Casuali
Distribuzioni di Probabilita e Variabili Casualimaxbt
 
Probabilità
ProbabilitàProbabilità
ProbabilitàVispo Srl
 
Statistica probabilità blog
Statistica probabilità blogStatistica probabilità blog
Statistica probabilità blogGianni Locatelli
 
8.7 il teorema del limite centrale e la legge dei grandi numeri
8.7   il teorema del limite centrale e la legge dei grandi numeri8.7   il teorema del limite centrale e la legge dei grandi numeri
8.7 il teorema del limite centrale e la legge dei grandi numeriRiccardo Rigon
 
8.2 probabilità - assiomi
8.2   probabilità - assiomi8.2   probabilità - assiomi
8.2 probabilità - assiomiRiccardo Rigon
 
8.1 probabilita-introduzione
8.1   probabilita-introduzione8.1   probabilita-introduzione
8.1 probabilita-introduzioneRiccardo Rigon
 
8 probability overview-it
8   probability overview-it8   probability overview-it
8 probability overview-itRiccardo Rigon
 

Andere mochten auch (16)

Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2
 
Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9
 
Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7
 
Aqfa probabilita
Aqfa   probabilitaAqfa   probabilita
Aqfa probabilita
 
Combinatoria e probabilità
Combinatoria e probabilitàCombinatoria e probabilità
Combinatoria e probabilità
 
Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4
 
La mia probabilità
La mia probabilitàLa mia probabilità
La mia probabilità
 
Le distribuzioni di probabilità
Le distribuzioni di probabilitàLe distribuzioni di probabilità
Le distribuzioni di probabilità
 
Inferenza statistica
Inferenza statisticaInferenza statistica
Inferenza statistica
 
Distribuzioni di Probabilita e Variabili Casuali
Distribuzioni di Probabilita e Variabili CasualiDistribuzioni di Probabilita e Variabili Casuali
Distribuzioni di Probabilita e Variabili Casuali
 
Probabilità
ProbabilitàProbabilità
Probabilità
 
Statistica probabilità blog
Statistica probabilità blogStatistica probabilità blog
Statistica probabilità blog
 
8.7 il teorema del limite centrale e la legge dei grandi numeri
8.7   il teorema del limite centrale e la legge dei grandi numeri8.7   il teorema del limite centrale e la legge dei grandi numeri
8.7 il teorema del limite centrale e la legge dei grandi numeri
 
8.2 probabilità - assiomi
8.2   probabilità - assiomi8.2   probabilità - assiomi
8.2 probabilità - assiomi
 
8.1 probabilita-introduzione
8.1   probabilita-introduzione8.1   probabilita-introduzione
8.1 probabilita-introduzione
 
8 probability overview-it
8   probability overview-it8   probability overview-it
8 probability overview-it
 

Ähnlich wie Teoria probabilità 4

Dispense Probabilità (1.3)
Dispense Probabilità (1.3)Dispense Probabilità (1.3)
Dispense Probabilità (1.3)Luigi Carassale
 
Pattern Recognition Lecture Notes
Pattern Recognition Lecture NotesPattern Recognition Lecture Notes
Pattern Recognition Lecture NotesRobertoMelfi
 
Risorse infrastrutturali area vasta di Torremaggiore
Risorse infrastrutturali area vasta di TorremaggioreRisorse infrastrutturali area vasta di Torremaggiore
Risorse infrastrutturali area vasta di Torremaggioregifanta
 
Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...
Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...
Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...Myrteza Kertusha
 
Validation and analysis of mobility models
Validation and analysis of mobility modelsValidation and analysis of mobility models
Validation and analysis of mobility modelsUmberto Griffo
 
Dispensa Interazione Uomo Macchina
Dispensa Interazione Uomo MacchinaDispensa Interazione Uomo Macchina
Dispensa Interazione Uomo MacchinaStefano Bussolon
 
Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D
Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D
Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D Andrea Bidinost
 
Il mio libro - My book (intro)
Il mio libro - My book (intro)Il mio libro - My book (intro)
Il mio libro - My book (intro)pls3d
 
Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...
Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...
Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...paoloUser
 
Abstract Domenico Brigante
Abstract   Domenico BriganteAbstract   Domenico Brigante
Abstract Domenico Brigantedox82
 
Linee guida AIOM sul carcinoma prostatico
Linee guida AIOM sul carcinoma prostaticoLinee guida AIOM sul carcinoma prostatico
Linee guida AIOM sul carcinoma prostaticoMerqurio
 
GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007
GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007
GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007Gabriele Filosofi
 
Progetto Tecnologia Meccanica II
Progetto Tecnologia Meccanica IIProgetto Tecnologia Meccanica II
Progetto Tecnologia Meccanica IIPieroEro
 
Sintesi non tecnica sia
Sintesi non tecnica   siaSintesi non tecnica   sia
Sintesi non tecnica siaridivita
 
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...GabrieleGandossi
 
Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...
Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...
Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...fcecutti
 

Ähnlich wie Teoria probabilità 4 (20)

Dispense Probabilità (1.3)
Dispense Probabilità (1.3)Dispense Probabilità (1.3)
Dispense Probabilità (1.3)
 
Pattern Recognition Lecture Notes
Pattern Recognition Lecture NotesPattern Recognition Lecture Notes
Pattern Recognition Lecture Notes
 
Risorse infrastrutturali area vasta di Torremaggiore
Risorse infrastrutturali area vasta di TorremaggioreRisorse infrastrutturali area vasta di Torremaggiore
Risorse infrastrutturali area vasta di Torremaggiore
 
Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...
Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...
Progetto e realizzazione di un kernel linux per il controllo dinamico degli s...
 
Validation and analysis of mobility models
Validation and analysis of mobility modelsValidation and analysis of mobility models
Validation and analysis of mobility models
 
Dispensa Interazione Uomo Macchina
Dispensa Interazione Uomo MacchinaDispensa Interazione Uomo Macchina
Dispensa Interazione Uomo Macchina
 
Tesi
TesiTesi
Tesi
 
Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D
Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D
Sviluppo e confronto di tecniche di stima della traiettoria di sensori 3D
 
Il mio libro - My book (intro)
Il mio libro - My book (intro)Il mio libro - My book (intro)
Il mio libro - My book (intro)
 
a4_centrata
a4_centrataa4_centrata
a4_centrata
 
My Thesis
My ThesisMy Thesis
My Thesis
 
Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...
Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...
Valutazione di descrittori per il rilevamento automatico di nuclei cellulari ...
 
Tesi Paolo Menegatti
Tesi Paolo MenegattiTesi Paolo Menegatti
Tesi Paolo Menegatti
 
Abstract Domenico Brigante
Abstract   Domenico BriganteAbstract   Domenico Brigante
Abstract Domenico Brigante
 
Linee guida AIOM sul carcinoma prostatico
Linee guida AIOM sul carcinoma prostaticoLinee guida AIOM sul carcinoma prostatico
Linee guida AIOM sul carcinoma prostatico
 
GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007
GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007
GFilosofi_brain-mind-and-behavior_a-neuroscientific-approach_2007
 
Progetto Tecnologia Meccanica II
Progetto Tecnologia Meccanica IIProgetto Tecnologia Meccanica II
Progetto Tecnologia Meccanica II
 
Sintesi non tecnica sia
Sintesi non tecnica   siaSintesi non tecnica   sia
Sintesi non tecnica sia
 
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
 
Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...
Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...
Tecniche di Test-driven development in ambito sicurezza informatica e rilevaz...
 

Teoria probabilità 4

  • 1. Appunti del Corso DINAMICA DELLE STRUTTURE TEORIA DELLA PROBABILITÀ DICAT – Università di Genova Versione: 1.4 31.03.2011 Luigi Carassale 1
  • 2. Sommario 1 Teoria della Probabilità ................................................................................................................ 5 1.1 Eventi e spazio campionario.................................................................................................. 5 1.2 Probabilità ............................................................................................................................. 6 1.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812) ........................................... 6 1.2.2 Definizione empirica (frequentista, Von Mises 1920) ................................................... 7 1.2.3 Definizione assiomatica (Kolmogorov 1933) ................................................................ 8 1.3 Teoremi classici della probabilità.......................................................................................... 9 1.3.1 Teorema dell’evento complementare ............................................................................. 9 1.3.2 Teorema dell’evento totale........................................................................................... 10 1.4 Probabilità condizionata e composta ................................................................................... 11 1.5 Variabili Aleatorie ............................................................................................................... 14 1.5.1 Definizione ................................................................................................................... 14 1.5.2 Distribuzione di probabilità ......................................................................................... 14 1.5.3 Funzione di probabilità (di una variabile aleatoria discreta)........................................ 16 1.5.4 Densità di probabilità (di una variabile aleatoria continua) ......................................... 18 1.5.5 Valore atteso ................................................................................................................ 21 1.5.6 Momenti statistici di una variabile aleatoria ................................................................ 23 1.5.7 Funzione caratteristica di una variabile aleatoria continua .......................................... 26 1.6 Modelli di variabili aleatorie ............................................................................................... 26 1.6.1 Distribuzione normale (o Gaussiana) ........................................................................... 26 1.6.2 Distribuzione uniforme ................................................................................................ 28 1.6.3 Modello log-normale.................................................................................................... 28 1.6.4 Modello di Rayleigh..................................................................................................... 29 1.6.5 Modello di binomiale ................................................................................................... 29 1.6.6 Modello di Poisson....................................................................................................... 32 1.7 Rappresentazione della relazione probabilistica fra due grandezze .................................... 34 1.7.1 Distribuzione congiunta di probabilità......................................................................... 34 1.7.2 Densità congiunta di probabilità .................................................................................. 34 1.7.3 Variabili aleatorie statisticamente indipendenti ........................................................... 36 2
  • 3. 1.7.4 Valore atteso ................................................................................................................ 37 1.7.5 Correlazione e covarianza ............................................................................................ 37 1.7.6 Modello normale bi-variato ......................................................................................... 39 1.7.7 Distribuzione condizionata di probabilità di una variabile aleatoria ........................... 40 1.8 Proprietà delle variabili aleatorie Gaussiane ....................................................................... 41 1.8.1 Indipendenza statistica di variabili non-correlate ........................................................ 41 1.8.2 Linearità dello spazio delle variabili Gaussiane .......................................................... 41 1.8.3 Teorema del limite centrale.......................................................................................... 42 2 Vettori Aleatori .......................................................................................................................... 44 2.1 Definizione .......................................................................................................................... 44 2.2 Momenti statistici ................................................................................................................ 44 2.3 Modello normale (Gaussiano) ............................................................................................. 45 2.4 Rappresentazione di vettori aleatori .................................................................................... 46 2.4.1 Analisi a componenti principali (PCA)........................................................................ 46 2.5 Simulazione di vettori Gaussiani......................................................................................... 47 3 Processi aleatori ......................................................................................................................... 49 3.1 Definizioni ........................................................................................................................... 49 3.1.1 Medie statistiche del primo ordine ............................................................................... 50 3.1.2 Medie statistiche del secondo ordine ........................................................................... 51 3.2 Processi aleatori stazionari .................................................................................................. 51 3.2.1 Medie temporali di una funzione campione ................................................................. 54 3.2.2 Processi aleatori ergodici ............................................................................................. 55 3.2.3 Rappresentazione nel dominio della frequenza di processi stazionari ......................... 56 3.3 Rappresentazione congiunta di una coppia di processi aleatori .......................................... 59 3.3.1 Medie statistiche congiunte del secondo ordine .......................................................... 59 3.3.2 Densità di Potenza spettrale incrociata ........................................................................ 61 3.3.3 Funzione di coerenza ................................................................................................... 61 3.4 Trasformazioni lineari di processi stazionari ...................................................................... 62 3.4.1 Risposta nel dominio del tempo di operatori lineari con eccitazione stazionaria ........ 64 3.4.2 Derivazione di processi stazionari ............................................................................... 64 3
  • 4. 3.5 Momenti spettrali ................................................................................................................ 65 3.6 Modelli di processi stazionari.............................................................................................. 67 3.6.1 Processo armonico ....................................................................................................... 67 3.6.2 Processo a banda stretta ............................................................................................... 68 3.6.3 Processo a banda estesa................................................................................................ 69 3.6.4 White random process .................................................................................................. 70 4
  • 5. 1 Teoria della Probabilità Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diverse discipline scientifiche. I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò il motivo per cui, lanciando tre dadi, il 10 sia più probabile del 9 nonostante che entrambi i risultati si ottengano da un uguale numero di combinazioni.1 La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665).2 Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ, il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema del limite centrale. La teoria della probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina. 1.1 Eventi e spazio campionario In teoria della probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Un ruolo centrale in questo contesto è svolto dal concetto di evento. Si consideri una singola osservazione o misura di un fenomeno (es. la tensione di snervamento in un provino metallico soggetto alla prova di trazione, il numero di studenti in un aula, la velocità del vento in un determinato luogo e in un dato istante). Se il fenomeno in esame è deterministico, il risultato dell’osservazione (o dell’esperimento) può essere predetto con esattezza. Se il fenomeno è aleatorio, il risultato dell’osservazione non è noto a priori; tuttavia è possibile identificare un insieme Ω, che contiene tutti i possibili risultati dell’esperimento. L’insieme Ω è chiamato spazio campionario; gli elementi ω di Ω sono detti punti campionari. Si definisce evento, E, un insieme di punti campionari (e quindi di risultati possibili dell’osservazione). Lo spazio campionario Ω contiene tutti i possibili punti campionari, quindi gli eventi sono sottoinsiemi dello spazio campionario. Si definisce evento elementare l’evento che contiene un solo punto campionario; evento certo, quello che contiene tutti i punti campionari (cioè coincide con lo spazio campionario); evento impossibile, quello che non contiene punti campionari. Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che 1 Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 in 27 modi (6+6+3+6+3+3), il 9 in 25 modi (6+6+3+3+6+1). 2 Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado era equivalente ad ottenere almeno un doppio 6 in 24 lanci. Tuttavia, visto che giocando secondo tale convinzione invece di vincere perdeva, scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica. Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista. 5
  • 6. dell'evento B. Se A∩B = ∅ i due eventi A e B vengono detti mutuamente esclusivi o incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, ΩA, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare). Esempio 1.1. Eventi. Nel lancio di un dado, i possibili risultati sono i numeri 1, 2, … 6. Ognuno è un punto campionario ω dello spazio campionario Ω = {1, 2, 3, 4, 5, 6}. Si considerino i seguenti eventi: A = “occorrenza di un numero pari” = {2,4, 6}; B = “occorrenza di un numero dispari” = {1, 3, 5}; C = “occorrenza del numero 2” = {2}; D = “occorrenza del numero 7” = ∅; E = A∪B = Ω; A e B sono eventi incompatibili; C è un evento elementare, D è un evento impossibile, E è l’evento certo. 1.2 Probabilità Esistono diverse definizioni di probabilità. Nel seguito si forniranno 3 definizioni che hanno rilievo per la loro importanza storica o utilità pratica. 1.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812) Secondo la prima definizione di probabilità, per questo detta classica, la probabilità P(A) di occorrenza dell’evento A è definita come: NA P ( A) = (1.1) N dove N è il numero di risultati possibili (assumendo che siano equiprobabili) e NA è il numero di risultati favorevoli all’evento A. Esempio 1.2. Definizione classica di probabilità Lancio di una moneta Ω = {T, C}; sia A:=T, allora P(A) = 1/2; Lancio di un dado Ω = {1, 2,…,6}; sia A = {1, 2}, allora P(A) = 2/6 = 1/3; Estrazione numero roulette: Ω = {0, 1,…,90}; sia A = “estrazione numero dispari” = {1, 3,…,89}, allora P(A) = 45/91. La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti: • si applica soltanto a fenomeni con risultati equiprobabili; • presuppone un numero finito di risultati possibili; • la definizione è circolare perché utilizza la nozione di probabilità (eventi equiprobabili) per definire la probabilità stessa. 6
  • 7. 1.2.2 Definizione empirica (frequentista, Von Mises 1920) Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti. Si consideri un esperimento che possa essere ripetuto un numero infinito di volte e si assuma che un evento E si sia verificato un numero nE di volte durante l’esecuzione di n esperimenti. La probabilità di occorrenza dell’evento E si definisce come il limite per n che tende a infinito della sua frequenza relative nE/n: nE P ( E ) = lim (1.2) n→∞ n Esempio 1.3. Definizione frequentista di probabilità: convergenza alla definizione classica Si simuli il lancio di un dado e si verifichi mediante la definizione (1.2) che l’evento A = {1, 2} ha probabilità 1/3. Il codice Matlab riportato in Figura 1.1 genera una successione di numeri casuali, x, mediante il comando rand. I valori di x così generati sono compresi nell’intervallo chiuso [2-53, 1-2-53]. A partire da x, il codice genera numeri interi, y, casuali equiprobabili compresi fra 1 e 6. La Figura 1.2 mostra i primi 10 risultati di una sequenza casuale. La Figura 1.3 mostra la convergenza della probabilità calcolata mediante la definizione frequentista al valore ottenuto dalla definizione classica (1/3). Si osserva che per avere una buona corrispondenza fra i due valori sono necessari circa 104 esperimenti. % Convergenza definizione frequentista probabilità % Esempio: lancio di un dado % n = numero esperimenti % A = evento % y = risultati esperimenti % fA = elenco eventi favorevoli (1) e sfavorevoli (0) % PA = probabilità di occorrenza evento A n = 1e6; x = rand(n,1); y = round(6 * x + 0.5); A = [1 2]; fA = zeros(n,1); for k=1:n fA(k) = sum(A==y(k)); end PA = cumsum(fA) ./ (1:n)'; figure(1) plot(1:10,y(1:10),'xr') ylim([0 7]) grid on xlabel('j') ylabel('y_j') figure(2) semilogx(1:n,PA, 1:n, ones(n,1)*length(A)/6,'r--') xlabel('n') ylabel('n_E/n') grid on set(gca,'xMinorGrid','off') Figura 1.1. Codice Matlab per verifica convergenza definizione frequentista di probabilità. 7
  • 8. 7 6 5 4 yj 3 2 1 0 1 2 3 4 5 6 7 8 9 10 j Figura 1.2. Lancio di un dado: punti campionari corrispondenti a 10 esperimenti. 0.45 0.4 0.35 0.3 0.25 nE/n 0.2 0.15 0.1 0.05 0 0 1 2 3 4 5 6 10 10 10 10 10 10 10 n Figura 1.3. Convergenza della frequenza relative al valore della probabilità definita mediante la (1.1). La definizione frequentista, come quella classica, è operativa, cioè consente di calcolare praticamente la probabilità di eventi in molte circostanze; inoltre, è coerente con quanto fornito dalla definizione classica nel caso di eventi equiprobabili. Tuttavia è necessario osservare: • il "limite" delle frequenze relative non corrisponde all'analogo concetto matematico; ad esempio, data una successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε per ogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non è sempre calcolabile; • non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che vi sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi simili non è possibile immaginare esperimenti ripetibili all'infinito. 1.2.3 Definizione assiomatica (Kolmogorov 1933) L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità). Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come calcolare la probabilità. Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi. 8
  • 9. L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, e ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioè come una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delle probabilità di tutti gli eventi sia pari a 1. Si assuma che ogni evento nello spazio campionari Ω sia associato a un numero reale P(E), chiamato probabilità di E. Questo numero soddisfa le tre seguenti condizioni: 1. La probabilità è un numero non-negativo: P(E) ≥ 0; 2. La probabilità dell’evento certo è unitaria: P(Ω) = 1; 3. Dati due eventi A e B definiti come mutuamente esclusivi, allora P(A∪B) = P(A) + P(B). Si osservi che, come conseguenza degli assiomi precedenti, necessariamente, P(E) ≤ 1. I tre assiomi introdotti da Kolmogorov sono coerenti con la definizione empirica fornita da Von Mises e con la definizione classica enunciata da Laplace. 1.3 Teoremi classici della probabilità Dagli assiomi precedenti si ricavano i teoremi di seguito riportati. 1.3.1 Teorema dell’evento complementare Si definisce evento complementare Ec = ΩE dell’evento E, l’evento che comprende tutti i punti campionari di Ω non compresi in E (Figura 1.4). Figura 1.4. Evento complementare. Un evento E e il suo complementare Ec sono mutuamente esclusivi, cioè la loro intersezione fornisce l’evento vuoto, mentre la loro unione genera l’evento certo E ∩ Ec = 0 (1.3) E ∪ Ec = Ω Applicando alla (1.3) l’Assioma 3 si deduce: P ( Ec ) = 1− P ( E ) (1.4) In particolare, essendo Ωc = ∅, l’applicazione della (1.4) dimostra che l’evento vuoto ha probabilità di occorrenza zero (P(0) = 0). La (1.4) e l’assioma 1 dimostrano che P(E) ≤ 1. 9
  • 10. Esempio 1.4. Probabilità dell’evento complementare Sia P = 10-6 la probabilità di collasso di una struttura in un anno. La probabilità che tale struttura non collassi in un anno è 1 – P = 1 – 10-6. 1.3.2 Teorema dell’evento totale Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due, ovvero la probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono mutuamente esclusivi; in caso contrario, alla somma va sottratta la probabilità dell’intersezione. Si consideri due eventi E1 e E2 in Ω (Figura 1.5): Figura 1.5. Evento totale. L’unione degli eventi E1 e E2 può essere scritta come: E1 ∪ E 2 = ( E1 − E 2 ) ∪ ( E 2 − E1 ) ∪ ( E1 ∩ E 2 ) (1.5) dove (E1 – E2) contiene i punti campionari presenti in E1, ma non in E2 (E2 – E1 è definito analogamente). I tre eventi rappresentati dagli insiemi del termine di destra della (1.5) sono mutuamente esclusivi, quindi per l’Assioma 3 risulta: P ( E1 ∪ E 2 ) = P ( E1 − E 2 ) + P ( E 2 − E1 ) + P ( E1 ∩ E 2 ) (1.6) Da Figura 1.5 risulta inoltre che E1 = ( E1 − E2 ) ∪ ( E1 ∩ E2 ) . La probabilità di occorrenza dell’evento E1 – E2 risulta pertanto: P ( E1 − E 2 ) = P ( E1 ) − P ( E1 ∩ E 2 ) (1.7) Sostituendo la (1.7) (e un’espressione analoga per E2 – E1) nella (1.6), la probabilità di occorrenza dell’evento totale E1 ∪ E2 risulta: P ( E1 ∪ E 2 ) = P ( E1 ) + P ( E 2 ) − P ( E1 ∩ E 2 ) (1.8) Dalla (1.8) e dall’assioma di positività discende la condizione: P ( E1 ∪ E 2 ) ≤ P ( E1 ) + P ( E 2 ) (1.9) 10
  • 11. Esempio 1.5. Probabilità dell’evento totale. Si consideri il lancio di un dado e si considerino i seguenti eventi: E1 = {1, 2, 3}; E2 = {3, 4}; Ω = {1,… , 6} Applicando la definizione (1.1) risulta: P [ E1 ] = 1 2 P [ E2 ] = 1 3; P [ E1 ∩ E2 ] = 1 6 Applicando il teorema dell’evento totale risulta: P [ E1 ∪ E2 ] = P [ E1 ] + P [ E2 ] − P [ E1 ∩ E2 ] = 2 3 1.4 Probabilità condizionata e composta Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quando si sappia che B si è verificato. P ( A ∩ B) P ( A | B) = P (B) ( P ( B ) > 0) (1.10) La definizione di probabilità condizionata può essere facilmente spiegata considerando il caso di uno spazio campionario Ω contenente N punti campionari equiprobabili ω. Sia NB il numero di risultati favorevoli per l’evento B e NAB il numero di risultati favorevoli contemporaneamente per gli eventi A e B (e quindi per l’evento A ∩ B). Sostituendo nella (1.10) la definizione classica di probabilità (Eq. (1.1)): N AB N N AB P ( A | B) = = (1.11) N N B NB La probabilità condizionata P(A|B) può essere dunque interpretata come la probabilità di occorrenza di A nello spazio campionario ridotto determinato da B (Figura 1.6). Figura 1.6. Probabilità condizionata. Esempio 1.6. Probabilità condizionata. Si consideri il lancio simultaneo di due dadi. Si voglia determinare la probabilità di occorrenza del numero 7 (evento A), dato che uno dei due dadi ha fornito il numero 1 (evento B). Lo spazio campionario Ω contiene i 36 punti campionari equiprobabili: 11
  • 12. (1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6), (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6), (5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6). Il numero di risultati favorevoli a A è NA = 6, quindi P(A) = 1/6; il numero di risultati favorevoli a B è NB=11, quindi P(B) = 11/36; il numero di risultati favorevoli simultaneamente ad A e B è NA∩B = 2, quindi P(A∩B) = 1/18; il numero di risultati favorevoli a A, dato che si è verificato B sono 2 su 11 possibilità, quindi P(A|B)=2/11. Attraverso il concetto di probabilità condizionata si perviene al teorema della probabilità composta, che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino entrambi. Nel caso di due eventi, si ha P ( A ∩ B ) = P ( A | B ) P ( B ) = P ( B | A) P ( A) (1.12) Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti stocasticamente (o probabilisticamente, o statisticamente) indipendenti e dalla stessa definizione segue una diversa formulazione della probabilità composta, caso particolare del precedente: P ( A ∩ B ) = P ( A) P ( B ) (1.13) Esempio 1.7. Eventi statisticamente indipendenti. Si consideri i seguenti eventi legati al lancio di un dado: Ω = {1, 2, 3, 4,5, 6}; A = {1, 2}; B {1, 3,5}; C = {2, 4, 6} P ( A) = 2 / 6; P ( B ) = 3 / 6; P (C ) = 3 / 6 ; A ∩ B = {1}, P ( A ∩ B ) = 1/ 6 = P ( A ) P ( B ) ⇒ A, B indipendenti; B ∩ C = ∅, P ( B ∩ C ) = 0 ≠ P ( B ) P ( C ) ⇒ B, C dipendenti. Si osserva che gli eventi A e B sono indipendenti, ma non mutuamente esclusivi, mentre gli eventi B e C sono mutuamente esclusivi, ma non indipendenti. Si potrebbe osservare, in proposito, che due eventi mutuamente esclusivi non possono essere statisticamente indipendenti, in quanto la realizzazione di uno comporta la non-realizzazione dell’altro. Il codice Matlab riportato in Figura 1.7 valuta, applicando la definizione frequentista, la probabilità di occorrenza dell’evento A = {1, 2} e la probabilità di occorrenza di A condizionata all’occorrenza di B = {2, 4, 5}. La Figura 1.8 mostra che, all’aumentare del numero di esperimenti n, le probabilità P(A) e P(A|B) tendono al medesimo valore. Ciò indica che gli eventi A e B sono statisticamente indipendenti. 12
  • 13. % Esempio: lancio di un dado % verifica che gli eventi A = [1 2] e B = [2 4 5] sono statisticamente % indipendenti. % % n = numero di esperimenti % y = risultati esperimenti (lanci dado) % fA = elenco eventi favorevoli (1) e sfavorevoli (0) per A % fB = elenco eventi favorevoli (1) e sfavorevoli (0) per B % fAB = elenco eventi favorevoli (1) e sfavorevoli (0) per A e B % contemporaneamente % PA = probabilità di occorrenza evento A % PAcB = probabilità di occorrenza di A dato B n = 1e5; x = rand(n,1); y = round(6 * x + 0.5); A = [1 2]; B = [2 4 5]; fB = zeros(n,1); fAB = zeros(n,1); for k=1:n fA(k) = sum(A==y(k)); fB(k) = sum(B==y(k)); fAB(k) = sum(A==y(k)) & sum(B==y(k)); end PA = cumsum(fA) ./ (1:n)'; PAcB = cumsum(fAB) ./ cumsum(fB); Figura 1.7. Codice Matlab per verifica indipendenza statistica mediante definizione frequentista di probabilità. 0.5 0.45 0.4 0.35 P(A), P(A|B) 0.3 0.25 0.2 0.15 0.1 0.05 0 0 1 2 3 4 5 10 10 10 10 10 10 n Figura 1.8. Probabilità di A (linea blu), e probabilità di A dato B (linea rossa). 13
  • 14. 1.5 Variabili Aleatorie In teoria della probabilità, una variabile casuale (o variabile aleatoria o variabile stocastica o random variable) può essere pensata come il risultato numerico di un esperimento quando questo non è prevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un dado può essere matematicamente modellato come una variabile casuale che può assumere uno dei sei possibili valori 1, 2, 3, 4, 5, 6. Bruno de Finetti definiva numero aleatorio (termine suggerito dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza di informazioni. 1.5.1 Definizione Dato uno spazio campionario Ω su cui è definita una misura di probabilità, una variabile aleatoria è una funzione (misurabile) dallo spazio campionario a uno spazio misurabile (es. l’insieme dei numeri naturali, l’insieme dei numeri reali, ecc.; Figura 1.9). In questo capitolo, si considerano variabili aleatorie a valori scalari (dette mono-variate). Variabili aleatorie a valori vettoriali sono definite nei capitoli successivi. Una variabile aleatoria è definita continua se ha valori in intervalli continui di . Una variabile è detta discreta si ha valori in un insieme di numeri finito o numerabile (es. ). Una variabile aleatoria è detta mista se assume valori in un insieme continuo, ma possiede un numero discreto di valori aventi probabilità di occorrenza finita. Nel seguito, le variabili aleatorie verranno indicate con lettere maiuscole (es. X), mentre le corrispondenti lettere minuscole (es. x) verranno utilizzare per identificare generici valori assunti da X, detti realizzazioni. La realizzazione x può essere interpretata come l’immagine del punto campionario ω attraverso X (Figura 1.9). ω x = X(ω) Ω x Figura 1.9. Variabile aleatoria X. 1.5.2 Distribuzione di probabilità La distribuzione di probabilità (o distribuzione cumulative, o cumulative distribution function, CDF) è una funzione che definisce la probabilità che la variabile aleatoria X assuma valori minori o uguali ad un parametro ξ in . FX ( ξ) = P ( X ≤ ξ ) (1.14) La distribuzione di probabilità è definite per qualsiasi valore dell’argomento ξ in e possiede le seguenti proprietà (facilmente deducibili dalla (1.14) e dagli assiomi della teoria della probabilità): FX ( −∞ ) = P ( X ≤ −∞ ) = P ( ∅ ) = 0 (1.15) FX ( +∞ ) = P ( X ≤ +∞ ) = P ( Ω ) = 1 (1.16) 14
  • 15. P ( ξ1 < X ≤ ξ 2 ) = FX ( ξ 2 ) − FX ( ξ1 ) ( ξ1 < ξ2 ) (1.17) Dalla (1.17) discende (per l’assioma di positività) che la distribuzione di probabilità è una funzione non-decrescente i cui valori appartengono all’intervallo chiuso [0, 1]. Sarebbe possibile dimostrare anche l’implicazione inversa: una funzione non-decrescente che soddisfa le condizioni (1.15) e (1.16) rappresenta la distribuzione di probabilità di una qualche variabile aleatoria. Esempio 1.8. Stima distribuzione di probabilità di una variabile aleatoria discrete La Figura 1.10 mostra il codice Matlab per la stima della distribuzione di probabilità di una variabile aleatoria discreta X, rappresentativa dei risultati del lancio di un dado. La Figura 1.11 mostra la distribuzione di probabilità stimata. Si osserva la struttura discontinua della funzione, tipica delle variabili aleatorie discrete. I salti nella funzione rappresentano probabilità finite di avere risultati in corrispondenza dei valori 1, 2,…,6. % stima distribuzione di probabilità di v.a. discreta n = 1e5; X = round(6*rand(n,1) + 0.5); % lancio di un dado xi = linspace(-2, 10, 3001); FX = zeros(size(xi)); for k=1:length(xi) FX(k) = sum(X<=xi(k))/n; end plot(xi,FX,'.') xlabel('xi') ylabel('F_X(xi)') grid on ylim([0 1.1]) Figura 1.10. Codice Matlab per stima distribuzione di probabilità: esempio variabile aleatoria discreta 1 0.8 0.6 FX(ξ) 0.4 0.2 0 -2 0 2 4 6 8 10 ξ Figura 1.11. Distribuzione di probabilità dei risultati del lancio di un dado stimata mediante il codice di Figura 1.10. Esempio 1.9. Stima distribuzione di probabilità di una variabile aleatoria continua Il codice riportato in Figura 1.12 stima la distribuzione di probabilità della variabile aleatoria continua X, il cui spazio campionario è generato attraverso una trasformazione non-lineare di numeri casuali Gaussiani u. Per ogni valore ξ(k) dell’ascissa discretizzata, la distribuzione di probabilità è ottenuta valutando la probabilità dell’evento X ≤ ξ(k) mediante la definizione frequentista. La Figura 1.13 mostra la distribuzione di probabilità stimata. 15
  • 16. % stima CDF della variabile aleatoria X n = 1e5; % numero esperimenti u = randn(n,1); X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X xi = linspace(-10, 10, 300); % definizione ascissa discretizzata FX = zeros(size(xi)); for k=1:length(xi) FX(k) = sum(X<=xi(k))/n; end plot(xi,FX) xlabel('xi') ylabel('F_X(xi)') grid on ylim([0 1.1]) Figura 1.12. Codice Matlab per stima distribuzione di probabilità 1 0.8 0.6 FX(ξ) 0.4 0.2 0 -10 -8 -6 -4 -2 0 2 4 6 8 10 ξ Figura 1.13. Distibuzione di probabilità di una variabile aleatoria continua stimata mediante il codice di Figura 1.12. 1.5.3 Funzione di probabilità (di una variabile aleatoria discreta) Si consideri una variabile aleatoria discrete X che può assumere gli n valori discreti ξj (j = 1,…,n). Si definisce funzione di probabilità di X la funzione: PX ( ξ j ) = P ( X = ξ j ) (1.18) che definisce, la probabilità di realizzazione di ogni possibile valore ξj. La funzione di probabilità e la distribuzione di probabilità sono legate dalla relazione: PX ( ξ j ) = FX ( ξ j ) − FX ( ξ− ) j (1.19) FX ( ξ ) = ∑ P (ξ ) ξj ≤ ξ X j (1.20) dove ξj- indica un numero reale minore, ma arbitrariamente vicino a ξj. La Figura 1.14 mostra la funzione di probabilità e la corrispondente distribuzione di probabilità di una variabile aleatoria discreta. 16
  • 17. 0.8 0.7 1 0.6 0.8 0.5 FX(ξ) PX(ξ) 0.6 0.4 0.3 0.4 0.2 0.2 0.1 0 0 1 2 3 4 1 2 3 4 ξ ξ Figura 1.14. Funzione di probabilità e distribuzione di probabilità di una variabile discrete. Esempio 1.10. Stima della funzione di probabilità Si consideri un esperimento realizzando lanciando due dadi. Sia X ottenuto come somma dei risultati forniti dai due dati. La Figura 1.15 riporta il codice per simulare il lancio di due dadi; la funzione di probabilità è valutata attraverso la funzione riportata in Figura 1.15 realizzata introducendo la definizione frequentista di probabilità nella (1.18). La Figura 1.17 mostra la funzione di probabilità (a) e la distribuzione di probabilità (b) stimata sulla base di 105 lanci di dadi simulati. % esempio lancio di due dadi n = 1e5; X1 = round(6*rand(n,1) + 0.5); % lancio di un dado 1 X2 = round(6*rand(n,1) + 0.5); % lancio di un dado 2 X = X1 + X2; [PX, xi] = pf1(X); figure(1) for k=1:length(xi) plot(xi(k)*[1 1],PX(k)*[0 1],'b',xi(k),P(k),'.b') hold on end hold off xlim([0 14]) grid on xlabel('xi') ylabel('P_X(xi)') Figura 1.15. Codice Matlab per simulazione del lancio di due dadi. function [P, xi] = pf1(x) % stima funzione di probabilità per v.a. discreta X di cui sono disponibili % n realizzazioni contenute nel vettore x % P = funxione di probabilità % xi = ascissa P xi = min(x):max(x); % ascissa funz di probabilità P = zeros(length(xi),1); z = x - min(x) + 1; for k=1:length(x) P(z(k)) = P(z(k)) + 1; end P = P / length(x); end Figura 1.16. Codice Matlab per stima dai dati della funzione di probabilità di una variabile aleatoria discreta. 17
  • 18. 0.18 1 0.16 0.14 0.8 0.12 0.1 0.6 PX(ξ) FX(ξ) 0.08 0.4 0.06 0.04 0.2 0.02 0 0 0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14 ξ (a) ξ (b) Figura 1.17. Funzione di probabilità (a) e distribuzione di probabilità (b). 1.5.4 Densità di probabilità (di una variabile aleatoria continua) La distribuzione di probabilità, FX, di una variabile aleatoria continua, X, è una funzione continua in , ma non necessariamente derivabile. Si assuma che i punti in cui FX non è derivabile formino un insieme numerabile. Ove FX è derivabile, si definisce la densità di probabilità pX(ξ) (o probability density function, o pdf) come derivata di FX rispetto all’argomento ξ: d FX ( ξ ) pX ( ξ ) = (1.21) dξ In virtù delle proprietà di FX si deducono le seguenti proprietà della densità di probabilità: pX ( ξ) ≥ 0 (1.22) ξ FX ( ξ ) = ∫ pX ( α ) dα (1.23) −∞ ∞ ∫ pX ( ξ ) d ξ = 1 (1.24) −∞ ξ2 P ( ξ1 < X ≤ ξ 2 ) = FX ( ξ 2 ) − FX ( ξ1 ) = ∫ p X ( α ) dα ( ξ1 < ξ 2 ) (1.25) ξ1 In cui si è supposto che, nei punti dove pX non è definita (FX non derivabile), essa assuma un qualsiasi valore positivo finito. La Figura 1.18 descrive la relazione fra pX e FX definita dalla (1.23): l’ordinata FX(ξ) equivale all’area sottesa da pX a sinistra dell’ascissa ξ. La Figura 1.19 mostra che l’occorrenza di un punto ξ* in cui FX non è derivabile si riflette in una discontinuità in pX. 18
  • 19. (a) (b) Figura 1.18. Relazione fra densità (a) e distribuzione (b) di probabilità. Figura 1.19. Punti singolari nella densità di probabilità. La (1.25) afferma che l’area sottesa dalla densità di probabilità, compresa fra due valori di ascissa, ξ1 e ξ2, rappresenta la probabilità che la variabile aleatoria assuma un valore compreso in tale intervallo (Figura 1.20). Ponendo ξ1 = ξ e ξ2 = ξ + Δξ, la (1.25) può essere riscritta nella forma: ξ+Δξ P ( ξ < X ≤ ξ + Δξ ) = ∫ pX (α ) d α Δξ p X ( ξ ) (1.26) ξ Nella quale, l’applicazione del teorema della media impone di assumere che pX sia continua in ξ. Figura 1.20. Significato probabilistico di densità e distribuzione di probabilità. 19
  • 20. L’applicazione della definizione empirica di probabilità alla (1.26) fornisce uno strumento per stimare la densità di probabilità attraverso la relazione: Δn ( ξ ) p X ( ξ ) ≅ lim (1.27) n →∞ nΔξ dove Δn(ξ) è il numero di volte in cui il valore di X è compreso nell’intervallo (ξ,ξ + Δξ] in n esperimenti. La densità così ottenuta è rappresentata da un istogramma (Figura 1.21) che, se Δξ è sufficientemente piccolo può essere interpretato come la discretizzazione di una funzione di variabile continua. Figura 1.21. Stima della densità di probabilità. Esempio 1.11. Stima della densità di probabilità. Si consideri la variabile aleatoria del precedente Esempio 1.9 e si stimi la densità di probabilità utilizzando la definizione frequentista. % stima pdf della variabile aleatoria X n = 1e6; % numero esperimenti u = randn(n,1); X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X xi = linspace(-10, 10, 300); % definizione ascissa discretizzata pX = zeros(size(xi)); Dx = xi(2) - xi(1); for k=1:length(xi) pX(k) = sum(X > xi(k)-Dx/2 & X <= xi(k)+Dx/2)/n/Dx; end plot(xi,pX) xlabel('xi') ylabel('p_X(xi)') grid on xlim([-6 6]) Figura 1.22. Codice Matlab per stima densità di probabilità. 20
  • 21. 0.45 0.4 0.35 0.3 0.25 pX(ξ) 0.2 0.15 0.1 0.05 0 -6 -4 -2 0 2 4 6 ξ Figura 1.23. Densità di probabilità stimata mediante il codice riportato in Figura 1.22. Il codice riportato in Figura 1.22 è molto semplice perché implementa brutalmente l’estimatore definito dalla (1.27). Sfortunatamente, tale algoritmo è piuttosto inefficiente, avendo una complessità computazionale pari a n2. In alternativa, la densità di probabilità può essere stimata mediante la funzione riportata in Figura 1.24, che ha complessità computazionale pari a n. function [p, xi] = pdf1(x,Nx) % stima pdf per v.a. continua X di cui sono disponibili le realizzazioni % raccolte nel vettore x % p = pdf % xi = ascissa pdf % Nx = numero punti ascizza pdf xi = linspace(min(x),max(x),Nx)'; % ascissa discretizzata pdf Dx = (max(x)-min(x)) / Nx; % ampiezza intervalli p = zeros(Nx,1); z = (x - min(x)) / (max(x) - min(x)); % x è mappato in [0 1] z1 = round((Nx-1) * z)+1; % numero d'ordine intervallo ascissa for k=1:length(x) p(z1(k)) = p(z1(k)) + 1; end p = p / length(x) / Dx; % normalizzazione end Figura 1.24. Codice Matlab per stima distribuzione di probabilità. 1.5.5 Valore atteso Il valore atteso (o media, o expectation) di una variabile aleatoria X, è un numero E[X] che formalizza l'idea euristica di valore medio di un fenomeno aleatorio. In generale il valore atteso di una variabile aleatoria discreta è dato dalla somma dei possibili valori di tale variabile, ciascuno moltiplicato per la probabilità di essere assunto (ossia di verificarsi), cioè è la media ponderata dei possibili risultati. Se la variabile aleatoria X può assumere i valori ξj (j = 1,2,…), il valore atteso è definito dalla relazione: ∞ E [ X ] = ∑ ξ j PX ( ξ j ) (1.28) j =1 21
  • 22. Per una variabile aleatoria continua il valore atteso è essere definito mediante un integrale. ∞ ∞ E[ X ] = ∫ ξ dFX ( ξ ) = ∫ ξ p ( ξ ) dξ X (1.29) −∞ −∞ Si osservi che la definizione di valore atteso ottenuta attraverso l’integrale di Stieltjes nella (1.29) può essere applicata anche nei casi in cui la funzione densità di probabilità non è definita, come per le variabili aleatorie discrete e miste. Il valore atteso è un operatore lineare che dallo spazio delle variabili aleatorie conduce nello spazio dei numeri reali. Esso gode quindi delle proprietà: E [ aX + bY ] = a E [ X ] + b E [Y ] (1.30) dove X e Y sono variabili aleatorie, mentre a e b sono costanti reali. Il valore atteso ha la proprietà di monotonia, cioè se una variabile aleatoria X appartiene all’intervallo [a, b], allora anche il suo valore atteso E[X] appartiene ad [a, b]. Il valore atteso di una variabile aleatoria di cui è disponibile un insieme di realizzazioni può essere stimato attraverso la media statistica. Ciò può essere dimostrato facilmente nel caso di variabili aleatorie discrete (il concetto è altrettanto valido per le variabili continue) sostituendo la definizione frequentista di probabilità nella (1.28) ∞ nj E[ X ] ∑ξ j (1.31) j =1 n dove nj rappresenta il numero di volte che si è realizzato il valore ξj nel corso di n esperimenti, con n grande a sufficienza. La (1.31) contiene la somma dei risultati possibili ξj moltiplicati per il numero di volte che questi si sono realizzati nj. Questa somma corrisponde alla somma dei valori xk realizzati dalla variabile aleatoria negli n esperimenti (ammesso che n sia grande a sufficienza a fin che l’insieme dei risultati xk contenga tutti i risultati ξj aventi una probabilità di occorrenza significativa). La (1.31) può dunque essere riscritta nella forma: 1 n E[ X ] ∑ xk (1.32) n k =1 Il concetto di valore atteso può essere esteso al caso di una variabile aleatoria Y legata, attraverso una funzione deterministica, ad una variabile aleatoria X di cui è nota la densità di probabilità (cioè, Y = f(X), con f funzione deterministica). Il valore atteso di Y è fornito dalle espressioni: ∞ E [Y ] = E ⎡ f ( X ) ⎤ = ∑ f ( ξ j ) PX ( ξ j ) ⎣ ⎦ (1.33) j =1 ∞ E [Y ] = E ⎡ f ( X ) ⎤ = ⎣ ⎦ ∫ f ( ξ ) p ( ξ ) dξ X (1.34) −∞ per i casi di variabili aleatorie discrete e continue, rispettivamente. 22
  • 23. 1.5.6 Momenti statistici di una variabile aleatoria Si definisce momento statistico di ordine k (k ≥ 1) di una variabile aleatoria X il valore atteso della potenza di ordine k di X: mk [ X ] = E ⎡ X k ⎤ ⎣ ⎦ ( k = 1, 2,…) (1.35) Sostituendo la (1.35) nelle (1.33) e (1.34), ponendo f(X) = Xk, si ottengono le espressioni: ∞ m k [ X ] = ∑ ξ kj PX ( ξ j ) ( k = 1, 2,…) (1.36) j =1 ∞ mk [ X ] = ∫ξ k p X ( ξ ) dξ ( k = 1, 2,…) (1.37) −∞ Il momento statistico di ordine 1, μX = m1[X], è detto valore medio (o media); il momento statistico di ordine 2, ϕX2 = m2[X], è detto valore quadratico medio (o media quadratica). Si definisce momento statistico centrale di ordine k (k ≥ 2) di una variabile aleatoria X la quantità: μ k [ X ] = E ⎡( X − μ X ) ⎤ ( k = 2,3,…) k (1.38) ⎣ ⎦ Il momento statistico centrale di ordine 2, σX2 = μ2[X] è detto varianza, mentre la sua radice quadrata, σX, è detta deviazione standard. I momenti statistici centrali sono legati ai momenti statistici da relazioni ricorsive. Arrestandosi all’ordine 4, risultano: μ 2 = m 2 − m1 2 μ 3 = m3 − 3m2 m1 + 2 m1 3 (1.39) μ 4 = m 4 − 4 m3 m1 + 6 m 2 m − 3m2 1 4 1 Nel caso in cui X è una variabile aleatoria continua, la media μX = m1[X] rappresenta, da un punto di vista grafico, la posizione (ascissa) del baricentro dell’area sottesa dalla densità di probabilità; pertanto, la media misura la posizione della funzione di densità di probabilità rispetto all’asse reale. La media ha la medesima dimensione (unità di misura) delle realizzazioni della variabile aleatoria. La varianza σX2 = μ2[X] rappresenta il momento d’inerzia dell’area sottesa dalla densità di probabilità rispetto all’asse baricentrico; pertanto, la varianza rappresenta una misura di dispersione, intono al valore medio, delle realizzazioni di una variabile aleatoria. La deviazione standard ha la medesima dimensione delle realizzazioni della variabile aleatoria. In accordo con le (1.39), media, varianza e media quadratica sono legate dalla relazione: σ2 = ϕ2 − μ 2 X X X (1.40) Il rapporto fra deviazione standard e media è detto coefficiente di variazione: σX IX = (1.41) μX 23
  • 24. Il momento centrale di ordine 3, adimensionalizzato con la deviazione standard è detto skewness (o coefficiente di asimmetria). Il momento centrale di ordine 4 adimensionalizzato con la deviazione standard è detto kurtosis (o coefficiente di piattezza). μ3 [ X ] μ4 [ X ] skw [ X ] = ; kurt [ X ] = (1.42) σ3 X σ4 X Lo skewness è generalmente indicato con il simbolo γ3. Frequentemente, al valore del kurtosis definito dalla (1.42) si sottrae 3; in questo caso modo si ottiene un valore detto coefficiente di eccesso (o eccesso di kurtosis), generalmente indicato con il simbolo γ4. μ3 [ X ] μ4 [ X ] γ3 [ X ] = ; γ4 [ X ] = −3 (1.43) σ3 X σ4 X La Figura 1.25 mostra l’effetto della media e della deviazione standard sulla forma della densità di probabilità. La media determina una traslazione della curva lungo l’asse delle ascisse, mentre la deviazione standard controlla l’ampiezza della curva (alla quale corrisponde un abbassamento per conservare l’area unitaria). La Figura 1.26 mostra l’effetto di skewness e coefficiente di eccesso sulla forma della densità di probabilità. La condizione γ3 = 0 corrisponde ad una funzione simmetrica rispetto alla media; la condizione γ3 > 0 rappresenta la situazione in cui la densità di probabilità ha la coda di destra più alta della coda di sinistra. Una variabile aleatoria avente γ4 > 0 è detta super-kurtica e ha densità di probabilità alta sulla moda (ascissa corrispondente al picco) e sulle code; una variabile aleatoria avente γ4 < 0 è detta sub-kurtica e ha densità di probabilità bassa sulla moda e sulle code; il caso γ4=0 corrisponde alla distribuzione Gaussiana che verrà descritta nel seguito. Per lo studio delle code della distribuzione è generalmente conveniente diagrammare le funzioni di densità di probabilità con ordinata in scala logaritmica, come mostrato in Figura 1.27 per i casi già discussi in Figura 1.26. Una variabile aleatoria è detta standardizzata se è centrata rispetto alla sua media e scalata in modo da avere varianza unitaria: ˆ X − μX X = (1.44) σX da cui ovviamente risulta μ Xˆ = 0 e σ Xˆ = 1 . 24
  • 25. 0.4 0.4 μX = 0 μY = 1 μX = 0 0.35 0.35 σX = 1 σY = 1 σX = 1 0.3 0.3 0.25 0.25 p (ξ), p (η) p (ξ), p (η) Y Y 0.2 0.2 X X 0.15 0.15 μY = 0 0.1 0.1 σY = 2 0.05 0.05 0 0 -4 -3 -2 -1 0 1 2 3 4 -6 -4 -2 0 2 4 6 ξ, η ξ, η (a) (b) Figura 1.25. Densità di probabilità: influenza della media (a) e deviazione standard (b). 0.45 0.7 γ3 = 0.5 γ3 = -0.5 0.4 γ4 = 0 γ4 = 0 0.6 γ3 = 0 γ4 = 5 0.35 γ3 = 0 0.5 γ3 = 0 0.3 γ4 = 0 p (ξ), p (η), p (ζ) p (ξ), p (η), p (ζ) γ4 = 0 Z Z 0.25 0.4 Y Y 0.2 0.3 γ3 = 0 γ4 = -0.5 X X 0.15 0.2 0.1 0.1 0.05 0 0 -4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4 ξ, η, ζ ξ, η, ζ (a) (b) Figura 1.26. Densità di probabilità: influenza skewness (a) e coefficiente di eccesso (b). 0 0 10 10 -1 -1 10 10 p (ξ), p (η), p (ζ) p (ξ), p (η), p (ζ) Z Z Y Y -2 -2 X X 10 10 -3 -3 10 10 -4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4 ξ , η, ζ (a) ξ, η, ζ (b) Figura 1.27. Densità di probabilità (scala logaritmica): influenza skewness (a) e coefficiente di eccesso (b). I momenti statistici della variabile aleatoria X possono essere stimati a partire da un insieme di sue realizzazioni xj (j = 1,…,n) attraverso un’espressione analoga alla (1.32) 1 n k mk [ X ] = E ⎡ X k ⎤ ⎣ ⎦ ∑ xj n j =1 (1.45) 25
  • 26. 1.5.7 Funzione caratteristica di una variabile aleatoria continua Si definisce funzione caratteristica (o funzione generatrice dei momenti) della variabile aleatoria X, la funzione a valori complessi: ∞ Φ X ( θ ) = E ⎡ exp ( i θX ) ⎤ = ∫ ei θξ p X ( ξ ) dξ ⎣ ⎦ (1.46) −∞ dove l’argomento θ è definito in ℝ. In base alla (1.46), la funzione caratteristica è la trasformata di Fourier della densità di probabilità, pertanto essa determina completamente la struttura probabilistica di X. La funzione caratteristica può essere rappresentata attraverso la serie di McLaurin: ∞ 1 dk Φ Φ X (θ) = Φ X (0) + ∑ θk (1.47) k =1 k ! d θ k θ= 0 Operando per derivazione sulla (1.46), i termini della (1.47) risultano nella forma: Φ X ( 0) = 1 dk Φ (1.48) = ik E ⎡ X k ⎤ = i k m k [ X ] ⎣ ⎦ ( k = 1, 2,…) d θ θ=0 k che, sostituendo nella (1.47), forniscono un’espressione della funzione caratteristica in termini di momenti statistici. ∞ ik Φ X ( θ) = 1 + ∑ mk [ X ] θk (1.49) k =1 k ! La (1.49) dimostra che, conoscendo i momenti statistici fino all’ordine infinito, è possibile rappresentare la funzione caratteristica e quindi la densità di probabilità. In questo senso, la conoscenza dei momenti statistici è equivalente alla conoscenza della distribuzione di probabilità, quindi determina completamente la struttura probabilistica della variabile aleatoria. 1.6 Modelli di variabili aleatorie Nel presente capitolo si introducono alcuni modelli probabilistici rilevanti per lo studio della meccanica delle vibrazioni e dell’affidabilità strutturale. Il modello normale (o Gaussiano) è descritto con maggiore enfasi in virtù delle sue caratteristiche probabilistiche e della sua importanza applicativa. 1.6.1 Distribuzione normale (o Gaussiana) Una variabile aleatoria X ha distribuzione normale (o Gaussaina) se la sua densità di probabilità è nella forma: 1 ⎧ 1 ⎛ ξ − μ ⎞2 ⎫ ⎪ ⎪ pX ( ξ ) = exp ⎨ − ⎜ X ⎟ ⎬ (1.50) 2πσ X ⎪ 2 σX ⎠ ⎭ ⎩ ⎝ ⎪ Una variabile aleatoria X, con distribuzione normale μX e varianza σX2 è formalmente definita attraverso l’espressione X = N(μX, σX2). La Figura 1.28 mostra la densità di probabilità di una 26
  • 27. variabile aleatoria normale standardizzata; nel piano semilogaritmico la curva è costituita da una parabola. 0 0.4 10 0.35 -1 0.3 10 0.25 pX(ξ) pX(ξ) -2 0.2 10 0.15 -3 0.1 10 0.05 -4 0 10 -4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4 ξ (a) ξ (b) Figura 1.28. Densità di probabilità normale: ordinata in scala decimale (a) e logaritmica (b). La distribuzione di probabilità è data dall’espressione: 1 ξ ⎧ 1 ⎛ α − μ ⎞2 ⎫ ⎪ ⎪ FX ( ξ ) = ∫−∞ exp ⎨− 2 ⎜ σ X X ⎟ ⎬ dα (1.51) 2πσ X ⎩ ⎝ ⎪ ⎠ ⎭ ⎪ che può essere scritta in forma analitica attraverso la funzione di errore 1⎡ ⎛ ξ − μ X ⎞⎤ FX ( ξ ) = ⎢1 + erf ⎜ ⎟⎥ (1.52) 2⎣ ⎝ σ X ⎠⎦ Per ispezione della (1.50) è immediato verificare che se Y = aX + b, con a e b costanti deterministiche e X = N(μX, σX2), allora Y = N(aμX + b, a2σX2). La funzione caratteristica di una variabile Gaussiana può essere ottenuta calcolando la trasformata di Fourier della (1.50) e risulta: ⎛ 1 ⎞ Φ X ( θ ) = exp ⎜ − i μ X θ − σ 2 θ2 ⎟ X (1.53) ⎝ 2 ⎠ Se X è una variabile aleatoria Gaussiana standardizzata, X = N(0,1), allora densità di probabilità e distribuzione di probabilità risultano: 1 ⎛ 1 ⎞ pX ( ξ ) = exp ⎜ − ξ 2 ⎟ (1.54) 2π ⎝ 2 ⎠ 1 ξ ⎛ α ⎞2 1 FX ( ξ ) = ∫−∞ exp ⎜ − 2 ⎟ dα = 2 ⎡1 + erf ( ξ )⎤ ⎣ ⎦ (1.55) 2π ⎝ ⎠ ⎛ 1 ⎞ Φ X ( θ ) = exp ⎜ − θ 2 ⎟ (1.56) ⎝ 2 ⎠ Si osserva che la funzione caratteristica di una variabile Gaussiana standardizzata è formalmente identica alla corrispondente funzione densità di probabilità. 27
  • 28. 1.6.2 Distribuzione uniforme Una variabile aleatoria continua ha distribuzione uniforme se la sua densità di probabilità è espresso nella forma: ⎧1 / ( b − a ) per a < ξ < b pX (ξ) = ⎨ (a < b) (1.57) ⎩0 altrove Il modello uniforme è utilizzato quando una variabile aleatoria può assumere valori equiprobabili in un intervallo chiuso [a, b]. La funzione di distribuzione può essere ottenuta dalla (1.57) per integrazione e risulta: ⎧0 per ξ < a ⎪ FX ( ξ ) = ⎨( ξ − a ) / ( b − a ) per a ≤ ξ ≤ b (1.58) ⎪1 per ξ > b ⎩ La media e la varianza di una variabile aleatoria uniforme risultano: μX = ( a + b) / 2 (1.59) σ2 = ( b − a ) /12 2 X (1.60) pX(ξ) FX(ξ) 1/(b-a) 1 0 0 0 a b 0 a b ξ ξ Figura 1.29. Densità e distribuzione di probabilità di una variabile aleatoria uniforme. 1.6.3 Modello log-normale Una variabile aleatoria X è della log-normale se Y = log(X) ha distribuzione normale. La densità di probabilità di una variabile log-normale è espressa nella forma: 1 ⎛ ( log ξ − m ) 2 ⎞ pX ( ξ ) = exp ⎜ − ⎟ (1.61) ξ 2πs ⎜ 2s 2 ⎟ ⎝ ⎠ dove m e s sono i parametri della distribuzione (e rappresentano, rispettivamente, la media e la deviazione standard di Y). La media e la varianza di X risultano: 28
  • 29. s2 ⎞ μ X = exp ⎜ m + ⎟ ⎝ 2⎠ (1.62) σ2 = exp ( 2m + s 2 ) exp ( s 2 − 1) X 0.25 1 0.9 0.2 0.8 0.7 0.15 0.6 FX(ξ) pX(ξ) 0.5 0.1 0.4 0.3 0.05 0.2 0.1 0 0 0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20 ξ ξ Figura 1.30. Densità e distribuzione di probabilità di una variabile aleatoria log-normale (m = 1, s = 1). 1.6.4 Modello di Rayleigh Una variabile aleatoria X è detta di Rayleigh se ha densità di probabilità nella forma: ξ ⎛ ξ2 ⎞ pX ( ξ ) = exp ⎜ − 2 ⎟ (1.63) b2 ⎝ 2b ⎠ dove b è il parametro della distribuzione. 0.7 1 0.9 0.6 0.8 0.5 0.7 0.6 0.4 FX(ξ) pX(ξ) 0.5 0.3 0.4 0.2 0.3 0.2 0.1 0.1 0 0 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 ξ ξ Figura 1.31. Densità e distribuzione di probabilità di una variabile aleatoria di Rayleigh (b = 1). 1.6.5 Modello di binomiale Si consideri una successione di variabili aleatorie discrete, Xk (k = 1,2,…), aventi spazio campionario Ω = {0, 1}. Si assuma che gli eventi legati a ogni possibile coppia di variabili aleatorie Xh e Xk (h,k = 1,2,…; h≠k) siano statisticamente indipendenti; sia inoltre P(Xk = 1) = p. La successione Xk è detta sequenza di Bernoulli. La funzione di probabilità di una variabile aleatoria di Bernoulli risulta dunque: 29