SlideShare ist ein Scribd-Unternehmen logo
1 von 81
1
Metodi Numerici per la
Valutazione di Attività
Finanziarie
2
Il Metodo Monte Carlo
3
Il metodo Monte Carlo
 Il metodo Monte Carlo (MC nel seguito) è una tecnica basata
sulla simulazione di un numero elevato di possibili scenari
rappresentativi dell’evoluzione futura delle variabili di rischio
da cui dipende il valore di una generica attività finanziaria;
 Infatti tale tecnica si basa sull’idea di approssimare il valore
atteso di una determinata funzione finanziaria calcolando la
media aritmetica dei diversi risultati ottenuti dalle simulazioni
effettuate sul possibile andamento futuro delle variabili da cui
essa dipende.
4
Il metodo Monte Carlo
 Esempio: Calcolo del prezzo di strumenti derivati.
 Indicando con fT il valore dell’opzione stessa alla scadenza T, il valore
ad oggi, f, sarà dato da
essendo Ê il valore di aspettazione rispetto alla misura risk-neutral ed r il
tasso di interesse che assumiamo per semplicità costante nel tempo;
 L’idea guida del metodo MC consiste nello stimare tale valore attraverso
la simulazione dei possibili valori assunti nel corso del tempo dalle
variabili sottostanti, di cui il prezzo del derivato è funzione;
 Tramite il calcolo di un insieme sufficientemente ampio di possibili valori
finali possiamo poi stimare il nostro integrale come media aritmetica di
tali valori.

 T
rT
fEef ˆ

5
Il metodo Monte Carlo
 Metodo Monte Carlo e Integrazione
 L’idea di base del metodo è del tutto generale;
 Un’estrazione da un campione di numeri casuali può essere
utilizzata come stimatore di un integrale

1
0
)( dxxfI
Questa espressione può essere interpretata come il
valore di aspettazione della funzione f di una variabile
aleatoria a valori uniformemente distribuiti nell’intervallo
[0, 1]
6
Il metodo Monte Carlo
 Spiegazione dell’affermazione precedente
 Il valore di aspettazione di una funzione di una generica variabile
aleatoria con densità g(x) e dominio di valori in  è dato da
 Se consideriamo una variabile x uniformemente distribuita in [0,1]
otteniamo

 dxxgxfxfE )()()]([
 







1
0
)()()()]([
]1,0[1
]1,0[0
)(
dxxfdxxgxfxfE
xse
xse
xg
7
Il metodo Monte Carlo
 Diventa così possibile stimare il valore del nostro integrale tramite una
media aritmetica di n valori di f(xi) dove ciascun xi rappresenta un campione
estratto da una distribuzione uniforme in [0, 1]. In altre parole possiamo
affermare che la quantità


n
i
in xf
n
I
1
)(
1~
 rappresenta uno stimatore non distorto di I. La varianza di questa
stima risulta pari a:
 
n
dxIxf
n
xf
n
xf
n
I
n
i
i
n
i
in
21
0
2
1
2
1
)(
1
)(var
1
)(
1
var)
~
var(













  
8
Il metodo Monte Carlo
 Il fondamento statistico del metodo MC è
rappresentato dal teorema del limite centrale;
 secondo questo teorema la somma di n
variabili casuali indipendenti e identicamente
distribuite segue approssimativamente una
normale con media  e varianza tendente a
zero per n crescente.
9
Il metodo Monte Carlo
 Formalmente: sia X1, ..., Xn una successione di variabili
aleatorie indipendenti e identicamente distribuite con
 Abbiamo
 Cioè Sn si distribuisce normalmente con media  e varianza
2/n.
2
)(,)(   XVarXE








n
i
in
n
NX
n
S
1
2
,
1 

10
Il metodo Monte Carlo
 l’errore quadratico medio dello stimatore, che può essere interpretato come
l’errore quadratico medio della simulazione Monte Carlo, decresce
all’aumentare di n come
 Questo risultato risulta del tutto indipendente dalla dimensione del
problema.
 E’ proprio quest’ultima caratteristica che rende attraente il metodo Monte
Carlo per la risoluzione di problemi con un numero elevato di dimensioni. In
questo caso tipicamente il metodo Monte Carlo risulta convergere verso il
valore finale più velocemente dei metodi numerici tradizionali in cui il
numero di iterazioni per raggiungere un’approssimazione prefissata cresce
con l’aumentare del numero di dimensioni.
n/1
11
Il metodo Monte Carlo
3.8
3.9
4
4.1
4.2
4.3
4.4
4.5
4.6
0 5000 10000 15000 20000 25000 30000 35000 40000 45000 50000
Monte Carlo Standard
Black & Scholes
12
Il metodo Monte Carlo
 Passando dal problema generale al caso più specifico della
determinazione del valore delle opzioni, si consideri il
processo di pricing di un’opzione call di tipo europeo;
 Il punto di partenza consiste nella definizione del processo
dinamico seguito dal sottostante;
 Nel caso dei derivati su indici azionari o su azioni è comune
assumere che il sottostante segua un processo di tipo
geometrico browniano.
13
SdwSdtdS  
dwdtSd 

 






2
)ln(
2
Lemma di Ito
tzt
2S
S
SSS
2
0
0 





 

ln)ln()ln()ln(
Un processo per i prezzi azionari
14
tzt
2S
S 2
0






 

ln












 tzt
2
SS
2
0 

exp
Un processo per i prezzi azionari
Nota: In queste formule z
rappresenta una variabile
aleatoria estratta da una
distribuzione normale
standard N(0,1).
15
Un processo per i prezzi azionari
Processi per il Sottostante
Generazione Scenari
Distribuzione probabilistica dei premi
Calcolo della media e dell’errore
16
Generazione degli Scenari
17
Generazione di Scenari
 Da un punto di vista del tutto generale la generazione di uno scenario
equivale alla generazione di un possibile percorso per il processo stocastico
del sottostante S(t) descritto da un’Equazione Differenziale Stocastica (SDE)
del tipo:
 Più precisamente, uno scenario è un insieme di valori
che rappresentano un’approssimazione della j-esima realizzazione,S j(ti), della
soluzione dell’equazione differenziale stocastica ai tempi
dWtSbdttSatdS ),(),()( 
IitS i
j
,,1,)(ˆ 
IiTti ,,1,0 
18
Generazione di Scenari
19
Generazione di Scenari
 Ci sono diversi modi per costruire uno scenario, vediamo i
due più importanti:
 Costruire un percorso della soluzione della nostra SDE ai tempi ti
per mezzo di una propagazione esatta della soluzione;
 Questo metodo è possibile solo quando disponiamo di una
soluzione in forma chiusa per la probabilità condizionale;
 Approssimazione numerica dell’equazione differenziale stocastica;
 Questo metodo viene utilizzato ogniqualvolta non si dispone
della soluzione chiusa di cui sopra;
 Come nel caso delle equazioni differenziali ordinarie, esistono
diverse tecniche numeriche per la risoluzione delle equazioni
differenziali stocastiche.
20
Generazione di Scenari
Propagazione della Soluzione
 Esempio: Processo log-normale con drift e volatilità
costanti.
dWdt
S
dS
 
   











  )()(
2
1
exp)()( 11
2
1 iiiiii tWtWtttStS 












 )(
2
1
exp)0()( 2
tWtStS 
Soluzione
Generazione Traiettorie
21
Generazione di Scenari
Integrazione Numerica della SDE
 Come abbiamo già detto, l’integrazione numerica è un altro metodo
per la risoluzione di un’equazione differenziale stocastica;
 Nel caso dell’integrazione numerica di Equazioni Differenziali
Ordinarie, i vari schemi di integrazione, come abbiamo visto,
introducono diversi errori di discretizzazione che si riflettono
sull’errore finale e che in genere sono proporzionali ad una potenza
dell’intervallo temporale utilizzato.
 Questo errore viene chiamato Errore di Troncamento dello schema
di discretizzazione.
22
Generazione di Scenari
Integrazione Numerica della SDE
 Nel caso dell’integrazione numerica di SDE tramite le differenze finite,
l’interpretazione degli errori numerici introdotti dal processo di
discretizzazione diventa più complicata;
 A differenza del caso delle ODE dove l’unico aspetto al quale siamo
interessati è la soluzione dell’equazione stessa, quando abbiamo a che fare
con una SDE ci sono almeno due aspetti distinti che meritano la nostra
attenzione:
 Il primo aspetto è legato all’accuratezza con la quale calcoliamo le traiettorie di
una particolare realizzazione della soluzione;
 Il secondo è legato all’accuratezza con la quale possiamo stimare una generica
funzione del processo stocastico sottostante come ad esempio i momenti.
23
Generazione di Scenari
Integrazione Numerica della SDE
 L’aspetto interessante è che l’ordine di accuratezza con il quale un
determinato schema di discretizzazione può approssimare una
traiettoria della soluzione in generale non è lo stesso con il quale lo
stesso schema può approssimare una funzione del processo
stocastico sottostante;
 La convergenza delle traiettorie calcolate numericamente alle traiettorie
“reali” viene chiamata convergenza forte e l’ordine dello schema
corrispondente viene detto ordine di convergenza forte;
 La convergenza della soluzione numerica di una funzione del processo
stocastico sottostante è detta invece convergenza debole e il
corrispondente ordine viene chiamato ordine di convergenza debole.
24
Generazione di Scenari
Integrazione Numerica della SDE
 I due schemi di discretizzazione più importanti per l’integrazione
di SDE sono l’ Explicit Euler scheme e il Milshtein scheme
))()()(),(ˆ()),(ˆ()(ˆ)(ˆ
11 iiiiiiii tWtWttSbtttSatStS  
  ttWtW
S
ttSb
ttSb ii
ii
ii 


 
2
1 )()(
)),(ˆ(
)),(ˆ(
2
1
dWtSbdttSatdS ),(),()( 
EULER
MILSHSTEIN
25
Metodi di Riduzione della Varianza
26
Metodi di Riduzione della Varianza
 Il fatto che l’errore quadratico medio della previsione
effettuata con la tecnica MC decresce all’aumentare delle
simulazioni rappresenta come abbiamo già detto un aspetto
interessante della metodologia in quanto risulta indipendente
dal numero di dimensioni del problema;
 Tuttavia la particolare forma di convergenza (1/n½) è di per se
piuttosto lenta per cui sono state sviluppate delle tecniche di
riduzione della varianza che permettono di accorciare (entro
certi limiti) i tempi di elaborazione.
27
Un Problema di Efficienza
 Immaginiamo di voler calcolare un certo parametro P (ad esempio
il prezzo di un’opzione) e di poter scegliere fra due diverse stime
ottenibili con il metodo Monte Carlo rappresentate dalle due serie
di valori ottenuti con il processo di simulazione
 Supponiamo poi che entrambi gli stimatori siano corretti, cioè valga
ma con
niPi ,...,1,ˆ
1  niPi ,...,1,ˆ
2 
  PPE 1
ˆ   PPE 2
ˆ
21  
28
Un Problema di Efficienza
 Chiaramente sulla base di queste sole informazioni saremmo
portati a scegliere il primo stimatore in quanto, a parità di
numero di simulazioni, l’errore di stima risulterà senz’altro
minore.
 Tuttavia, come accennavamo poco sopra, questa conclusione
rischia in realtà di non essere corretta in quanto non tiene
conto del fatto che i due stimatori possono richiedere risorse
computazionali molto diverse fra loro;
 in particolare generare n replicazioni di P1 potrebbe richiedere
molto più tempo che generare n replicazioni di P2.
29
Un Problema di Efficienza
 Un primo approccio al problema potrebbe essere quello di
introdurre esplicitamente nelle nostre considerazioni il tempo
di calcolo richiesto.
 Supponiamo che il tempo richiesto per generare una singola
replicazione di Pj possa essere espresso da una costante
che indicheremo con bj, avendo a disposizione un tempo
totale di calcolo pari a t il numero di replicazioni di Pj che
possiamo generare sarà pari a t/bj.
 I due stimatori possono pertanto essere riscritti introducendo
esplicitamente il tempo di calcolo nelle formule

1/
1
11 ˆ
bt
i
iP
t
b

2/
1
22 ˆ
bt
i
iP
t
b
30
Un Problema di Efficienza
 Per valori sufficientemente alti di t queste due quantità sono normalmente
distribuite con media P e standard deviation
 pertanto per grandi valori di t il primo stimatore sarà preferibile al secondo
se
 l’inverso del prodotto della varianza per il tempo necessario ad eseguire un
singolo run viene indicato in letteratura col nome di efficienza (Hammersley
e Handscomb, 1964).
 Usando l’efficienza come base per il confronto fra diversi stimatori possiamo
concludere che lo stimatore a bassa varianza è preferibile all’altro solo se il
rapporto delle varianza è più piccolo del rapporto fra i tempi di singola
replicazione.
t
b
t
b 2
2
1
1 
2
2
21
2
1 bb  
31
Variabili Antitetiche
 Uno dei metodi più semplici e più utilizzati in campo finanziario per la
riduzione della varianza è senz’altro il metodo delle variabili
antitetiche.
 Consideriamo di nuovo la procedura classica di stima del prezzo di
un’opzione, per semplicità espositiva ci limiteremo ancora al contesto
del modello di Black e Scholes.
 Se si adotta la tecnica della variabile antitetica, in ogni
simulazione si devono determinare due valori.
Il primo valore è quello calcolato nel modo consueto...
... mentre il secondo valore viene calcolato cambiando
segno a tutti i campioni estratti casualmente dalle
distribuzioni normali standardizzate.
32
Variabili Antitetiche
 I due stimatori hanno chiaramente le stesse proprietà
statistiche essendo estratti dallo stesso campione (in
particolare hanno la stessa varianza).
 Il valore campionario del derivato calcolato in ogni
simulazione è la media di questi due valori e la sua varianza è
data da
 
    iii
ii
ii
CCCovCVar
2
1
CCVar
4
1
2
CC
Var
~
,
~
~






 
33
Variabili Antitetiche
 Pertanto
 In questo caso occorre tuttavia tenere presente che questa procedura richiede un
numero di simulazioni doppio rispetto al caso standard per cui è necessario ragionare
in termini di efficienza;
 Se supponiamo che la generazione dei numeri casuali richieda un tempo trascurabile
rispetto al calcolo del prezzo allora possiamo affermare che il tempo impiegato
utilizzando le variabili antitetiche sia all’incirca doppio di quello richiesto nel caso
standard.
 In questo caso il metodo delle variabili antitetiche è preferibile al metodo standard se
si verifica la condizione
)()()()
~
,( imedioiii CVarCVarCVarCCCov 
)()(2 imedio CVarCVar 
34
Variabili Antitetiche
Questa condizione è equivalente a richiedere che
  0
~
, ii CCCov
Verifichiamo se questa condizione è valida.
Indichiamo con  la funzione definita dalla relazione )( ii ZC  ; supponiamo che  sia
la composizione di due funzioni monotone, la prima è quella che lega il valore del
sottostante alla variabile aleatoria Z, la seconda è la funzione che calcola il payoff come
valore massimo fra 0 e la differenza fra il prezzo del sottostante e lo strike price. In
queste condizioni anche  è monotona.
35
Variabili Antitetiche
Utilizzando una disuguaglianza standard possiamo allora verificare che
     )()()()( iiii ZEZEZZE  
da cui segue immediatamente
        0)()()()(
~
,  iiiiii ZEZEZZECCCov 
Quindi il metodo delle variabili antitetiche è più efficiente del metodo standard a patto
che siano verificate le condizioni di monotonicità citate.
Nel caso di payoff non monotoni il metodo non necessariamente fornisce prestazioni
migliori del Monte Carlo standard, anzi, in alcune condizioni i risultati sono
sensibilmente peggiori.
36
Moment Matching
 Il metodo dei momenti (moment matching) comporta l’aggiustamento
dei campioni estratti da una distribuzione normale standardizzata in modo
da assicurare l’uguaglianza tra i momenti campionari (in genere il primo e
il secondo) e i corrispondenti momenti della distribuzione probabilistica.
 Indichiamo con Zi i campioni estratti da una distribuzione normale
usati per calcolare la variazione di valore di una certa variabile in un certo
periodo di tempo. Per assicurare l’uguaglianza dei primi due momenti
calcoliamo la media campionaria m e la deviazione standard campionaria
s. Quindi definiamo nel modo seguente i campioni aggiustati
s
mZ
Z i
i

'
37
Moment Matching
Dim Media As Double
Dim StDev As Double
' vettore di variabili normali standard
Dim z() As Double
' vettore di variabili normali standard con
' moment matching
Dim y() As Double
ReDim z(1 To n) As Double
ReDim y(1 To n) As Double
' generazione del vettore di variabili normali
For i = 1 To n
z(i) = Application.WorksheetFunction.NormSInv(Rnd)
Next
' calcolo di media e standard deviation
Media = Application.WorksheetFunction.Average(z)
StDev = Application.WorksheetFunction.StDev(z)
' matching dei primi due momenti e generazione di y
For i = 1 To n
y(i) = (z(i) - Media) / StDev
Next
38
Campionamento stratificato
 La campionatura stratificata (stratified
sampling) comporta la suddivisione in strati,
o intervalli, della distribuzione probabilistica
sottostante e l’estrazione di campioni da
ciascun intervallo in base alla probabilità che
è ad esso associata.
 Consideriamo, per esempio, la generazione
di 100 variabili distribuite normalmente.
 Il metodo più ovvio di fare ciò consiste nel generare
100 numeri uniformemente distribuiti fra 0 ed 1 e
calcolare per ciascuno di questi la funzione inversa
della distribuzione normale.
 Questo metodo tuttavia produce un risultato che
risulta alquanto scadente poiché le code della
distribuzione saranno sicuramente
sottocampionate
senza campionamento stratificato
0
2
4
6
8
10
12
14
-3
-2.25
-1.5
-0.75
0
0.75
1.5
2.25
3
ClasseFrequenza
39
Campionamento stratificato
 Un metodo alternativo, più efficace,
consiste nel forzare ciascun numero
generato al passo i a cadere
esattamente fra l’ (i-1)-esimo
percentile e l’i-esimo.
 Un modo estremamente semplice per
ottenere questo risultato consiste nel
generare 100 numeri Ui
uniformemente distribuiti in [0, 1 ] e
calcolare*
* I numeri così generati non sono più indipendenti e questo complica la
stima dell’errore e del livello di confidenza. Questo problema è comune a
tutte le tecniche di riduzione della varianza e non viene discusso in
questa introduzione. Il lettore comunque deve essere consapevole della
sua esistenza.





 
 
100
1~ 1 i
i
Ui
NU
con campionamento stratificato
0
2
4
6
8
10
12
-3
-2.25
-1.5
-0.75
0
0.75
1.5
2.25
3
Classe
Frequenza
40
Variabili di Controllo
 Supponiamo che Y1,….,Yn siano gli output di n replicazioni di una simulazione;
 Supponiamo anche che gli Yi siano iid e che il nostro obiettivo sia quello di
stimare E[Yi ];
 Per ogni simulazione calcoliamo adesso un’altra variabile Xi assieme ad Yi, il cui
valore atteso E[X] sia noto;
 A questo punto prendiamo come output dell’i-esima simulazione la quantità
  XEXbYbY iii )(
41
Variabili di Controllo
 … il valore medio è lo stesso della variabile Y
 La nostra variabile X viene detta variabile di controllo;
 L’errore osservabile <X>-E[X] serve come controllo nella stima di
E[Y];
 Tuttavia si può dimostrare che lo stimatore con variabile di controllo
ha una varianza minore dello stimatore originale a patto che
      
i
i
i
ii Y
N
XEXbY
N
XEXbYbY
1
][
1
][)(
XYYX bb  2
42
Variabili di Controllo
 L’efficacia di una variabile di controllo …
 Dipende moltissimo dall’intensità della correlazione fra la variabile da
stimare e la variabile di controllo stessa
 Può variare molto con i parametri del problema!
 Si può dimostrare che per una singola variabile di
controllo il valore ottimale del parametro b*
)var(
),cov(
*
X
YX

43
Opzioni asiatiche
 Le opzioni asiatiche sono opzioni il cui valore finale dipende dalla
media aritmetica dei prezzi dell’attività sottostante, rilevati in date
predeterminate:
average price call:
 Le opzioni asiatiche sono meno care delle opzioni ordinarie in
quanto il calcolo della media diminuisce di fatto la volatilità del
sottostante.
 



m
i
iaverage
average
tS
m
S
ESMax
1
)(
1
0,off-Pay
44
Opzioni asiatiche
 Il problema di gran parte delle opzioni asiatiche è che sono
scritte su medie aritmetiche del sottostante osservato a diverse
date di rilevazione.
 Nel modello di Black e Scholes, in cui la distribuzione dei prezzi
è log-normale, questo crea un problema perché la distribuzione
di probabilità di somme di variabili a distribuzione log-normale
non è nota.
 Tecniche di valutazione:
 Moment matching (Turnbull e Wakeman): la distribuzione della media è
approssimata con una distribuzione log-normale con uguale media e varianza.
 Metodo Monte Carlo: vengono generati scenari per le date di campionamento,
calcolati i pay-off per ogni sentiero e ne viene calcolata la media
45
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
 Se si assume che il prezzo dell’attività sottostante, S, sia distribuito in modo
log-normale e che Save sia una media geometrica degli S, possiamo
utilizzare delle formule analitiche per valutare le opzioni asiatiche di tipo
europeo.
 Ciò dipende dal fatto che la media geometrica di un insieme di variabili
distribuite in modo log-normale è anch’essa log-normale.
 Si può dimostrare che in un mondo neutrale verso il rischio il prezzo di
un’opzione asiatica scritta su una media geometrica calcolata su m periodi
temporalmente equidistanziati...
m
m
j
t j
SG
/1
1








 












 )()(
2
1
exp)exp( 21
2
dKNdNrTC GGG 
è pari a ...
46
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
 dove
  mTh
hT
qrSG /
22
1
ln 2
0 







 
m
mm
hG
6
)1)(12(22 
 
G
GG K
d

 2
1
)ln( 

Gdd  12
47
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
Nella simulazione Monte Carlo standard il prezzo dell’opzione
viene calcolato come
  niKAEeC irTi
,,1,)0,max( )()(
 
dove A(i)
è la media aritmetica discreta campionata


m
j
t
ii
jS
m
A
1
)()( 1
calcolata su un insieme discreto di punti
mjt
m
T
hhtt jj ,,2,1,0,, 01  
ed n è il numero di simulazioni. Questo porta allo stimatore


n
i
i
C
n
C
1
)(1ˆ
48
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
Utilizzando il metodo della variabile di controllo oltre alle
variabili descritte sopra dobbiamo calcolare la media
geometrica per ogni simulazione
m
m
j
i
t
i
j
SG
/1
1
)()(








 
e il valore campionato dell’opzione asiatica a media geometrica
)0,max()exp( )()(
KGrTC ii
G 
Questa volta però utilizzeremo lo stimatore


n
i
G
i
G
i
CCC
n
C
1
)()(
)(
1ˆ
49
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
0,00
5,00
10,00
15,00
20,00
25,00
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
Volatilità Sottostante
Asiatica Aritmetica
Europea Black & Scholes
Asiatica Geometrica
50
0,00
5,00
10,00
15,00
20,00
25,00
30,00
35,00
0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0
Tempo a Scadenza
Asiatica Aritmetica
Europea Black & Scholes
Asiatica Geometrica
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
51
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
0,0000
0,1000
0,2000
0,3000
0,4000
0,5000
0,6000
0,7000
0,8000
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
Volatilità Sottostante
MC Standard MC Controllo MC Antithetic
52
Variabile di Controllo
Applicazione al Pricing di un’Opzione Asiatica
0,0000
0,1000
0,2000
0,3000
0,4000
0,5000
0,6000
0,7000
0,8000
0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0
Tempo a Scadenza
MC Standard MC Controllo
MC Antithetic
53
Stima della Sensitività
54
Greek Letters: Differenze Finite
 Consideriamo il problema legato al calcolo del Delta di un’opzione
europea
 Un approccio diretto al problema può consistere nella generazione di
due prezzi finali, il primo
a partire dal valore S0 , e il secondo a partire dal valore perturbato S0 +

0S
C



ZTTr
T eSS  
 )2/(
0
2
')2/(
0
2
)( ZTTr
T eSS 
 

Z e Z’ sono due estrazioni indipendenti da una
normale standard
55
Greek Letters
 Per ogni valore del prezzo finale possiamo poi calcolare il valore
dell’opzione corrispondente
  ),0max(0 KSeSC T
rT
 
  ))(,0max(0 KSeSC T
rT
 

   

 00~ SCSC 

56
Greek Letters
 Problema
 Poiché i valori per ST e ST() sono generati indipendentemente l’uno
dall’altro la varianza di delta diverge al diminuire del valore di .
 Per ottenere uno stimatore che converga verso il valore effettivo del
Delta occorre diminuire in maniera graduale (e lenta) il valore di 
all’aumentare di n. Complessivamente questo rallenta la velocità di
convergenza fino a livelli del tutto inaccettabili.
       )()()(
~ 2
00
2 
  OSCVarSCVarVar
57
Greek Letters
 Una stima migliore può essere ottenuta utilizzando il metodo dei
Numeri Casuali Comuni (Common Random Numbers) che nella
fattispecie si traduce nell’utilizzare lo stesso numero casuale Z sia nel
calcolo di S0 che di S0 + .
 Se denotiamo con ^ la stima del Delta così calcolata; per un valore di
 fissato, la media di un campione di repliche indipendenti di ^
converge al valore effettivo di Delta ma il calcolo della varianza ora
fornisce un valore diverso in quanto C(S0) e C(S0 + ) non sono più
indipendenti
    )1(00
O
SCSC
Var 


 


Cov > 0
        )(),(2)()(ˆ
0000
2
  
SCSCCovSCVarSCVarVar
58
Simulazioni Multivariate
59
Opzioni multivariate
 Basket: il valore del sottostante è calcolato con una
media ponderata di un insieme di titoli
 Rainbow: utilizzano funzioni diverse per il calcolo del
pay-off:
 opzioni sul massimo o sul minimo di un paniere dei titoli (option
on the max/min)
 opzioni che consentono di scambiare un’attività finanziaria con
un’altra (exchange option),
 opzioni scritte sulla differenza di valori tra due sottostanti
(spread option),
 opzioni con strike diversi per ogni titolo del paniere (multi-
strike).
60
Opzioni basket
 Per le opzioni basket si pone lo stesso problema che
per le opzioni asiatiche. Da un lato se la media del
basket fosse geometrica l’opzione potrebbe essere
prezzata utilizzando la formula di Black e Scholes
(medie geometriche di variabili log-normali sono log-
normali). Dall’altro in gran parte dei casi si utilizzano
medie aritmetiche, nel qual caso la non ne conosciamo
la distribuzione.
 Anche in questo caso le alternative sono due
 Moment matching
 Simulazione Monte Carlo
61
Misure di co-dipendenza
 Distribuzioni Marginali
 Data la distribuzione congiunta di due variabili x ed y la
funzione di densità marginale di x è definita come
 E, analogamente,

)(
),()(
yD
x dyyxx 

)(
),()(
xD
y dxyxy 
62
Misure di co-dipendenza
 Indipendenza
 Due variabili x ed y si dicono indipendenti se la loro
funzione densità congiunta si fattorizza nel prodotto
delle densità marginali
)()(),(, yxyxtiindipendenyx yx  
63
 Correlazione Lineare
 Ricordiamo la definizione di correlazione lineare tra due
variabili x ed y
Misure di co-dipendenza
   2
2
2
2
,
)()()()(
)()(),(
)()(
),cov(
  
 




dyyydyyydxxxdxxx
dyyydxxxdxdyyxxy
yx
yx
yyxx
yx
yx




64
 Correlazione Lineare
 Spesso si ritiene che la conoscenza del coefficiente di
correlazione lineare unitamente alla specificazione delle
distribuzioni marginali, permetta di determinare la distribuzione
di probabilità congiunta.
 In realtà questo è vero solo per certe classi di distribuzioni tra
cui la distribuzione normale.
 In generale quindi l’inferenza
Non è valida
Misure di co-dipendenza
),(),(),( , yxyx yxyx  
65
 Oltre l’indice di correlazione lineare
 La correlazione lineare è un buona misura di co-dipendenza per variabili
normali. Per distribuzioni che non sia allontanano troppo dalla “normalità”
continua a fornire indicazioni utili ma all’allontanarsi da queste condizioni
(in molti casi soltanto ideali) l’indice di correlazione lineare fornisce risultati
sempre più fuorvianti!
 L’indice di correlazione lineare non è invariante rispetto a trasformazioni
non lineari delle variabili.
A differenza degli stimatori non-parametrici, l’indice di correlazione lineare
può non coprire l’intero range da – 1 a + 1, rendendo problematica
l’interpretazione del grado di dipendenza
Misure di co-dipendenza
66
 Rho di Sperman
 Questo indice è definito come coefficiente di correlazione lineare fra le
funzioni di distribuzione delle due variabili. In altre parole, date due
variabili x ed y e le loro distribuzioni marginali, calcoliamo prima di tutto le
distribuzioni marginali cumulate
 Utilizzando due semplici risultati …
Misure di co-dipendenza
 

y
yy
x
xx dydx  )(:)()(:)(
   
1
0
22
1
0
3
1
)()(,
2
1
)()( duudxxxududxxx xxx x

67
 Rho di Sperman
 … possiamo scrivere
 Tau di Kendal
Misure di co-dipendenza
  3),()()(12 dxdyyxyx yxS 
  1),(),(4 dxdyyxyxK 
68
Misure di co-dipendenza
 Il tau di Kendal e il Rho di Sperman appartengono alla
categoria delle cosiddette rank correlation ;
 Sono invarianti per un’ampia tipologia di trasformazione
delle variabili;
 Questo tipo di indicatori, a differenza del coefficiente di
correlazione lineare, ha la proprietà che date due
distribuzioni marginali esiste sempre una distribuzione
congiunta per ogni valore dell’indice compreso
nell’intervallo [-1, 1].
69
Variabili Normali Multivariate
 Cholescky Decomposition
 Indichiamo con X un vettore di variabili aleatorie indipendenti ciascuna delle
quali distribuita secondo una normale standard, la matrice di varianza-
covarianza di X sarà pertanto data dalla matrice unità di dimensione n  n.
Supponiamo di voler derivare da questo insieme di variabili un secondo set
di variabili, che indicheremo con Y, non più indipendenti bensì dotato di
matrice di varianza-covarianza assegnata .
 Il nuovo insieme di variabili aleatorie può essere ricercato come
combinazione lineare delle variabili indipendenti , cioè si pone
 Il problema si riconduce così alla determinazione di una matrice A di
dimensione n n tale che
AXY 
t
AA
70
 
 


 
 














N
j
N
j kj
kjikijjij
N
j kj
kjikij
N
j
jijii
N
j
jiji
N
j
jiji
ij
jij
ii
axxaaxa
xxaaxa
xayyyy
xayxay
1
2
1
22
1
22
2
1
2222
11
2
2
)(
0

Variabili Normali Multivariate
1)(22
 jj xx 
AXY 
0),cov(  kjkj xxxx
71
 Cholescky Decomposition
 La soluzione della precedente equazione non è unica nel senso che
esistono più matrici A che, moltiplicate per la loro trasposta, danno
come risultato . Se la matrice  è definita positiva il metodo più
efficiente dal punto di vista computazionale per risolvere il problema
consiste nell’applicazione della scomposizione di Cholescky.















nnnn AAA
AA
A
A




21
2221
11
0
00
Variabili Normali Multivariate
 Il punto chiave di tale
metodologia consiste nel
ricercare A nella forma di una
matrice triangolare inferiore,
ovvero una matrice in cui tutti gli
elementi sopra la diagonale
sono nulli,
72
 Cholescky Decomposition
 Sviluppando il prodotto AAt in componenti è facile verificare che gli elementi
di A sono ricavabili dalle seguenti formule iterative
 Ad esempio per il caso semplice di due variabili troviamo




1
1
2
i
k
ikiiii aa  





 


1
1
1 i
k
jkikij
ii
ji aa
a
a 









 2
22
1
1
0


A
Variabili Normali Multivariate
73
Il Condizionamento della Matrice di Varianza e Covarianza
 Può accadere, specialmente quando si lavora con problemi ad elevata
dimensionalità, che la matrice di correlazione non risulti semi-definita
positiva;
 In tal caso almeno uno degli autovalori della matrice risulterà negativo.
 Spesso questo fatto è riconducibile alle procedure che hanno portato
alla costruzione della matrice stessa;
 ad esempio è sufficiente avere serie storiche di prezzi non perfettamente allineate
o prezzi registrati a tempi diversi per produrre quasi sicuramente una matrice di
correlazione mal definita.
 In questi casi non è sempre possibile ricostruire la matrice stessa (si
pensi al caso limite in cui la matrice viene scaricata da un provider
esterno come nel caso di RiskMetrics) per cui è necessario disporre di
metodi che possano rimuovere gli autovalori negativi in modo che la
matrice risulti definita positiva col minor impatto possibile sui valori
della matrice stessa.
74
 Una procedura possibile è la seguente
 Calcolare autovalori e autovettori della matrice di correlazione
 Porre gli autovalori negativi uguali a zero;
 Ricostruire la nuova matrice di correlazione;
 L’ultimo passaggio è facilmente realizzabile a partire dalla matrice degli
autovettori E e dalla matrice (diagonale) degli autovalori 
Il Condizionamento della Matrice di Varianza e Covarianza
t
EEC 
E’ molto probabile che la nuova matrice così ottenuta abbia elementi lungo la diagonale diversi da 1. Per questo è
necessario procedere ad una normalizzazione ponendo
dove D1/2 è una matrice diagonale i cui elementi sono le radici quadrate degli elementi diagonali di C.
D
C
D
C
11

75
Funzioni di copula: concetti base
 Una funzione z = C(u,v) è detta copula se e solo se
1. z, u e v sono in [0,1]
2. C(0,v) = C(u,0) = 0, C(1,v) = v, C(u,1) = u
3. C(u2, v2 ) – C(u1, v2 ) – C (u2, v1) – C (u1, v1)  0 per tutti i valori u2 >
u1 e v2 > v1
 Teorema di Sklar
 Ogni distribuzione congiunta può essere scritta come una funzione di
copula che abbia le distribuzioni marginali come argomenti e qualsiasi
funzione di copula che abbia distribuzioni come argomenti è una
distribuzione congiunta
76
 Possiamo quindi scrivere
 L’utilizzo delle funzioni di copula consente di specificare
separatamente le distribuzioni marginali delle variabili e la loro
struttura di dipendenza
 Le funzioni di copula sono legate alle statistiche non-parametriche di
dipendenza, ad esempio il  di Kendall o il  di Spearman.
Funzioni di copula: concetti base
 )(),(),( yxCyx yx 
77
Copule
0.00
0.20
0.40
0.60
0.80
1.00
S1
S4
S7
S10
0.00
0.20
0.40
0.60
0.80
1.00
Copula Massima
78
Copule
0.00
0.20
0.40
0.60
0.80
1.00
S1
S6
S11
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
Copula Minima
79
Copule
0.00
0.20
0.40
0.60
0.80
1.00
S1
S5
S9
0.00
0.20
0.40
0.60
0.80
1.00
Copula Prodotto
80
Algoritmi per la modellazione della dipendenza
La copula gaussiana
Calcolo della pseudo-radice di R
A: R=AAT
INPUT
 n funzioni di densità marginali
 matrice di correlazione R
 )(,),(),()( 2211 nxnxxx xxxx  


Generazione di n variabili normali
standard non correlate
z
Da z si ricava un vettore di variabili v
uniformemente distribuite fra 0 ed 1
ponendo
vi = N(z’i)
Introduzione della correlazione
z’ = Az
Calcolo del vettore x utilizzando la
distribuzione cumulativa inversa
marginale
)(1
1 ixi vx 

END
START
 L’algoritmo si riassume nei seguenti passi
 generare un vettore di variabili normali con
correlazione assegnata;
 Trasformare tali variabili in variabili con distribuzione
uniforme in [0, 1] utilizzando la funzione comulata
della normale;
 Utilizzare queste variabili come base per generare il
vettore x, secondo il metodo della trasformazione
inversa utilizzando come funzioni di trasformazione
le inverse delle comulate marginali specificate in
input.
 E’ importante ricordare che i coefficienti di
correlazione che controllano la copula
gaussiana, e che vengono utilizzati
nell’algoritmo descritto a lato, possono essere
molto diversi dalla correlazione lineare
81
Algoritmi per la modellazione
della dipendenza
La copula t Calcolo della pseudo-radice di R
A: R=AAT
INPUT
 n funzioni di densità marginali
 matrice di correlazione R
Generazione di n variabili normali
standard non correlate
z
Introduzione della correlazione
z’ = Az
START
Generare una variabile, s, distribuita
secondo una chi-quadro con n gradi
di libertà. Per n intero questo può
essere ottenuto semplicemente
generando n variabili normali
indipendenti e sommando i loro
quadrati.
Da y si ricava un vettore di variabili v
uniformemente distribuite fra 0 ed 1
utilizzando la funzione di probabilità
comulativa della t di Student
Porre
z
s
n
y


Calcolo del vettore x utilizzando la
distribuzione cumulativa inversa
marginale
)(1
1 ixi vx 

END

Weitere ähnliche Inhalte

Was ist angesagt?

Introduction to Approximation Algorithms
Introduction to Approximation AlgorithmsIntroduction to Approximation Algorithms
Introduction to Approximation AlgorithmsJhoirene Clemente
 
Markov chain intro
Markov chain introMarkov chain intro
Markov chain intro2vikasdubey
 
2-Approximation Vertex Cover
2-Approximation Vertex Cover2-Approximation Vertex Cover
2-Approximation Vertex CoverKowshik Roy
 
1 entropie-capacite theorie de l'information
1 entropie-capacite theorie de l'information1 entropie-capacite theorie de l'information
1 entropie-capacite theorie de l'informationAbdou Obado
 
Markov Chain Monte Carlo explained
Markov Chain Monte Carlo explainedMarkov Chain Monte Carlo explained
Markov Chain Monte Carlo explaineddariodigiuni
 
魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~
魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~
魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~MrUnadon
 
Monte Carlo Tree Search for the Super Mario Bros
Monte Carlo Tree Search for the Super Mario BrosMonte Carlo Tree Search for the Super Mario Bros
Monte Carlo Tree Search for the Super Mario BrosChih-Sheng Lin
 
Equações do 2.º grau soluções
Equações do 2.º grau  soluçõesEquações do 2.º grau  soluções
Equações do 2.º grau soluçõesaldaalves
 
Convex Hull Algorithm Analysis
Convex Hull Algorithm AnalysisConvex Hull Algorithm Analysis
Convex Hull Algorithm AnalysisRex Yuan
 
Chapitre 4 heuristiques et méta heuristiques
Chapitre 4 heuristiques et méta heuristiquesChapitre 4 heuristiques et méta heuristiques
Chapitre 4 heuristiques et méta heuristiquesSana Aroussi
 
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...Soumia Elyakote HERMA
 
Integral Indefinida E Definida
Integral Indefinida E DefinidaIntegral Indefinida E Definida
Integral Indefinida E Definidaeducacao f
 
Algorithme de colonies de fourmis pres.pptx
Algorithme de colonies de fourmis pres.pptxAlgorithme de colonies de fourmis pres.pptx
Algorithme de colonies de fourmis pres.pptxIBRAHIM ESSAKINE
 
Aula 10 profmat - congruencias lineares e quadraticas - 10 11-17
Aula 10   profmat - congruencias lineares e quadraticas - 10 11-17Aula 10   profmat - congruencias lineares e quadraticas - 10 11-17
Aula 10 profmat - congruencias lineares e quadraticas - 10 11-17Aline Guedes
 
Theorie des graphes_EMSI 2023.pptx
Theorie des graphes_EMSI 2023.pptxTheorie des graphes_EMSI 2023.pptx
Theorie des graphes_EMSI 2023.pptxoujeddimustapha
 

Was ist angesagt? (20)

Introduction to Approximation Algorithms
Introduction to Approximation AlgorithmsIntroduction to Approximation Algorithms
Introduction to Approximation Algorithms
 
Markov chain intro
Markov chain introMarkov chain intro
Markov chain intro
 
2-Approximation Vertex Cover
2-Approximation Vertex Cover2-Approximation Vertex Cover
2-Approximation Vertex Cover
 
1 entropie-capacite theorie de l'information
1 entropie-capacite theorie de l'information1 entropie-capacite theorie de l'information
1 entropie-capacite theorie de l'information
 
PRML11章
PRML11章PRML11章
PRML11章
 
Markov Chain Monte Carlo explained
Markov Chain Monte Carlo explainedMarkov Chain Monte Carlo explained
Markov Chain Monte Carlo explained
 
RSA without Padding
RSA without PaddingRSA without Padding
RSA without Padding
 
魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~
魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~
魅せる・際立つ・役立つグラフ Hands on!! ggplot2!! ~導入編~
 
Monte Carlo Tree Search for the Super Mario Bros
Monte Carlo Tree Search for the Super Mario BrosMonte Carlo Tree Search for the Super Mario Bros
Monte Carlo Tree Search for the Super Mario Bros
 
Equações do 2.º grau soluções
Equações do 2.º grau  soluçõesEquações do 2.º grau  soluções
Equações do 2.º grau soluções
 
Solucionario 01 int_geo_analitica
Solucionario 01 int_geo_analiticaSolucionario 01 int_geo_analitica
Solucionario 01 int_geo_analitica
 
Markov process
Markov processMarkov process
Markov process
 
Convex Hull Algorithm Analysis
Convex Hull Algorithm AnalysisConvex Hull Algorithm Analysis
Convex Hull Algorithm Analysis
 
Chapitre 4 heuristiques et méta heuristiques
Chapitre 4 heuristiques et méta heuristiquesChapitre 4 heuristiques et méta heuristiques
Chapitre 4 heuristiques et méta heuristiques
 
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
L'impact des incriments des séquences de tri Shell. Expérimentation des séque...
 
08 - Progressões
08 - Progressões08 - Progressões
08 - Progressões
 
Integral Indefinida E Definida
Integral Indefinida E DefinidaIntegral Indefinida E Definida
Integral Indefinida E Definida
 
Algorithme de colonies de fourmis pres.pptx
Algorithme de colonies de fourmis pres.pptxAlgorithme de colonies de fourmis pres.pptx
Algorithme de colonies de fourmis pres.pptx
 
Aula 10 profmat - congruencias lineares e quadraticas - 10 11-17
Aula 10   profmat - congruencias lineares e quadraticas - 10 11-17Aula 10   profmat - congruencias lineares e quadraticas - 10 11-17
Aula 10 profmat - congruencias lineares e quadraticas - 10 11-17
 
Theorie des graphes_EMSI 2023.pptx
Theorie des graphes_EMSI 2023.pptxTheorie des graphes_EMSI 2023.pptx
Theorie des graphes_EMSI 2023.pptx
 

Andere mochten auch

Workshop 2013 of Quantitative Finance
Workshop 2013 of Quantitative FinanceWorkshop 2013 of Quantitative Finance
Workshop 2013 of Quantitative FinanceMario Dell'Era
 
The comparative study of finite difference method and monte carlo method for ...
The comparative study of finite difference method and monte carlo method for ...The comparative study of finite difference method and monte carlo method for ...
The comparative study of finite difference method and monte carlo method for ...Alexander Decker
 
Workshop 2012 of Quantitative Finance
Workshop 2012 of Quantitative FinanceWorkshop 2012 of Quantitative Finance
Workshop 2012 of Quantitative FinanceMario Dell'Era
 
Workshop 2011 of Quantitative Finance
Workshop 2011 of Quantitative FinanceWorkshop 2011 of Quantitative Finance
Workshop 2011 of Quantitative FinanceMario Dell'Era
 
Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...
Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...
Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...Abimbola Ashaju
 
Duration and Convexity
Duration and ConvexityDuration and Convexity
Duration and ConvexityMario Dell'Era
 
Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...
Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...
Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...Alexandre Bon
 
Dec2016 - Calculating and Managing Environmental Counterparty Risk
Dec2016 - Calculating and Managing Environmental Counterparty RiskDec2016 - Calculating and Managing Environmental Counterparty Risk
Dec2016 - Calculating and Managing Environmental Counterparty RiskJohn Rosengard
 
RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...
RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...
RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...Alexandre Bon
 
Mine the Wine by Andrea Gigli
Mine the Wine by Andrea GigliMine the Wine by Andrea Gigli
Mine the Wine by Andrea GigliAndrea Gigli
 
Long horizon simulations for counterparty risk
Long horizon simulations for counterparty risk Long horizon simulations for counterparty risk
Long horizon simulations for counterparty risk Alexandre Bon
 
From real to risk neutral probability measure for pricing and managing cva
From real to risk neutral probability measure for pricing and managing cvaFrom real to risk neutral probability measure for pricing and managing cva
From real to risk neutral probability measure for pricing and managing cvaAndrea Gigli
 
Lezione 1 - Introduzione al VBA per Excel
Lezione 1 - Introduzione al VBA per ExcelLezione 1 - Introduzione al VBA per Excel
Lezione 1 - Introduzione al VBA per ExcelGiovanni Della Lunga
 
Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)
Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)
Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)Fynn McKay
 

Andere mochten auch (20)

E-QuanT(TimeSeries)
E-QuanT(TimeSeries)E-QuanT(TimeSeries)
E-QuanT(TimeSeries)
 
Workshop 2013 of Quantitative Finance
Workshop 2013 of Quantitative FinanceWorkshop 2013 of Quantitative Finance
Workshop 2013 of Quantitative Finance
 
The comparative study of finite difference method and monte carlo method for ...
The comparative study of finite difference method and monte carlo method for ...The comparative study of finite difference method and monte carlo method for ...
The comparative study of finite difference method and monte carlo method for ...
 
Workshop 2012 of Quantitative Finance
Workshop 2012 of Quantitative FinanceWorkshop 2012 of Quantitative Finance
Workshop 2012 of Quantitative Finance
 
Workshop 2011 of Quantitative Finance
Workshop 2011 of Quantitative FinanceWorkshop 2011 of Quantitative Finance
Workshop 2011 of Quantitative Finance
 
Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...
Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...
Alternating direction-implicit-finite-difference-method-for-transient-2 d-hea...
 
Duration and Convexity
Duration and ConvexityDuration and Convexity
Duration and Convexity
 
American Options with Monte Carlo
American Options with Monte CarloAmerican Options with Monte Carlo
American Options with Monte Carlo
 
Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...
Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...
Global Derivatives 2014 - Did Basel put the final nail in the coffin of CSA D...
 
Dec2016 - Calculating and Managing Environmental Counterparty Risk
Dec2016 - Calculating and Managing Environmental Counterparty RiskDec2016 - Calculating and Managing Environmental Counterparty Risk
Dec2016 - Calculating and Managing Environmental Counterparty Risk
 
RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...
RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...
RiskMinds - Did Basel & IOSCO put the final nail in the coffin of CSA-discoun...
 
Mine the Wine by Andrea Gigli
Mine the Wine by Andrea GigliMine the Wine by Andrea Gigli
Mine the Wine by Andrea Gigli
 
Long horizon simulations for counterparty risk
Long horizon simulations for counterparty risk Long horizon simulations for counterparty risk
Long horizon simulations for counterparty risk
 
Chapter1
Chapter1Chapter1
Chapter1
 
From real to risk neutral probability measure for pricing and managing cva
From real to risk neutral probability measure for pricing and managing cvaFrom real to risk neutral probability measure for pricing and managing cva
From real to risk neutral probability measure for pricing and managing cva
 
Lezione 1 - Introduzione al VBA per Excel
Lezione 1 - Introduzione al VBA per ExcelLezione 1 - Introduzione al VBA per Excel
Lezione 1 - Introduzione al VBA per Excel
 
Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)
Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)
Solution to Black-Scholes P.D.E. via Finite Difference Methods (MatLab)
 
Simulation methods finance_1
Simulation methods finance_1Simulation methods finance_1
Simulation methods finance_1
 
SeminarQF
SeminarQFSeminarQF
SeminarQF
 
Simulation methods finance_2
Simulation methods finance_2Simulation methods finance_2
Simulation methods finance_2
 

Ähnlich wie Metodi numerici

Capitolo 6a elementi di valutazione dei prodotti derivati
Capitolo 6a   elementi di valutazione dei prodotti derivatiCapitolo 6a   elementi di valutazione dei prodotti derivati
Capitolo 6a elementi di valutazione dei prodotti derivatiGiovanni Della Lunga
 
Simulation and analysis of a linear system in MATLAB
Simulation and analysis of a linear system in MATLABSimulation and analysis of a linear system in MATLAB
Simulation and analysis of a linear system in MATLABAlessioSechi
 
Complessita' computazionale
Complessita' computazionaleComplessita' computazionale
Complessita' computazionaleSaraDiLuzio2
 
Esposizione al rischio di controparte
Esposizione al rischio di controparteEsposizione al rischio di controparte
Esposizione al rischio di controparteLucia Schiavon
 
Minimax regret solution to linear programming problems with an interval obje...
Minimax regret solution to linear programming problems with  an interval obje...Minimax regret solution to linear programming problems with  an interval obje...
Minimax regret solution to linear programming problems with an interval obje...NicolasTortora
 
Lezione 4 modelli per la stima del rischio
Lezione 4   modelli per la stima del rischioLezione 4   modelli per la stima del rischio
Lezione 4 modelli per la stima del rischioGiovanni Della Lunga
 
Presentazione integrali con economia, malthus e c14
Presentazione integrali con economia, malthus e c14Presentazione integrali con economia, malthus e c14
Presentazione integrali con economia, malthus e c14francoric
 
Analisi Dei Dati Spaziali Per Il Marketing
Analisi Dei Dati Spaziali Per Il MarketingAnalisi Dei Dati Spaziali Per Il Marketing
Analisi Dei Dati Spaziali Per Il MarketingMarco Cerri
 
Algoritmi e complessità computazionale
Algoritmi e complessità computazionaleAlgoritmi e complessità computazionale
Algoritmi e complessità computazionaleMarco Liverani
 
Algoritmi di ordinamento
Algoritmi di ordinamentoAlgoritmi di ordinamento
Algoritmi di ordinamentoMarco Liverani
 
Appunti di Elaborazione automatica dei dati: il simplesso
Appunti di Elaborazione automatica dei dati: il simplessoAppunti di Elaborazione automatica dei dati: il simplesso
Appunti di Elaborazione automatica dei dati: il simplessoprofman
 
Lezione 2 alberi e differenze finite
Lezione 2   alberi e differenze finiteLezione 2   alberi e differenze finite
Lezione 2 alberi e differenze finiteGiovanni Della Lunga
 
Ecdl modulo 1 -Fondamenti
Ecdl modulo 1 -FondamentiEcdl modulo 1 -Fondamenti
Ecdl modulo 1 -FondamentiAngela Cristina
 
Domain changing and creation of a custom mesh for the resolution of partial d...
Domain changing and creation of a custom mesh for the resolution of partial d...Domain changing and creation of a custom mesh for the resolution of partial d...
Domain changing and creation of a custom mesh for the resolution of partial d...Emanuele Zappia
 

Ähnlich wie Metodi numerici (20)

Capitolo 6a elementi di valutazione dei prodotti derivati
Capitolo 6a   elementi di valutazione dei prodotti derivatiCapitolo 6a   elementi di valutazione dei prodotti derivati
Capitolo 6a elementi di valutazione dei prodotti derivati
 
Il modello Logistico
Il modello LogisticoIl modello Logistico
Il modello Logistico
 
Reti Logic
Reti LogicReti Logic
Reti Logic
 
Simulation and analysis of a linear system in MATLAB
Simulation and analysis of a linear system in MATLABSimulation and analysis of a linear system in MATLAB
Simulation and analysis of a linear system in MATLAB
 
Complessita' computazionale
Complessita' computazionaleComplessita' computazionale
Complessita' computazionale
 
Esposizione al rischio di controparte
Esposizione al rischio di controparteEsposizione al rischio di controparte
Esposizione al rischio di controparte
 
Invarianza di un politopo
Invarianza di un politopoInvarianza di un politopo
Invarianza di un politopo
 
Minimax regret solution to linear programming problems with an interval obje...
Minimax regret solution to linear programming problems with  an interval obje...Minimax regret solution to linear programming problems with  an interval obje...
Minimax regret solution to linear programming problems with an interval obje...
 
Lezione 4 modelli per la stima del rischio
Lezione 4   modelli per la stima del rischioLezione 4   modelli per la stima del rischio
Lezione 4 modelli per la stima del rischio
 
Presentazione integrali con economia, malthus e c14
Presentazione integrali con economia, malthus e c14Presentazione integrali con economia, malthus e c14
Presentazione integrali con economia, malthus e c14
 
Analisi Dei Dati Spaziali Per Il Marketing
Analisi Dei Dati Spaziali Per Il MarketingAnalisi Dei Dati Spaziali Per Il Marketing
Analisi Dei Dati Spaziali Per Il Marketing
 
Algoritmi e complessità computazionale
Algoritmi e complessità computazionaleAlgoritmi e complessità computazionale
Algoritmi e complessità computazionale
 
Algoritmi di ordinamento
Algoritmi di ordinamentoAlgoritmi di ordinamento
Algoritmi di ordinamento
 
Appunti di Elaborazione automatica dei dati: il simplesso
Appunti di Elaborazione automatica dei dati: il simplessoAppunti di Elaborazione automatica dei dati: il simplesso
Appunti di Elaborazione automatica dei dati: il simplesso
 
52df57s
52df57s52df57s
52df57s
 
Presentazione,
Presentazione,Presentazione,
Presentazione,
 
Presentazione
PresentazionePresentazione
Presentazione
 
Lezione 2 alberi e differenze finite
Lezione 2   alberi e differenze finiteLezione 2   alberi e differenze finite
Lezione 2 alberi e differenze finite
 
Ecdl modulo 1 -Fondamenti
Ecdl modulo 1 -FondamentiEcdl modulo 1 -Fondamenti
Ecdl modulo 1 -Fondamenti
 
Domain changing and creation of a custom mesh for the resolution of partial d...
Domain changing and creation of a custom mesh for the resolution of partial d...Domain changing and creation of a custom mesh for the resolution of partial d...
Domain changing and creation of a custom mesh for the resolution of partial d...
 

Mehr von Giovanni Della Lunga (20)

Halloween Conference 2023 - Introduction to Deep Learning
Halloween Conference 2023 - Introduction to Deep LearningHalloween Conference 2023 - Introduction to Deep Learning
Halloween Conference 2023 - Introduction to Deep Learning
 
Excel development e sql 3.9
Excel development e sql   3.9Excel development e sql   3.9
Excel development e sql 3.9
 
Excel development e sql 1.7
Excel development e sql   1.7Excel development e sql   1.7
Excel development e sql 1.7
 
Copule slides
Copule slidesCopule slides
Copule slides
 
Introduction to python programming 2
Introduction to python programming   2Introduction to python programming   2
Introduction to python programming 2
 
Introduction to python programming 1
Introduction to python programming   1Introduction to python programming   1
Introduction to python programming 1
 
Excel development e sql 2.1
Excel development e sql   2.1Excel development e sql   2.1
Excel development e sql 2.1
 
Excel development e sql 1.3
Excel development e sql   1.3Excel development e sql   1.3
Excel development e sql 1.3
 
Cavalcando onde gravitazionali
Cavalcando onde gravitazionaliCavalcando onde gravitazionali
Cavalcando onde gravitazionali
 
Viaggi nel tempo [2015 01 24]
Viaggi nel tempo [2015 01 24]Viaggi nel tempo [2015 01 24]
Viaggi nel tempo [2015 01 24]
 
Universo lato oscuro
Universo lato oscuroUniverso lato oscuro
Universo lato oscuro
 
Breve intro caos
Breve intro caosBreve intro caos
Breve intro caos
 
Fg esercizi 4
Fg esercizi 4Fg esercizi 4
Fg esercizi 4
 
2 magnetismo
2 magnetismo2 magnetismo
2 magnetismo
 
1 elettrostatica
1 elettrostatica1 elettrostatica
1 elettrostatica
 
Fenomeni termici
Fenomeni termiciFenomeni termici
Fenomeni termici
 
1 meccanica fluidi
1 meccanica fluidi1 meccanica fluidi
1 meccanica fluidi
 
1 spazio tempo_movimento
1 spazio tempo_movimento1 spazio tempo_movimento
1 spazio tempo_movimento
 
2 principi dinamica
2 principi dinamica2 principi dinamica
2 principi dinamica
 
3 energia
3 energia3 energia
3 energia
 

Kürzlich hochgeladen

Descrizione Piccolo teorema di Talete.pptx
Descrizione Piccolo teorema di Talete.pptxDescrizione Piccolo teorema di Talete.pptx
Descrizione Piccolo teorema di Talete.pptxtecongo2007
 
Presentazioni Efficaci e lezioni di Educazione Civica
Presentazioni Efficaci e lezioni di Educazione CivicaPresentazioni Efficaci e lezioni di Educazione Civica
Presentazioni Efficaci e lezioni di Educazione CivicaSalvatore Cianciabella
 
Quadrilateri e isometrie studente di liceo
Quadrilateri e isometrie studente di liceoQuadrilateri e isometrie studente di liceo
Quadrilateri e isometrie studente di liceoyanmeng831
 
Lorenzo D'Emidio_Francesco Petrarca.pptx
Lorenzo D'Emidio_Francesco Petrarca.pptxLorenzo D'Emidio_Francesco Petrarca.pptx
Lorenzo D'Emidio_Francesco Petrarca.pptxlorenzodemidio01
 
Confronto tra Sparta e Atene classiche.ppt
Confronto tra Sparta e Atene classiche.pptConfronto tra Sparta e Atene classiche.ppt
Confronto tra Sparta e Atene classiche.pptcarlottagalassi
 
descrizioni della antica civiltà dei sumeri.pptx
descrizioni della antica civiltà dei sumeri.pptxdescrizioni della antica civiltà dei sumeri.pptx
descrizioni della antica civiltà dei sumeri.pptxtecongo2007
 
Aristotele, vita e opere e fisica...pptx
Aristotele, vita e opere e fisica...pptxAristotele, vita e opere e fisica...pptx
Aristotele, vita e opere e fisica...pptxtecongo2007
 
Oppressi_oppressori.pptx................
Oppressi_oppressori.pptx................Oppressi_oppressori.pptx................
Oppressi_oppressori.pptx................giorgiadeascaniis59
 
Lorenzo D'Emidio_Vita di Cristoforo Colombo.pptx
Lorenzo D'Emidio_Vita di Cristoforo Colombo.pptxLorenzo D'Emidio_Vita di Cristoforo Colombo.pptx
Lorenzo D'Emidio_Vita di Cristoforo Colombo.pptxlorenzodemidio01
 
Lorenzo D'Emidio_Vita e opere di Aristotele.pptx
Lorenzo D'Emidio_Vita e opere di Aristotele.pptxLorenzo D'Emidio_Vita e opere di Aristotele.pptx
Lorenzo D'Emidio_Vita e opere di Aristotele.pptxlorenzodemidio01
 
Scienza Potere Puntoaaaaaaaaaaaaaaa.pptx
Scienza Potere Puntoaaaaaaaaaaaaaaa.pptxScienza Potere Puntoaaaaaaaaaaaaaaa.pptx
Scienza Potere Puntoaaaaaaaaaaaaaaa.pptxlorenzodemidio01
 
LE ALGHE.pptx ..........................
LE ALGHE.pptx ..........................LE ALGHE.pptx ..........................
LE ALGHE.pptx ..........................giorgiadeascaniis59
 
Nicola pisano aaaaaaaaaaaaaaaaaa(1).pptx
Nicola pisano aaaaaaaaaaaaaaaaaa(1).pptxNicola pisano aaaaaaaaaaaaaaaaaa(1).pptx
Nicola pisano aaaaaaaaaaaaaaaaaa(1).pptxlorenzodemidio01
 
case passive_GiorgiaDeAscaniis.pptx.....
case passive_GiorgiaDeAscaniis.pptx.....case passive_GiorgiaDeAscaniis.pptx.....
case passive_GiorgiaDeAscaniis.pptx.....giorgiadeascaniis59
 
Tosone Christian_Steve Jobsaaaaaaaa.pptx
Tosone Christian_Steve Jobsaaaaaaaa.pptxTosone Christian_Steve Jobsaaaaaaaa.pptx
Tosone Christian_Steve Jobsaaaaaaaa.pptxlorenzodemidio01
 
Lorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptx
Lorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptxLorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptx
Lorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptxlorenzodemidio01
 
Vuoi girare il mondo? educazione civica.
Vuoi girare il mondo? educazione civica.Vuoi girare il mondo? educazione civica.
Vuoi girare il mondo? educazione civica.camillaorlando17
 
discorso generale sulla fisica e le discipline.pptx
discorso generale sulla fisica e le discipline.pptxdiscorso generale sulla fisica e le discipline.pptx
discorso generale sulla fisica e le discipline.pptxtecongo2007
 
Scrittura seo e scrittura accessibile
Scrittura seo e scrittura accessibileScrittura seo e scrittura accessibile
Scrittura seo e scrittura accessibileNicola Rabbi
 

Kürzlich hochgeladen (19)

Descrizione Piccolo teorema di Talete.pptx
Descrizione Piccolo teorema di Talete.pptxDescrizione Piccolo teorema di Talete.pptx
Descrizione Piccolo teorema di Talete.pptx
 
Presentazioni Efficaci e lezioni di Educazione Civica
Presentazioni Efficaci e lezioni di Educazione CivicaPresentazioni Efficaci e lezioni di Educazione Civica
Presentazioni Efficaci e lezioni di Educazione Civica
 
Quadrilateri e isometrie studente di liceo
Quadrilateri e isometrie studente di liceoQuadrilateri e isometrie studente di liceo
Quadrilateri e isometrie studente di liceo
 
Lorenzo D'Emidio_Francesco Petrarca.pptx
Lorenzo D'Emidio_Francesco Petrarca.pptxLorenzo D'Emidio_Francesco Petrarca.pptx
Lorenzo D'Emidio_Francesco Petrarca.pptx
 
Confronto tra Sparta e Atene classiche.ppt
Confronto tra Sparta e Atene classiche.pptConfronto tra Sparta e Atene classiche.ppt
Confronto tra Sparta e Atene classiche.ppt
 
descrizioni della antica civiltà dei sumeri.pptx
descrizioni della antica civiltà dei sumeri.pptxdescrizioni della antica civiltà dei sumeri.pptx
descrizioni della antica civiltà dei sumeri.pptx
 
Aristotele, vita e opere e fisica...pptx
Aristotele, vita e opere e fisica...pptxAristotele, vita e opere e fisica...pptx
Aristotele, vita e opere e fisica...pptx
 
Oppressi_oppressori.pptx................
Oppressi_oppressori.pptx................Oppressi_oppressori.pptx................
Oppressi_oppressori.pptx................
 
Lorenzo D'Emidio_Vita di Cristoforo Colombo.pptx
Lorenzo D'Emidio_Vita di Cristoforo Colombo.pptxLorenzo D'Emidio_Vita di Cristoforo Colombo.pptx
Lorenzo D'Emidio_Vita di Cristoforo Colombo.pptx
 
Lorenzo D'Emidio_Vita e opere di Aristotele.pptx
Lorenzo D'Emidio_Vita e opere di Aristotele.pptxLorenzo D'Emidio_Vita e opere di Aristotele.pptx
Lorenzo D'Emidio_Vita e opere di Aristotele.pptx
 
Scienza Potere Puntoaaaaaaaaaaaaaaa.pptx
Scienza Potere Puntoaaaaaaaaaaaaaaa.pptxScienza Potere Puntoaaaaaaaaaaaaaaa.pptx
Scienza Potere Puntoaaaaaaaaaaaaaaa.pptx
 
LE ALGHE.pptx ..........................
LE ALGHE.pptx ..........................LE ALGHE.pptx ..........................
LE ALGHE.pptx ..........................
 
Nicola pisano aaaaaaaaaaaaaaaaaa(1).pptx
Nicola pisano aaaaaaaaaaaaaaaaaa(1).pptxNicola pisano aaaaaaaaaaaaaaaaaa(1).pptx
Nicola pisano aaaaaaaaaaaaaaaaaa(1).pptx
 
case passive_GiorgiaDeAscaniis.pptx.....
case passive_GiorgiaDeAscaniis.pptx.....case passive_GiorgiaDeAscaniis.pptx.....
case passive_GiorgiaDeAscaniis.pptx.....
 
Tosone Christian_Steve Jobsaaaaaaaa.pptx
Tosone Christian_Steve Jobsaaaaaaaa.pptxTosone Christian_Steve Jobsaaaaaaaa.pptx
Tosone Christian_Steve Jobsaaaaaaaa.pptx
 
Lorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptx
Lorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptxLorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptx
Lorenzo D'Emidio- Lavoro sulla Bioarchittetura.pptx
 
Vuoi girare il mondo? educazione civica.
Vuoi girare il mondo? educazione civica.Vuoi girare il mondo? educazione civica.
Vuoi girare il mondo? educazione civica.
 
discorso generale sulla fisica e le discipline.pptx
discorso generale sulla fisica e le discipline.pptxdiscorso generale sulla fisica e le discipline.pptx
discorso generale sulla fisica e le discipline.pptx
 
Scrittura seo e scrittura accessibile
Scrittura seo e scrittura accessibileScrittura seo e scrittura accessibile
Scrittura seo e scrittura accessibile
 

Metodi numerici

  • 1. 1 Metodi Numerici per la Valutazione di Attività Finanziarie
  • 3. 3 Il metodo Monte Carlo  Il metodo Monte Carlo (MC nel seguito) è una tecnica basata sulla simulazione di un numero elevato di possibili scenari rappresentativi dell’evoluzione futura delle variabili di rischio da cui dipende il valore di una generica attività finanziaria;  Infatti tale tecnica si basa sull’idea di approssimare il valore atteso di una determinata funzione finanziaria calcolando la media aritmetica dei diversi risultati ottenuti dalle simulazioni effettuate sul possibile andamento futuro delle variabili da cui essa dipende.
  • 4. 4 Il metodo Monte Carlo  Esempio: Calcolo del prezzo di strumenti derivati.  Indicando con fT il valore dell’opzione stessa alla scadenza T, il valore ad oggi, f, sarà dato da essendo Ê il valore di aspettazione rispetto alla misura risk-neutral ed r il tasso di interesse che assumiamo per semplicità costante nel tempo;  L’idea guida del metodo MC consiste nello stimare tale valore attraverso la simulazione dei possibili valori assunti nel corso del tempo dalle variabili sottostanti, di cui il prezzo del derivato è funzione;  Tramite il calcolo di un insieme sufficientemente ampio di possibili valori finali possiamo poi stimare il nostro integrale come media aritmetica di tali valori.   T rT fEef ˆ 
  • 5. 5 Il metodo Monte Carlo  Metodo Monte Carlo e Integrazione  L’idea di base del metodo è del tutto generale;  Un’estrazione da un campione di numeri casuali può essere utilizzata come stimatore di un integrale  1 0 )( dxxfI Questa espressione può essere interpretata come il valore di aspettazione della funzione f di una variabile aleatoria a valori uniformemente distribuiti nell’intervallo [0, 1]
  • 6. 6 Il metodo Monte Carlo  Spiegazione dell’affermazione precedente  Il valore di aspettazione di una funzione di una generica variabile aleatoria con densità g(x) e dominio di valori in  è dato da  Se consideriamo una variabile x uniformemente distribuita in [0,1] otteniamo   dxxgxfxfE )()()]([          1 0 )()()()]([ ]1,0[1 ]1,0[0 )( dxxfdxxgxfxfE xse xse xg
  • 7. 7 Il metodo Monte Carlo  Diventa così possibile stimare il valore del nostro integrale tramite una media aritmetica di n valori di f(xi) dove ciascun xi rappresenta un campione estratto da una distribuzione uniforme in [0, 1]. In altre parole possiamo affermare che la quantità   n i in xf n I 1 )( 1~  rappresenta uno stimatore non distorto di I. La varianza di questa stima risulta pari a:   n dxIxf n xf n xf n I n i i n i in 21 0 2 1 2 1 )( 1 )(var 1 )( 1 var) ~ var(                
  • 8. 8 Il metodo Monte Carlo  Il fondamento statistico del metodo MC è rappresentato dal teorema del limite centrale;  secondo questo teorema la somma di n variabili casuali indipendenti e identicamente distribuite segue approssimativamente una normale con media  e varianza tendente a zero per n crescente.
  • 9. 9 Il metodo Monte Carlo  Formalmente: sia X1, ..., Xn una successione di variabili aleatorie indipendenti e identicamente distribuite con  Abbiamo  Cioè Sn si distribuisce normalmente con media  e varianza 2/n. 2 )(,)(   XVarXE         n i in n NX n S 1 2 , 1  
  • 10. 10 Il metodo Monte Carlo  l’errore quadratico medio dello stimatore, che può essere interpretato come l’errore quadratico medio della simulazione Monte Carlo, decresce all’aumentare di n come  Questo risultato risulta del tutto indipendente dalla dimensione del problema.  E’ proprio quest’ultima caratteristica che rende attraente il metodo Monte Carlo per la risoluzione di problemi con un numero elevato di dimensioni. In questo caso tipicamente il metodo Monte Carlo risulta convergere verso il valore finale più velocemente dei metodi numerici tradizionali in cui il numero di iterazioni per raggiungere un’approssimazione prefissata cresce con l’aumentare del numero di dimensioni. n/1
  • 11. 11 Il metodo Monte Carlo 3.8 3.9 4 4.1 4.2 4.3 4.4 4.5 4.6 0 5000 10000 15000 20000 25000 30000 35000 40000 45000 50000 Monte Carlo Standard Black & Scholes
  • 12. 12 Il metodo Monte Carlo  Passando dal problema generale al caso più specifico della determinazione del valore delle opzioni, si consideri il processo di pricing di un’opzione call di tipo europeo;  Il punto di partenza consiste nella definizione del processo dinamico seguito dal sottostante;  Nel caso dei derivati su indici azionari o su azioni è comune assumere che il sottostante segua un processo di tipo geometrico browniano.
  • 13. 13 SdwSdtdS   dwdtSd           2 )ln( 2 Lemma di Ito tzt 2S S SSS 2 0 0          ln)ln()ln()ln( Un processo per i prezzi azionari
  • 14. 14 tzt 2S S 2 0          ln              tzt 2 SS 2 0   exp Un processo per i prezzi azionari Nota: In queste formule z rappresenta una variabile aleatoria estratta da una distribuzione normale standard N(0,1).
  • 15. 15 Un processo per i prezzi azionari Processi per il Sottostante Generazione Scenari Distribuzione probabilistica dei premi Calcolo della media e dell’errore
  • 17. 17 Generazione di Scenari  Da un punto di vista del tutto generale la generazione di uno scenario equivale alla generazione di un possibile percorso per il processo stocastico del sottostante S(t) descritto da un’Equazione Differenziale Stocastica (SDE) del tipo:  Più precisamente, uno scenario è un insieme di valori che rappresentano un’approssimazione della j-esima realizzazione,S j(ti), della soluzione dell’equazione differenziale stocastica ai tempi dWtSbdttSatdS ),(),()(  IitS i j ,,1,)(ˆ  IiTti ,,1,0 
  • 19. 19 Generazione di Scenari  Ci sono diversi modi per costruire uno scenario, vediamo i due più importanti:  Costruire un percorso della soluzione della nostra SDE ai tempi ti per mezzo di una propagazione esatta della soluzione;  Questo metodo è possibile solo quando disponiamo di una soluzione in forma chiusa per la probabilità condizionale;  Approssimazione numerica dell’equazione differenziale stocastica;  Questo metodo viene utilizzato ogniqualvolta non si dispone della soluzione chiusa di cui sopra;  Come nel caso delle equazioni differenziali ordinarie, esistono diverse tecniche numeriche per la risoluzione delle equazioni differenziali stocastiche.
  • 20. 20 Generazione di Scenari Propagazione della Soluzione  Esempio: Processo log-normale con drift e volatilità costanti. dWdt S dS                    )()( 2 1 exp)()( 11 2 1 iiiiii tWtWtttStS               )( 2 1 exp)0()( 2 tWtStS  Soluzione Generazione Traiettorie
  • 21. 21 Generazione di Scenari Integrazione Numerica della SDE  Come abbiamo già detto, l’integrazione numerica è un altro metodo per la risoluzione di un’equazione differenziale stocastica;  Nel caso dell’integrazione numerica di Equazioni Differenziali Ordinarie, i vari schemi di integrazione, come abbiamo visto, introducono diversi errori di discretizzazione che si riflettono sull’errore finale e che in genere sono proporzionali ad una potenza dell’intervallo temporale utilizzato.  Questo errore viene chiamato Errore di Troncamento dello schema di discretizzazione.
  • 22. 22 Generazione di Scenari Integrazione Numerica della SDE  Nel caso dell’integrazione numerica di SDE tramite le differenze finite, l’interpretazione degli errori numerici introdotti dal processo di discretizzazione diventa più complicata;  A differenza del caso delle ODE dove l’unico aspetto al quale siamo interessati è la soluzione dell’equazione stessa, quando abbiamo a che fare con una SDE ci sono almeno due aspetti distinti che meritano la nostra attenzione:  Il primo aspetto è legato all’accuratezza con la quale calcoliamo le traiettorie di una particolare realizzazione della soluzione;  Il secondo è legato all’accuratezza con la quale possiamo stimare una generica funzione del processo stocastico sottostante come ad esempio i momenti.
  • 23. 23 Generazione di Scenari Integrazione Numerica della SDE  L’aspetto interessante è che l’ordine di accuratezza con il quale un determinato schema di discretizzazione può approssimare una traiettoria della soluzione in generale non è lo stesso con il quale lo stesso schema può approssimare una funzione del processo stocastico sottostante;  La convergenza delle traiettorie calcolate numericamente alle traiettorie “reali” viene chiamata convergenza forte e l’ordine dello schema corrispondente viene detto ordine di convergenza forte;  La convergenza della soluzione numerica di una funzione del processo stocastico sottostante è detta invece convergenza debole e il corrispondente ordine viene chiamato ordine di convergenza debole.
  • 24. 24 Generazione di Scenari Integrazione Numerica della SDE  I due schemi di discretizzazione più importanti per l’integrazione di SDE sono l’ Explicit Euler scheme e il Milshtein scheme ))()()(),(ˆ()),(ˆ()(ˆ)(ˆ 11 iiiiiiii tWtWttSbtttSatStS     ttWtW S ttSb ttSb ii ii ii      2 1 )()( )),(ˆ( )),(ˆ( 2 1 dWtSbdttSatdS ),(),()(  EULER MILSHSTEIN
  • 25. 25 Metodi di Riduzione della Varianza
  • 26. 26 Metodi di Riduzione della Varianza  Il fatto che l’errore quadratico medio della previsione effettuata con la tecnica MC decresce all’aumentare delle simulazioni rappresenta come abbiamo già detto un aspetto interessante della metodologia in quanto risulta indipendente dal numero di dimensioni del problema;  Tuttavia la particolare forma di convergenza (1/n½) è di per se piuttosto lenta per cui sono state sviluppate delle tecniche di riduzione della varianza che permettono di accorciare (entro certi limiti) i tempi di elaborazione.
  • 27. 27 Un Problema di Efficienza  Immaginiamo di voler calcolare un certo parametro P (ad esempio il prezzo di un’opzione) e di poter scegliere fra due diverse stime ottenibili con il metodo Monte Carlo rappresentate dalle due serie di valori ottenuti con il processo di simulazione  Supponiamo poi che entrambi gli stimatori siano corretti, cioè valga ma con niPi ,...,1,ˆ 1  niPi ,...,1,ˆ 2    PPE 1 ˆ   PPE 2 ˆ 21  
  • 28. 28 Un Problema di Efficienza  Chiaramente sulla base di queste sole informazioni saremmo portati a scegliere il primo stimatore in quanto, a parità di numero di simulazioni, l’errore di stima risulterà senz’altro minore.  Tuttavia, come accennavamo poco sopra, questa conclusione rischia in realtà di non essere corretta in quanto non tiene conto del fatto che i due stimatori possono richiedere risorse computazionali molto diverse fra loro;  in particolare generare n replicazioni di P1 potrebbe richiedere molto più tempo che generare n replicazioni di P2.
  • 29. 29 Un Problema di Efficienza  Un primo approccio al problema potrebbe essere quello di introdurre esplicitamente nelle nostre considerazioni il tempo di calcolo richiesto.  Supponiamo che il tempo richiesto per generare una singola replicazione di Pj possa essere espresso da una costante che indicheremo con bj, avendo a disposizione un tempo totale di calcolo pari a t il numero di replicazioni di Pj che possiamo generare sarà pari a t/bj.  I due stimatori possono pertanto essere riscritti introducendo esplicitamente il tempo di calcolo nelle formule  1/ 1 11 ˆ bt i iP t b  2/ 1 22 ˆ bt i iP t b
  • 30. 30 Un Problema di Efficienza  Per valori sufficientemente alti di t queste due quantità sono normalmente distribuite con media P e standard deviation  pertanto per grandi valori di t il primo stimatore sarà preferibile al secondo se  l’inverso del prodotto della varianza per il tempo necessario ad eseguire un singolo run viene indicato in letteratura col nome di efficienza (Hammersley e Handscomb, 1964).  Usando l’efficienza come base per il confronto fra diversi stimatori possiamo concludere che lo stimatore a bassa varianza è preferibile all’altro solo se il rapporto delle varianza è più piccolo del rapporto fra i tempi di singola replicazione. t b t b 2 2 1 1  2 2 21 2 1 bb  
  • 31. 31 Variabili Antitetiche  Uno dei metodi più semplici e più utilizzati in campo finanziario per la riduzione della varianza è senz’altro il metodo delle variabili antitetiche.  Consideriamo di nuovo la procedura classica di stima del prezzo di un’opzione, per semplicità espositiva ci limiteremo ancora al contesto del modello di Black e Scholes.  Se si adotta la tecnica della variabile antitetica, in ogni simulazione si devono determinare due valori. Il primo valore è quello calcolato nel modo consueto... ... mentre il secondo valore viene calcolato cambiando segno a tutti i campioni estratti casualmente dalle distribuzioni normali standardizzate.
  • 32. 32 Variabili Antitetiche  I due stimatori hanno chiaramente le stesse proprietà statistiche essendo estratti dallo stesso campione (in particolare hanno la stessa varianza).  Il valore campionario del derivato calcolato in ogni simulazione è la media di questi due valori e la sua varianza è data da       iii ii ii CCCovCVar 2 1 CCVar 4 1 2 CC Var ~ , ~ ~        
  • 33. 33 Variabili Antitetiche  Pertanto  In questo caso occorre tuttavia tenere presente che questa procedura richiede un numero di simulazioni doppio rispetto al caso standard per cui è necessario ragionare in termini di efficienza;  Se supponiamo che la generazione dei numeri casuali richieda un tempo trascurabile rispetto al calcolo del prezzo allora possiamo affermare che il tempo impiegato utilizzando le variabili antitetiche sia all’incirca doppio di quello richiesto nel caso standard.  In questo caso il metodo delle variabili antitetiche è preferibile al metodo standard se si verifica la condizione )()()() ~ ,( imedioiii CVarCVarCVarCCCov  )()(2 imedio CVarCVar 
  • 34. 34 Variabili Antitetiche Questa condizione è equivalente a richiedere che   0 ~ , ii CCCov Verifichiamo se questa condizione è valida. Indichiamo con  la funzione definita dalla relazione )( ii ZC  ; supponiamo che  sia la composizione di due funzioni monotone, la prima è quella che lega il valore del sottostante alla variabile aleatoria Z, la seconda è la funzione che calcola il payoff come valore massimo fra 0 e la differenza fra il prezzo del sottostante e lo strike price. In queste condizioni anche  è monotona.
  • 35. 35 Variabili Antitetiche Utilizzando una disuguaglianza standard possiamo allora verificare che      )()()()( iiii ZEZEZZE   da cui segue immediatamente         0)()()()( ~ ,  iiiiii ZEZEZZECCCov  Quindi il metodo delle variabili antitetiche è più efficiente del metodo standard a patto che siano verificate le condizioni di monotonicità citate. Nel caso di payoff non monotoni il metodo non necessariamente fornisce prestazioni migliori del Monte Carlo standard, anzi, in alcune condizioni i risultati sono sensibilmente peggiori.
  • 36. 36 Moment Matching  Il metodo dei momenti (moment matching) comporta l’aggiustamento dei campioni estratti da una distribuzione normale standardizzata in modo da assicurare l’uguaglianza tra i momenti campionari (in genere il primo e il secondo) e i corrispondenti momenti della distribuzione probabilistica.  Indichiamo con Zi i campioni estratti da una distribuzione normale usati per calcolare la variazione di valore di una certa variabile in un certo periodo di tempo. Per assicurare l’uguaglianza dei primi due momenti calcoliamo la media campionaria m e la deviazione standard campionaria s. Quindi definiamo nel modo seguente i campioni aggiustati s mZ Z i i  '
  • 37. 37 Moment Matching Dim Media As Double Dim StDev As Double ' vettore di variabili normali standard Dim z() As Double ' vettore di variabili normali standard con ' moment matching Dim y() As Double ReDim z(1 To n) As Double ReDim y(1 To n) As Double ' generazione del vettore di variabili normali For i = 1 To n z(i) = Application.WorksheetFunction.NormSInv(Rnd) Next ' calcolo di media e standard deviation Media = Application.WorksheetFunction.Average(z) StDev = Application.WorksheetFunction.StDev(z) ' matching dei primi due momenti e generazione di y For i = 1 To n y(i) = (z(i) - Media) / StDev Next
  • 38. 38 Campionamento stratificato  La campionatura stratificata (stratified sampling) comporta la suddivisione in strati, o intervalli, della distribuzione probabilistica sottostante e l’estrazione di campioni da ciascun intervallo in base alla probabilità che è ad esso associata.  Consideriamo, per esempio, la generazione di 100 variabili distribuite normalmente.  Il metodo più ovvio di fare ciò consiste nel generare 100 numeri uniformemente distribuiti fra 0 ed 1 e calcolare per ciascuno di questi la funzione inversa della distribuzione normale.  Questo metodo tuttavia produce un risultato che risulta alquanto scadente poiché le code della distribuzione saranno sicuramente sottocampionate senza campionamento stratificato 0 2 4 6 8 10 12 14 -3 -2.25 -1.5 -0.75 0 0.75 1.5 2.25 3 ClasseFrequenza
  • 39. 39 Campionamento stratificato  Un metodo alternativo, più efficace, consiste nel forzare ciascun numero generato al passo i a cadere esattamente fra l’ (i-1)-esimo percentile e l’i-esimo.  Un modo estremamente semplice per ottenere questo risultato consiste nel generare 100 numeri Ui uniformemente distribuiti in [0, 1 ] e calcolare* * I numeri così generati non sono più indipendenti e questo complica la stima dell’errore e del livello di confidenza. Questo problema è comune a tutte le tecniche di riduzione della varianza e non viene discusso in questa introduzione. Il lettore comunque deve essere consapevole della sua esistenza.          100 1~ 1 i i Ui NU con campionamento stratificato 0 2 4 6 8 10 12 -3 -2.25 -1.5 -0.75 0 0.75 1.5 2.25 3 Classe Frequenza
  • 40. 40 Variabili di Controllo  Supponiamo che Y1,….,Yn siano gli output di n replicazioni di una simulazione;  Supponiamo anche che gli Yi siano iid e che il nostro obiettivo sia quello di stimare E[Yi ];  Per ogni simulazione calcoliamo adesso un’altra variabile Xi assieme ad Yi, il cui valore atteso E[X] sia noto;  A questo punto prendiamo come output dell’i-esima simulazione la quantità   XEXbYbY iii )(
  • 41. 41 Variabili di Controllo  … il valore medio è lo stesso della variabile Y  La nostra variabile X viene detta variabile di controllo;  L’errore osservabile <X>-E[X] serve come controllo nella stima di E[Y];  Tuttavia si può dimostrare che lo stimatore con variabile di controllo ha una varianza minore dello stimatore originale a patto che        i i i ii Y N XEXbY N XEXbYbY 1 ][ 1 ][)( XYYX bb  2
  • 42. 42 Variabili di Controllo  L’efficacia di una variabile di controllo …  Dipende moltissimo dall’intensità della correlazione fra la variabile da stimare e la variabile di controllo stessa  Può variare molto con i parametri del problema!  Si può dimostrare che per una singola variabile di controllo il valore ottimale del parametro b* )var( ),cov( * X YX 
  • 43. 43 Opzioni asiatiche  Le opzioni asiatiche sono opzioni il cui valore finale dipende dalla media aritmetica dei prezzi dell’attività sottostante, rilevati in date predeterminate: average price call:  Le opzioni asiatiche sono meno care delle opzioni ordinarie in quanto il calcolo della media diminuisce di fatto la volatilità del sottostante.      m i iaverage average tS m S ESMax 1 )( 1 0,off-Pay
  • 44. 44 Opzioni asiatiche  Il problema di gran parte delle opzioni asiatiche è che sono scritte su medie aritmetiche del sottostante osservato a diverse date di rilevazione.  Nel modello di Black e Scholes, in cui la distribuzione dei prezzi è log-normale, questo crea un problema perché la distribuzione di probabilità di somme di variabili a distribuzione log-normale non è nota.  Tecniche di valutazione:  Moment matching (Turnbull e Wakeman): la distribuzione della media è approssimata con una distribuzione log-normale con uguale media e varianza.  Metodo Monte Carlo: vengono generati scenari per le date di campionamento, calcolati i pay-off per ogni sentiero e ne viene calcolata la media
  • 45. 45 Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica  Se si assume che il prezzo dell’attività sottostante, S, sia distribuito in modo log-normale e che Save sia una media geometrica degli S, possiamo utilizzare delle formule analitiche per valutare le opzioni asiatiche di tipo europeo.  Ciò dipende dal fatto che la media geometrica di un insieme di variabili distribuite in modo log-normale è anch’essa log-normale.  Si può dimostrare che in un mondo neutrale verso il rischio il prezzo di un’opzione asiatica scritta su una media geometrica calcolata su m periodi temporalmente equidistanziati... m m j t j SG /1 1                        )()( 2 1 exp)exp( 21 2 dKNdNrTC GGG  è pari a ...
  • 46. 46 Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica  dove   mTh hT qrSG / 22 1 ln 2 0           m mm hG 6 )1)(12(22    G GG K d   2 1 )ln(   Gdd  12
  • 47. 47 Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica Nella simulazione Monte Carlo standard il prezzo dell’opzione viene calcolato come   niKAEeC irTi ,,1,)0,max( )()(   dove A(i) è la media aritmetica discreta campionata   m j t ii jS m A 1 )()( 1 calcolata su un insieme discreto di punti mjt m T hhtt jj ,,2,1,0,, 01   ed n è il numero di simulazioni. Questo porta allo stimatore   n i i C n C 1 )(1ˆ
  • 48. 48 Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica Utilizzando il metodo della variabile di controllo oltre alle variabili descritte sopra dobbiamo calcolare la media geometrica per ogni simulazione m m j i t i j SG /1 1 )()(           e il valore campionato dell’opzione asiatica a media geometrica )0,max()exp( )()( KGrTC ii G  Questa volta però utilizzeremo lo stimatore   n i G i G i CCC n C 1 )()( )( 1ˆ
  • 49. 49 Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica 0,00 5,00 10,00 15,00 20,00 25,00 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50 Volatilità Sottostante Asiatica Aritmetica Europea Black & Scholes Asiatica Geometrica
  • 50. 50 0,00 5,00 10,00 15,00 20,00 25,00 30,00 35,00 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 Tempo a Scadenza Asiatica Aritmetica Europea Black & Scholes Asiatica Geometrica Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica
  • 51. 51 Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica 0,0000 0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50 Volatilità Sottostante MC Standard MC Controllo MC Antithetic
  • 52. 52 Variabile di Controllo Applicazione al Pricing di un’Opzione Asiatica 0,0000 0,1000 0,2000 0,3000 0,4000 0,5000 0,6000 0,7000 0,8000 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 Tempo a Scadenza MC Standard MC Controllo MC Antithetic
  • 54. 54 Greek Letters: Differenze Finite  Consideriamo il problema legato al calcolo del Delta di un’opzione europea  Un approccio diretto al problema può consistere nella generazione di due prezzi finali, il primo a partire dal valore S0 , e il secondo a partire dal valore perturbato S0 +  0S C    ZTTr T eSS    )2/( 0 2 ')2/( 0 2 )( ZTTr T eSS     Z e Z’ sono due estrazioni indipendenti da una normale standard
  • 55. 55 Greek Letters  Per ogni valore del prezzo finale possiamo poi calcolare il valore dell’opzione corrispondente   ),0max(0 KSeSC T rT     ))(,0max(0 KSeSC T rT          00~ SCSC  
  • 56. 56 Greek Letters  Problema  Poiché i valori per ST e ST() sono generati indipendentemente l’uno dall’altro la varianza di delta diverge al diminuire del valore di .  Per ottenere uno stimatore che converga verso il valore effettivo del Delta occorre diminuire in maniera graduale (e lenta) il valore di  all’aumentare di n. Complessivamente questo rallenta la velocità di convergenza fino a livelli del tutto inaccettabili.        )()()( ~ 2 00 2    OSCVarSCVarVar
  • 57. 57 Greek Letters  Una stima migliore può essere ottenuta utilizzando il metodo dei Numeri Casuali Comuni (Common Random Numbers) che nella fattispecie si traduce nell’utilizzare lo stesso numero casuale Z sia nel calcolo di S0 che di S0 + .  Se denotiamo con ^ la stima del Delta così calcolata; per un valore di  fissato, la media di un campione di repliche indipendenti di ^ converge al valore effettivo di Delta ma il calcolo della varianza ora fornisce un valore diverso in quanto C(S0) e C(S0 + ) non sono più indipendenti     )1(00 O SCSC Var        Cov > 0         )(),(2)()(ˆ 0000 2    SCSCCovSCVarSCVarVar
  • 59. 59 Opzioni multivariate  Basket: il valore del sottostante è calcolato con una media ponderata di un insieme di titoli  Rainbow: utilizzano funzioni diverse per il calcolo del pay-off:  opzioni sul massimo o sul minimo di un paniere dei titoli (option on the max/min)  opzioni che consentono di scambiare un’attività finanziaria con un’altra (exchange option),  opzioni scritte sulla differenza di valori tra due sottostanti (spread option),  opzioni con strike diversi per ogni titolo del paniere (multi- strike).
  • 60. 60 Opzioni basket  Per le opzioni basket si pone lo stesso problema che per le opzioni asiatiche. Da un lato se la media del basket fosse geometrica l’opzione potrebbe essere prezzata utilizzando la formula di Black e Scholes (medie geometriche di variabili log-normali sono log- normali). Dall’altro in gran parte dei casi si utilizzano medie aritmetiche, nel qual caso la non ne conosciamo la distribuzione.  Anche in questo caso le alternative sono due  Moment matching  Simulazione Monte Carlo
  • 61. 61 Misure di co-dipendenza  Distribuzioni Marginali  Data la distribuzione congiunta di due variabili x ed y la funzione di densità marginale di x è definita come  E, analogamente,  )( ),()( yD x dyyxx   )( ),()( xD y dxyxy 
  • 62. 62 Misure di co-dipendenza  Indipendenza  Due variabili x ed y si dicono indipendenti se la loro funzione densità congiunta si fattorizza nel prodotto delle densità marginali )()(),(, yxyxtiindipendenyx yx  
  • 63. 63  Correlazione Lineare  Ricordiamo la definizione di correlazione lineare tra due variabili x ed y Misure di co-dipendenza    2 2 2 2 , )()()()( )()(),( )()( ),cov(          dyyydyyydxxxdxxx dyyydxxxdxdyyxxy yx yx yyxx yx yx    
  • 64. 64  Correlazione Lineare  Spesso si ritiene che la conoscenza del coefficiente di correlazione lineare unitamente alla specificazione delle distribuzioni marginali, permetta di determinare la distribuzione di probabilità congiunta.  In realtà questo è vero solo per certe classi di distribuzioni tra cui la distribuzione normale.  In generale quindi l’inferenza Non è valida Misure di co-dipendenza ),(),(),( , yxyx yxyx  
  • 65. 65  Oltre l’indice di correlazione lineare  La correlazione lineare è un buona misura di co-dipendenza per variabili normali. Per distribuzioni che non sia allontanano troppo dalla “normalità” continua a fornire indicazioni utili ma all’allontanarsi da queste condizioni (in molti casi soltanto ideali) l’indice di correlazione lineare fornisce risultati sempre più fuorvianti!  L’indice di correlazione lineare non è invariante rispetto a trasformazioni non lineari delle variabili. A differenza degli stimatori non-parametrici, l’indice di correlazione lineare può non coprire l’intero range da – 1 a + 1, rendendo problematica l’interpretazione del grado di dipendenza Misure di co-dipendenza
  • 66. 66  Rho di Sperman  Questo indice è definito come coefficiente di correlazione lineare fra le funzioni di distribuzione delle due variabili. In altre parole, date due variabili x ed y e le loro distribuzioni marginali, calcoliamo prima di tutto le distribuzioni marginali cumulate  Utilizzando due semplici risultati … Misure di co-dipendenza    y yy x xx dydx  )(:)()(:)(     1 0 22 1 0 3 1 )()(, 2 1 )()( duudxxxududxxx xxx x 
  • 67. 67  Rho di Sperman  … possiamo scrivere  Tau di Kendal Misure di co-dipendenza   3),()()(12 dxdyyxyx yxS    1),(),(4 dxdyyxyxK 
  • 68. 68 Misure di co-dipendenza  Il tau di Kendal e il Rho di Sperman appartengono alla categoria delle cosiddette rank correlation ;  Sono invarianti per un’ampia tipologia di trasformazione delle variabili;  Questo tipo di indicatori, a differenza del coefficiente di correlazione lineare, ha la proprietà che date due distribuzioni marginali esiste sempre una distribuzione congiunta per ogni valore dell’indice compreso nell’intervallo [-1, 1].
  • 69. 69 Variabili Normali Multivariate  Cholescky Decomposition  Indichiamo con X un vettore di variabili aleatorie indipendenti ciascuna delle quali distribuita secondo una normale standard, la matrice di varianza- covarianza di X sarà pertanto data dalla matrice unità di dimensione n  n. Supponiamo di voler derivare da questo insieme di variabili un secondo set di variabili, che indicheremo con Y, non più indipendenti bensì dotato di matrice di varianza-covarianza assegnata .  Il nuovo insieme di variabili aleatorie può essere ricercato come combinazione lineare delle variabili indipendenti , cioè si pone  Il problema si riconduce così alla determinazione di una matrice A di dimensione n n tale che AXY  t AA
  • 70. 70                         N j N j kj kjikijjij N j kj kjikij N j jijii N j jiji N j jiji ij jij ii axxaaxa xxaaxa xayyyy xayxay 1 2 1 22 1 22 2 1 2222 11 2 2 )( 0  Variabili Normali Multivariate 1)(22  jj xx  AXY  0),cov(  kjkj xxxx
  • 71. 71  Cholescky Decomposition  La soluzione della precedente equazione non è unica nel senso che esistono più matrici A che, moltiplicate per la loro trasposta, danno come risultato . Se la matrice  è definita positiva il metodo più efficiente dal punto di vista computazionale per risolvere il problema consiste nell’applicazione della scomposizione di Cholescky.                nnnn AAA AA A A     21 2221 11 0 00 Variabili Normali Multivariate  Il punto chiave di tale metodologia consiste nel ricercare A nella forma di una matrice triangolare inferiore, ovvero una matrice in cui tutti gli elementi sopra la diagonale sono nulli,
  • 72. 72  Cholescky Decomposition  Sviluppando il prodotto AAt in componenti è facile verificare che gli elementi di A sono ricavabili dalle seguenti formule iterative  Ad esempio per il caso semplice di due variabili troviamo     1 1 2 i k ikiiii aa            1 1 1 i k jkikij ii ji aa a a            2 22 1 1 0   A Variabili Normali Multivariate
  • 73. 73 Il Condizionamento della Matrice di Varianza e Covarianza  Può accadere, specialmente quando si lavora con problemi ad elevata dimensionalità, che la matrice di correlazione non risulti semi-definita positiva;  In tal caso almeno uno degli autovalori della matrice risulterà negativo.  Spesso questo fatto è riconducibile alle procedure che hanno portato alla costruzione della matrice stessa;  ad esempio è sufficiente avere serie storiche di prezzi non perfettamente allineate o prezzi registrati a tempi diversi per produrre quasi sicuramente una matrice di correlazione mal definita.  In questi casi non è sempre possibile ricostruire la matrice stessa (si pensi al caso limite in cui la matrice viene scaricata da un provider esterno come nel caso di RiskMetrics) per cui è necessario disporre di metodi che possano rimuovere gli autovalori negativi in modo che la matrice risulti definita positiva col minor impatto possibile sui valori della matrice stessa.
  • 74. 74  Una procedura possibile è la seguente  Calcolare autovalori e autovettori della matrice di correlazione  Porre gli autovalori negativi uguali a zero;  Ricostruire la nuova matrice di correlazione;  L’ultimo passaggio è facilmente realizzabile a partire dalla matrice degli autovettori E e dalla matrice (diagonale) degli autovalori  Il Condizionamento della Matrice di Varianza e Covarianza t EEC  E’ molto probabile che la nuova matrice così ottenuta abbia elementi lungo la diagonale diversi da 1. Per questo è necessario procedere ad una normalizzazione ponendo dove D1/2 è una matrice diagonale i cui elementi sono le radici quadrate degli elementi diagonali di C. D C D C 11 
  • 75. 75 Funzioni di copula: concetti base  Una funzione z = C(u,v) è detta copula se e solo se 1. z, u e v sono in [0,1] 2. C(0,v) = C(u,0) = 0, C(1,v) = v, C(u,1) = u 3. C(u2, v2 ) – C(u1, v2 ) – C (u2, v1) – C (u1, v1)  0 per tutti i valori u2 > u1 e v2 > v1  Teorema di Sklar  Ogni distribuzione congiunta può essere scritta come una funzione di copula che abbia le distribuzioni marginali come argomenti e qualsiasi funzione di copula che abbia distribuzioni come argomenti è una distribuzione congiunta
  • 76. 76  Possiamo quindi scrivere  L’utilizzo delle funzioni di copula consente di specificare separatamente le distribuzioni marginali delle variabili e la loro struttura di dipendenza  Le funzioni di copula sono legate alle statistiche non-parametriche di dipendenza, ad esempio il  di Kendall o il  di Spearman. Funzioni di copula: concetti base  )(),(),( yxCyx yx 
  • 80. 80 Algoritmi per la modellazione della dipendenza La copula gaussiana Calcolo della pseudo-radice di R A: R=AAT INPUT  n funzioni di densità marginali  matrice di correlazione R  )(,),(),()( 2211 nxnxxx xxxx     Generazione di n variabili normali standard non correlate z Da z si ricava un vettore di variabili v uniformemente distribuite fra 0 ed 1 ponendo vi = N(z’i) Introduzione della correlazione z’ = Az Calcolo del vettore x utilizzando la distribuzione cumulativa inversa marginale )(1 1 ixi vx   END START  L’algoritmo si riassume nei seguenti passi  generare un vettore di variabili normali con correlazione assegnata;  Trasformare tali variabili in variabili con distribuzione uniforme in [0, 1] utilizzando la funzione comulata della normale;  Utilizzare queste variabili come base per generare il vettore x, secondo il metodo della trasformazione inversa utilizzando come funzioni di trasformazione le inverse delle comulate marginali specificate in input.  E’ importante ricordare che i coefficienti di correlazione che controllano la copula gaussiana, e che vengono utilizzati nell’algoritmo descritto a lato, possono essere molto diversi dalla correlazione lineare
  • 81. 81 Algoritmi per la modellazione della dipendenza La copula t Calcolo della pseudo-radice di R A: R=AAT INPUT  n funzioni di densità marginali  matrice di correlazione R Generazione di n variabili normali standard non correlate z Introduzione della correlazione z’ = Az START Generare una variabile, s, distribuita secondo una chi-quadro con n gradi di libertà. Per n intero questo può essere ottenuto semplicemente generando n variabili normali indipendenti e sommando i loro quadrati. Da y si ricava un vettore di variabili v uniformemente distribuite fra 0 ed 1 utilizzando la funzione di probabilità comulativa della t di Student Porre z s n y   Calcolo del vettore x utilizzando la distribuzione cumulativa inversa marginale )(1 1 ixi vx   END