Simare la volatilità dalle serie storiche

25
Introduzione alla Stima della Volatilità con modelli Statistici Dott. Luigi Piva Quantlab Limited Bridgewater Road London (UK) Introduzione Questo è il primo di una collana di papers che pubblicherò nei prossimi mesi sulla volatilità. Ha un carattere introduttivo, con lo scopo di avvicinare ad uno studio quantitativo gli operatori che hanno a che fare quotinianamente con la volatilità, ma che utilizzano, nell’analisi dei mercati finanziari e in particolare del rischio, approcci tecnici, fondamentali o addirittura discrezionali. Lo scopo principale è quello di promuovere, tra gli operatori sui mercati finanziari e gli analisti, una conoscenza approfondita delle dinamiche relative alla volatilità, sia per quanto riguarda il pricing di strumenti finanziari come le opzioni, sia per quanto riguarda il risk management, argomento di particolare interesse soprattutto dopo la crisi del 2008. Nelle pagine seguenti ci occuperemo della la stima della volatilità con metodi statistici. Successivamente andremo ad approfondire sia le basi teoriche stanno alla base di questa categoria, in senso ampio, di modelli. Inoltre, vedremo le implicazoni dell’utilizzo di queste metodologie in termini di analisi del comportamento degli asset finanziari e la componente previsionale dei modelli. Analizzeremo anche metologie più complesse ed innovative, valutandone il valore aggiunto rispetto ai modelli presentati nelle pagine seguenti, che agiscono da benchmark, fino all’implementazione di diversi modelli operativi, della stessa famiglia di quelli da noi utilizzati. Vedremo, in seguito, anche un’altra categoria di modelli di volatilità che si riferiscono ad analisi stocastica. In questo primo contributo, la matematica è più semplice possibile, con continui riferimenti dalle formule al loro significato e alla loro applicazione concreta. Troppi utenti, appena vedono formule, tendono ad allontanarsi temendo un’estrema complicazione. Al contrario, gran parte della finanza quantitativa è relativamente semplice sotto un profilo matematico, una volta digerite le basi e presa dimestichezza col linguaggio. Andremo ad analizzare ed implementare in Excel e MC.NET divversi modelli univariati per la stima e previsione della volatilità realizzata. Lo scopo è quello di fornire immediatamente strumenti analitici

Transcript of Simare la volatilità dalle serie storiche

Page 1: Simare la volatilità dalle serie storiche

Introduzione alla Stima della Volatilità con

modelli Statistici

Dott. Luigi Piva

Quantlab Limited

Bridgewater Road

London (UK)

Introduzione

Questo è il primo di una collana di papers che pubblicherò nei prossimi mesi sulla volatilità. Ha un

carattere introduttivo, con lo scopo di avvicinare ad uno studio quantitativo gli operatori che hanno

a che fare quotinianamente con la volatilità, ma che utilizzano, nell’analisi dei mercati finanziari e in

particolare del rischio, approcci tecnici, fondamentali o addirittura discrezionali.

Lo scopo principale è quello di promuovere, tra gli operatori sui mercati finanziari e gli analisti, una

conoscenza approfondita delle dinamiche relative alla volatilità, sia per quanto riguarda il pricing di

strumenti finanziari come le opzioni, sia per quanto riguarda il risk management, argomento di

particolare interesse soprattutto dopo la crisi del 2008.

Nelle pagine seguenti ci occuperemo della la stima della volatilità con metodi statistici.

Successivamente andremo ad approfondire sia le basi teoriche stanno alla base di questa categoria,

in senso ampio, di modelli. Inoltre, vedremo le implicazoni dell’utilizzo di queste metodologie in

termini di analisi del comportamento degli asset finanziari e la componente previsionale dei modelli.

Analizzeremo anche metologie più complesse ed innovative, valutandone il valore aggiunto rispetto

ai modelli presentati nelle pagine seguenti, che agiscono da benchmark, fino all’implementazione di

diversi modelli operativi, della stessa famiglia di quelli da noi utilizzati.

Vedremo, in seguito, anche un’altra categoria di modelli di volatilità che si riferiscono ad analisi

stocastica.

In questo primo contributo, la matematica è più semplice possibile, con continui riferimenti dalle

formule al loro significato e alla loro applicazione concreta. Troppi utenti, appena vedono formule,

tendono ad allontanarsi temendo un’estrema complicazione. Al contrario, gran parte della finanza

quantitativa è relativamente semplice sotto un profilo matematico, una volta digerite le basi e presa

dimestichezza col linguaggio.

Andremo ad analizzare ed implementare in Excel e MC.NET divversi modelli univariati per la stima e

previsione della volatilità realizzata. Lo scopo è quello di fornire immediatamente strumenti analitici

Page 2: Simare la volatilità dalle serie storiche

ed operativi a chi si occupa di mercati finanziari (operatori, analisti, ricercatori , studenti,..). Come da

prassi, vediamo modelli che generano una previsione per il periodo immediatamente successivo.

Diversi tipi di volatilità

In finanza quantitativa, nella letteratura classica sul pricing di opzioni, si assume spesso che la

volatilità sia costante. Si pensi a quello che può essere definito il modello di riferimento per le

opzioni, Black-Scholes, dove appunto la volatilità è considerata come un parametro costante.

Chiaramente, questo non è vero, la volatilità cambia costantemente, ci sono periodi di maggiore o

minore volatilità. C’è granularità ed è evidente il fenomeno di “clustering” della volatitlità. Siccome

la volatilità è di estrema importanza in finanza, dal pricing delle opzioni alla misura del rischio degli

investimenti, si cerca continuamente di migliorarne la stima e d creare modelli con capacità

previsionale.

In letteratura, si trova la volatilità menzionata con diversi significati, non è quindi un termine

strettamente univoco. Questo può generare confusione terminologica soprattutto a chi si avvicina

all’argomento, per questo introduciamo una breve descrizione delle diverse definizioni di volatiltià

Actual volatility: misura la casualità nei rendimenti degli assets in ogni particolare istante. L’Actual

volatility è chiaramente molto difficile da stimare correttamente.

Storica o realizzata: una misura retrospettiva , misura l’ammontare di casualità in un dato periodo

del passato. Stimiamo, quindi, la volatilità dal nostro campione, dall’insieme dei

dati a nostra disposizione. Il modo in cui si ottiene tale stime è l’oggetto di

questo paper.

Impicita: è la volatilità che si inserisce nei modelli di pricing delle opzioni, in genere Black-Scholes

per ottenere Il prezzo corrente del’opzione. E’ la volatilità stimata dal mercato, la visione

del mercato Sul livello di volatilità. E’ una misura influenzata da vari fattori, soprattutto da

domanda e offerta sui mercati finanziari, per cui un operatore potrebbe comprare, per

esempio, opzioni Put a premio per coprire posizioni long su equity.

In questo pagine ci occupiamo esclusivamente della volatilità realizzata, ci occuperemo della

volatilità implicita e attuale in seguito, sia per fornire un quadro completo sull’argomento, sia per la

particolare utilità che queste misure rivestono in finanza quantitativa.

Volatilità stimata con metodi statistici: media semplice

Partiamo con la stima più semplice, tuttora utilizzata perlopiù dagli analisti tecnici. Consideriamo

quindi la semplice media mobile. Prendiamo la deviazione standard che , in generale, è una misura

ampiamente usata di volatilità:

𝜎𝑛= volatilità dei rendimenti nel giorno n

Page 3: Simare la volatilità dalle serie storiche

Prendiamo in considerazione i rendimenti composti:

𝑢𝑖 = log(𝑆𝑖𝑆𝑖−1

)

In genere, si parla di rendimenti giornalieri, soprattutto quando si analizza il rischio di attività

finanziarie.

La varianza campionaria viene generalmente definita come:

𝜎𝑛2 =

1

𝑚 − 1∑(𝑢𝑛−1 −��)

2

𝑚

1=1

Se, per semplificare, prendiamo l’intero campione, quindi (m-1) viene sostituito da m , anche perché

in genere analizziamo insiemi ampi di dati, consideriamo che la media dei rendimenti sia zero , cioè

�� ≈ 0 , con il rendimento medio ad un periodo che è comunque molto piccolo rispetto alla

deviazione standard, otteniamo:

𝜎𝑛2 =

1

𝑚∑𝑢𝑛−1

2

𝑚

1=1

Che è una varianza ridefinita, una media semplice degli ultimi m rendimenti al quadrato.

Non è chiaramente una stima molto efficace della volatiltà, infatti non viene generalmente usata

dagli operatori professionali e investitori istituzionali ; da lo stesso peso a tutti i dati, non viene

utilizzata anche a causa della lentezza ad adeguarsi alle condizioni attuali. Altro problema, l’effetto

spurio: se per esempio abbiamo una giornata con un ampio rendimento, questo causerà una salita

della volatilità finchè questo dato non esce dal campione.

Page 4: Simare la volatilità dalle serie storiche

Grafico 1: esempio dell’effetto spurio su Emini-S&P500, la volatilità misurata con una semplice

media mobile a 30 periodi sale bruscamente dopo tre giorni di discesa violenta, ampi rendimenti

negativi e aumento della volatilità, nell’agosto 2015, per poi rimanere alta fintanto che gli tali

rendimenti negativi non escono dal periodo di calcolo.

Schemi di pesatura

Se cerchiamo di ottenere una stima più realistica della volatilità, possiamo dare più peso ai dati più

recenti .

Invece che pesare ogni rendimento 1

𝑚 , usiamo un peso 𝛼𝑖che varia in modo da dare più peso ai dati

recenti. Avremo quindi:

𝜎𝑛2 = ∑𝛼𝑖𝑢𝑛−1

2

𝑚

1=1

con

∑𝛼𝑖

𝑚

𝑖=1

= 1

Sceglieremo 𝛼 un tale che 𝛼𝑖 < 𝛼𝑗 , quando i > j , cioè 𝛼20 < 𝛼19<𝛼18.... Ancora, diamo più peso ai

rendimenti recenti. Otteniamo quindi un primo schema di pesatura dei rendimenti.

Page 5: Simare la volatilità dalle serie storiche

Utilizziamo schemi di pesatura, quindi, per ottenere un modello più responsivo e per attenuare in

modo sostanziale l’effetto spurio.

Schemi di pesatura avanzati

Se esaminiamo i dati, possiamo vedere come la volatilità tenda a muoversi attorno la media a lungo

periodo �� . Quindi cerchiamo di fattorizzare questo nel nostro “modello”:

𝜎𝑛2 = 𝛾��2 +∑𝛼𝑖𝑢𝑛−1

2

𝑚

1=1

Dove è la media della volatilità a lungo periodo e 𝛾 è il peso assegnato ad essa

Anche in questo caso la somma dei pesi deve essere uguale ad uno:

𝛾 +∑𝛼𝑖

𝑚

𝑖=1

= 1

Questa è la forma del modello noto come ARCH(m) (Engle, 1982)

Se definiamo 𝜔 = 𝛾��2, allora:

𝜎𝑛2 = 𝜔 +∑𝛼𝑖𝑢𝑛−1

2

𝑚

1=1

Nelle pagine successive, un primo approfondimento dei modelli ARCH che proseguirà poi nei

prossimi papers.

Media mobile esponenziale

Vediamo uno schema classico e relativamente semplice, diffuso nell’industria da RiskMetrics.

Un caso particolare di media pesata è una media mobile pesata esponenzialmente (EWMA)(Riaz[5]).

In questo caso 𝛼𝑖, decresce esponenzialmente quando ci muoviamo indietro nel tempo, quindi

abbiamo che:

𝛼𝑗+1 = 𝜆𝛼𝑖 dove 0<𝜆 < 1

Quindi

𝜎𝑛2 = ∑𝛼𝑖𝑢𝑛−1

2

1=1

=𝛼1𝑢𝑛−12 +𝛼2𝑢𝑛−2

2 + 𝛼3𝑢𝑛−32 ….

ma abbiamo che

𝛼2 = 𝜆𝛼1

𝛼3 = 𝜆𝛼2 =𝜆2𝛼1

𝛼4 = 𝜆𝛼3 =𝜆3𝛼1

𝛼5 = 𝜆𝛼4 =𝜆4𝛼1

sostituendo:

Page 6: Simare la volatilità dalle serie storiche

𝜎𝑛2 =𝛼1𝑢𝑛−1

2 + 𝜆𝛼1𝑢𝑛−22 + 𝜆2𝛼1𝑢𝑛−3

2 ….

sappiamo però che

𝜎𝑛−12 = ∑𝛼𝑖𝑢𝑛−1−𝑖

2

1=1

= 𝛼1𝑢𝑛−22 + 𝜆𝛼1𝑢𝑛−3

2 + 𝜆2𝛼1𝑢𝑛−42 …

quindi

𝜆𝜎𝑛−12 = 𝜆𝛼1𝑢𝑛−2

2 +𝜆2𝛼1𝑢𝑛−32 + 𝜆3𝛼1𝑢𝑛−4

2 …

sostituendo

𝜎𝑛2 = 𝛼1𝑢𝑛−1

2 + 𝜆𝜎𝑛−12

Dove 𝛼1𝑢𝑛−12 rappresenta il rendimenti del periodo precedente e 𝜆𝜎𝑛−1

2 rappresenta la varianza del

periodo precedente.

un’ulteriore semplificazione, coi pesi che sommano a uno:

𝛼1(1 + 𝜆 +𝜆2 + 𝜆3 +⋯) = 1

Per una serie infinita possiamo dire che

(1 + 𝜆 +𝜆2 + 𝜆3 +⋯) = (1 + 𝜆)−1

Quindi

𝛼1 = 1 − 𝜆

Cioè

𝜎𝑛2 = 𝜆𝜎𝑛−1

2 + (1 − 𝜆)𝑢𝑛−12

Con il termine 𝑢𝑛−12 che rappresenta le innovazioni, i rendimenti del peiodo immediatamente

precedente , mentre 𝜆𝜎𝑛−12 che, diciamo, rappresenta tutti i rendimenti precedenti.

I lati positivi dello schema esponenziale dei pesi, rispetto alla semplice media mobile, sono:

sono necessari pochi dati salvati siccome la volatilità del periodo corrente dipende solo dal

dato del periodo precedente

tiene monitorati i cambiamenti della volatilità , cioè se il periodo precedente, diciamo la

giornata di ieri, è stata molto volatile, allora la stima corrente considererà questo evento

Page 7: Simare la volatilità dalle serie storiche

il parametro 𝜆 governa quanto la stima è sensibile al cambiamento della volatilità in un

singolo periodo, cioè la sua sensibilità alle innovazioni

I lati negativi sono:

non c’è nessun elemento rappresentativo della volatilità di lungo periodo

la previsione della volatilità nel periodo successivo è uguale alla volatilità del periodo

attuale, di fatto quindi non c’è un elemento previsonale

Per quanto riguarda il paramentro 𝜆 , un 𝜆 basso porta a un peso maggiore per il termine 𝑢𝑛−12 ,

quindi il modello è molto sensibile ai rendimenti del periodo precedente, quindi alle novità dai

mercati.

Al contrario, un 𝜆 alto porta ad avere una risposta lenta alle innovazioni.

Considerazioni su RiskMetrics 1994

Il database di RiskMetrics , che è stato creato da J.P.Morgan e reso disponibile nel 1994, usa un

modello EWMA con 𝜆 = 0.94 per stimare le volatilità giornaliere. J.P. Morgan ha trovato che , in un

ampio range di differenti variabili di mercato, questo valore di 𝜆 fornisce previsioni della varianza

che finivano per essere vicine alla varianza realizzata.

La metodologia di RiskMetrics è stata largamente usata soprattutto per misurare il rischio di mercato

tramite il Value at Risk. Basandosi sull’assunzione di normalità dei rendimenti, il modello ignora

completamente la presenza di fat tails e skewness nella funzione di distribuzione, caratteristiche

fondamentali dei rendimenti di assets finanziari. In generale, comunque, la buona performance di

RiskMetrics nella stima della volatilità è dovuta principalmente all’orizzonte temporale ravvicinato

nella previsione (un periodo).

Intanto bisogna dare atto a JPMorgan di essere stata la prima istituzione a sviluppare e diffondere su

larga scala una metodologia complessa per la gestione del rischio di mercato , quella basata sul VaR

appunto, strettamente legata, come vedremo, alla misurazione della volatilità. Ancor apiù

importante, probabilmente, è il fatto che la popolarità di RiskMetrics ha permesso la diffusione di un

numero di metodi base di misurazione statistica del rischio.

Vedremo nel dettaglio , nelle seguenti pubblicazioni, i tratti caratteristici della volatiltà, comunque è

risaputo che i rendimenti non sono correlati, mentre i quadrati degli stessi sono fortemente

correlati. Come conseguenza, si osservano periodi prolungati di alta volatilità persistente che sono

seguiti da periodi prolungati di periodi di persistente bassa volatilità, fenomeno definito clustering di

volatilità. Questa caratteristica è incorporata in RiskMetrics dalla scelta del particolare tipo di

processo a media mobile del modello nell’analisi del processo dei prezzi.

RiskMetrics, come dicevamo, fa l’assunzione piuttosto forte che i rendimenti siano condizionalmente

normali, intendendo condizionali alle informazioni disponibili al tempo t , che normalmente consiste

nella serie dei rendimenti passati al tempo t stesso (Note: [a] [b]).

Poichè la deviazione standard dei rendimenti è normalmente molto più ampia della media.

(tipicamente la media dei rendimenti annuali dell’S&P è attorno al 5%, mentre la deviazione

standard è il 15%) La media dei rendimenti viene trascurato nel modello e come conseguenza , la

deviazione standard rimane l’unico parametro della funzione di distribuzione di probabilità

condizionale.

Page 8: Simare la volatilità dalle serie storiche

Come visto sopra, RiskMetrics usa un modello amedia mobile con uno schema di pesi esponenziale

per rappresentare la memoria finita del mercato, che possiamo anche scrivere come:

𝜎𝑡+1|𝑡2 = (1 − 𝜆)∑𝜆𝜏

𝜏=0

𝑟𝑡−𝜏2

Dove 𝜆 è il consueto parametro del modello (0 <𝜆 < 1 ).

La notazione 𝜎𝑡+1|𝑡2 enfatizza che la volatilità stimata in un dato periodo (t), in genere un giorno, è in

effetti utilizzata come previsore della volatilità nel periodo successivo (t+1). Per completezza, il VaR

giornaliero ad un livello di confidenza p (per esempio 95%) può essere calcolato, sotto l’assunzione

di normalità, moltiplicando 𝜎𝑡+1|𝑡2 per il quantile (1-p) della distribuzione normale standard.

Per portafogli lineari, cioè che non contengono opzioni, il metodo tipico per ottenere la volatilità è

quello di stimare la matrice di covarianza dei rendimenti degli assets, elemento per elemento,

usando modelli EWMA e successivamente calcolare la volatilità di portafoglio come:

𝜎𝑝2 =∑ 𝜔𝑖𝜔𝑗𝜎𝑖𝑗

𝑖,𝑗

dove 𝜔𝑖 è il peso degli asset i in portafoglio.

La popolarità di RiskMetrics è dovuta alla semplicità del metodo, unita ad un buon livello di efficacia

riscontrata dagli operatori. Prima di tutto, ricordiamo Nelson [3] che ha mostrato come persino

modelli mal specificati possono stimare la volatilità relativamente bene. Più nello specifico, Nelson

evidenzia come , nel caso in cui un processo di generazione dei rendimenti è bene approssimato da

un processo a diffusione, un largo spettro di processi ARCH, anche male specificati, producono

stime consistenti della volatilità condizionale. Dato che RiskMetrics può essere considerato alla

stregua di un modello IGARCH(1,1), il risultato del lavoro di Nelson fornisce una spiegazione naturale

del successo di RiskMetrics.

Nello specifico, la stima di RiskMetrics viene poi utilizzata come previsione della volatilità per il

periodo successivo, tuttavia questo sembra che non ne deteriori in modo significativo l’efficacia del

modello.

I modelli di RiskMetrics sono stati aggiornati e migliorati nel 2006. La stima della volatilità giornaliera

col modello EWMA è stata sostituita da un modello ARCH.

Implementare RiskMetrics 1994 in Excel

Per l’implementazioone in Excel, possiamo facilmente importare dalle pagine finanziarie di Yahoo i

dati giornalieri delle chiusure di S&P e indice VIX:

https://it.finance.yahoo.com/q/hp?s=%5EGSPC

https://it.finance.yahoo.com/q/hp?s=%5EVIX

Lavoriamo chiaramente solo sui dati dell’S&P, mentre il VIX ci serve solo come comodo termine di

confronto generico delle nostre misure di volatilità realizzata con la volatilità implicita (Bourgoin

[10]) .

Page 9: Simare la volatilità dalle serie storiche

Importando i dati dell’S&P500, per esempio, avremo:

Calcoliamo, come prima cosa , la colonna dei log-rendimenti giornalieri

Rendimento = log(𝑆𝑖

𝑆𝑖−1)

nel foglio di calcolo:

=LN(B3/B2)

Abbiamo bisogno di un valore iniziale per la varianza, approfittiamo della struttura di Excel che,

nell’occasione, torna utile. Calcoliamo, quindi la varianza dell’intero periodo:

La varianza non-condizionale è (note [a] [b]):

=VAR(C3:C864)

Tale valore viene inserito nel nostro foglio di calcolo nella casella D3, come valore iniziale del calcolo

Successivamente, dal periodo immediatamente successivo, la stima RiskMetrics è uguale a :

=Lambda*D3+(1-Lambda)*C3^2

Che viene annualizzato :

=SQRT(D4*365)

Page 10: Simare la volatilità dalle serie storiche

Ovvero, come radice quadrata del valore stimato moltiplicato per 365, numero dei giorni in un

anno. Un’alternativa è moltiplicare per 260, il numero di giorni lavorativi. A questo punto, nella

colonna E del foglio di calcolo, per ogni periodo abbiamo la stima RiskMetrics della volatilità

annualizzata [10] Bourgoin.

Ottimizzare 𝛌 nel modello RiskMetrics

Il gruppo di RiskMetrics suggeriva un 𝜆 pari a 0.94, avendo riscontrato che questo valore offriva

mediamente la stima migliore su un’ampia gamma di asset classes . Tuttavia, noi potremmo volere

adattare tale paramentro al periodo e al mercato di interesse.

Come vedremo in seguito, occupandoci nel dettaglio dell’analisi dei rendimenti delle attività

finanziarie, l’ipotesi standard è quella che i log-rendimenti siano distribuiti normalmente. Per

ottimizzare il parametro utlizzeremo il metodo della Massima verosimiglianza che richiede una

distribuzione di probabilità a cui appoggiarsi.

Stima di Massima Verosimilgianza

La stima di massima verosimiglianza (MLE) è un metodo statistico, in particolare in analisi dei dati,

usato per ottimizzare i dati in un modello. Ancora, oin estrema sintesi, ci chiediamo :

“dato un insieme di dati, quali parametri del modello hanno la maggiore probabilità di produrre

questi dati?”

Da notare, quando usiamo il metodo MLE dobbiamo assumere una distribuzione di probabilità, cioè

un modello parametrico, dopodichè possiamo cercare di determinare i parametri del modello.

Page 11: Simare la volatilità dalle serie storiche

Se abbiamo n pezzi di dati iid (indipendenti ed identicamente distribuiti) 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛 con

funzione di densità di probabilità f(𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛; 𝜃) dove 𝜃sono i parametri sconosciuti (Riaz[5]).

Quindi, la funzione di massima verosimiglianza è definita da:

ℒ(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = f(𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛; 𝜃)

Dove 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛 sono i dati e 𝜃 rappresenta il vettore dei parametri, la funzione di log-

verosimiglianza può essere definita come:

𝐿(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = logℒ(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛)

Dove la stima di massima verismiglianza dei parametri 𝜃può essere ottenuta massimizzando la

funzione 𝐿(𝜃; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛)

Ipotesi di normalità

Noi facciamo quindi l’ipotesi, per la sola spiegazione ed implementazione del modello, che i

rendimenti siano distribuiti normalmente. A questo punto, abbiamo bisogno di trovare i parametri

𝜔, 𝛼e𝛽 In modo da amssimizzare la funzione di verosimiglianza.

Per ogni periodo calcoliamo:

log[1

𝜎𝑖√2𝜋𝑒

−(𝑢𝑖−��)

2

2𝜎𝑖2

]

quindi, il nostro obiettivo è quello di massimizzare

∑ log[1

𝜎𝑖√2𝜋𝑒−(𝑢𝑖−��)

2

2𝜎𝑖2 ]𝑛

𝑖=1

Distribuzione Normale

Consideriamo una variabile causale X distribuita normalmente tale che 𝑋 ∼ 𝑁(𝜇, 𝜎2), dove𝜇𝑒𝜎2

sono i nostri parametri. Siano (𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) i nostri dati, un campione casuale di osservazioni

iid.

Per trovare lo stimatore di massima verosimiglianza di 𝜇 e 𝜎2 abbiamo bisogno di massimizzare la

funzione di verosimiglianza:

f(𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛; 𝜇 ,𝜎) = f(𝑥1; 𝜇 ,𝜎). f(𝑥2; 𝜇 ,𝜎)…… f(𝑥𝑛; 𝜇 ,𝜎)

abbiamo assunto che I rendimenti siano indipendenti, quindi possiamo riscrivere e definire la

funzione di verosimiglianza:

Page 12: Simare la volatilità dalle serie storiche

ℒ (𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = f(𝑥1; 𝜇 ,𝜎). f(𝑥2; 𝜇 ,𝜎)…… f(𝑥𝑛; 𝜇 ,𝜎)

La funzione di Log-verosimiglianza:

L(𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = logℒ (𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛)

= log f(𝑥1; 𝜇 ,𝜎)+ log f(𝑥2; 𝜇 ,𝜎)I+….

=∑ logf(𝑥𝑖; 𝜇, 𝜎)𝑛𝑖=1

una distribuzione normale dei log-rendimenti, abbiamo la funzione di distribuzione di probabilità

f(𝑥; 𝜇 ,𝜎) = 1

𝜎√2𝜋𝑒

−(𝑥−𝜇)2

2𝜎2

quindi, sostituendo, otteniamo la funzione di log-verosimiglianza per i rendimenti che

abbiamo ipotizzato essere distribuiti normalmente:

L(𝜇 ,𝜎; 𝑥1,𝑥2, 𝑥3, … , 𝑥𝑛) = ∑ log[1

𝜎√2𝜋𝑒−(𝑥−𝜇)

2

2𝜎2 ]𝑛𝑖=1

Modello fattoriale per il fattore di decadimento 𝝀

Nel precedente esempio di calcolo, non abbiamo usato nessuna ottimizzazione per 𝜆, il fattore di

decadimento temporale dello schema dei pesi. Se vogliamo trovare il fattore di decadiemnto

temporale per la serie storica in questione, ipotizzata una funzione di distribuzione di probabilità

per i rendimenti, utilizziamo la stima di massima verosimiglianza.

Quanto maggiore è il fattore di decadimento, sempre minore di 1, maggiore sarà la cosiddetta half-

life .Per esempio, con un 𝜆 pari a 0.94, quello suggerito da Riskmetrics, il 50% dei pesi è nelle ultime

11 osservazioni. Se il fattore di decadimento aumenta a 0.98 , la half-life aumenta e il 50% dei pesi è

nelle ultime 34 osservazioni. Una differenza non lineare, ma che segue, appunto, uno schema

esponenziale (Bourgoin[10]).

La verosimiglianza basata sull’assunzione di log-normalità , in Excel

calcolata nel foglio di calcolo per ogni periodo è uguale a :

=LN((1/SQRT(2*3.1415927*D3))*EXP(-0.5*C3^2/D3))

Page 13: Simare la volatilità dalle serie storiche

Ed è un ottimo esempio di semplice traduzione pratica di una formula dall’apparenza ,

potenzialmente, un po’ ostica.

SI tratta quindi di un classico problema di ottimizzazione vincolata, ovvero trovare il valore di 𝜆 che

massimizza la funzione di verosimiglianza, cioè la somma delle verosimiglianze, col vincolo che sia

maggiore di zero e minore di 1.

Max (ℒ)

0<𝜆<1

Quindi, in una casella avremo la somma dei valori di verosimiglianza:

Nell’esempio abbiamo 2833 valori di verosimiglianza in corrispondenza del database dei rendimenti

giornalieri dell’S&P500, utilizziamo solver di Excel per l’ottimizzazione vincolata, ottenendo il valore

di 𝜆 nel modello EWMA denominato Optimal Decay, cioè col fattore di decadimento ottimizzato

(Bourgoin [10]). Otteniamo:

Quindi, un valore di 𝜆 = 0.9221 leggermente più basso di quello proposto da RiskMetrics 1994.

Page 14: Simare la volatilità dalle serie storiche

Di seguito il grafico della volatilità stimata dal modello EWMA Optimal Decay negli ultimi mesi

sull’S&P500:

Modelli ARCH

Nei modelli econometrici convenzionali, la varianza condizionale 𝑦𝑡 non dipendeva da 𝑦𝑡−1 ,

assumendo una previsione della varianza fissa ad un periodo, come già detto, ipotesi non realistica

visti le evidenze empiriche, che poneva grossi limiti alle stima della stessa. Rober Engle (1982)

presenta una nuova classe di processi stocastici, definiti eteroschedastici autoregressivi condizionali

(ARCH) di cui dimostra l’efficacia, in cui la varianza dipende dal passato. Tali processi sono

caratterizzati da media nulla con varianza non condizionale costante. In questi processi, il passato

recente fornisce informazioni sulla previsione ad un periodo della varianza.

Questo modello regressivo ha una varietà di caratteristiche che lo rendono attraente per

applicazioni econometriche. Gli econometrici che implementano modelli previsonali di volatilità

hanno trovato che la loro abilità di prevedere il futuro varia da un periodo all’altro. McNees[4]

suggerisce che “l’incertezza o casualità associata con diversi periodi di previsione sembra variare

considerevolemente nel tempo”, documentando anche che “errori grandi o piccoli tendono a

raggrupparsi in periodi temporali contigui”. McNees[4] in questa analisi spiega immediatamente

l’utilità dei modelli ARCH quando la varianza prevista sottostante può variare nel tempo ed è

prevista dagli errori di previsione passati.

0,00%

5,00%

10,00%

15,00%

20,00%

25,00%

30,00%

35,00%

08

/25

/20

15

08

/31

/20

15

09

/04

/20

15

09

/11

/20

15

09

/17

/20

15

09

/23

/20

15

09

/29

/20

15

10

/05

/20

15

10

/09

/20

15

10

/15

/20

15

10

/21

/20

15

10

/27

/20

15

11

/02

/20

15

11

/06

/20

15

11

/12

/20

15

11

/18

/20

15

11

/24

/20

15

12

/01

/20

15

12

/07

/20

15

12

/11

/20

15

12

/17

/20

15

12

/23

/20

15

12

/30

/20

15

01

/06

/20

16

01

/12

/20

16

01

/19

/20

16

01

/25

/20

16

01

/29

/20

16

02

/04

/20

16

02

/10

/20

16

S&P Optimal Decay

Page 15: Simare la volatilità dalle serie storiche

Un’altra interpretazione è che il modello di regressione ARCH sia un’approssimazione per una

regressione più complessa che ha un disturbo non-ARCH. La specificazione ARCH potrebbe quindi

dipendere l’effetto delle variabili omesse dal modello stimato. L’esistenza di un effetto ARCH

sarebbe interpretatocome una prova di specificazione errata, o omettendo variabili o cambiamenti

strutturali. Se questo è il caso, l’ARCH potrebbe essere un’approssimazione migliore della realtà

piuttosto che fare assunzioni standard sui disturbi, ma rimane sottinteso che trovare la variabile

omesa o determinare la natura dei cambiamenti strutturali sarebbe ancora meglio.

Modelli GARCH

I processi ARCH introdotti da Engle (1982) riconoscono esplicitamente la differenza tra la varianza

incondizionale e condizionale, permettendo a quest’ultima a variare nel tempo come funzione degli

errori passati. Le proprietà statistiche di questa nuova classe di modelli parametrici è stata

approfondita successivamente, tra gli altri, da Weiss (1982) e Milhoj (1984) a cui rimandiamo , per

ora, per un approfonidmento teorico.

GARCH(1,1)

Come visto in precedenza, i principali difetti del metodo EWMA sono l’esclusione di elementi della

volatilità a lungo periodo e l’assenza di fattori previsionali effettivi. Se però prendiamo questo

metodo, lo generalizziamo leggermente e aggiungiamo un termine che rappresenta la volatilità a

lungo periodo, otteniamo lo schema del GARCH(1,1), modello che è possibile lavorare al fine, come

vedremo, di produrre previsioni(Riaz[5]).

Il modello GARCH permette che una maggiore flessibilità sia inserita nel processo di volatilità

rispetto al modello Riskmetrics, ma questa complessità ha un costo, l’ottimizzazione dei parametri è

più complessa, le funzioni di massima verosimiglianza offrono spesso difficoltà agli algoritmi di

ottimizzazione, anche per questo utilizziamo un modello GARCH parsimonioso.

Restringiamo la nostra analisi al modello che è quello standars per l’industria finanziaria, il

GARCH(1,1) con un solo ritardo temporale per i residui e per la varianza condizionale.

Questa in estrema sintesi, è l’introduzione allla famiglia dei modelli GARCH che rivedremo ancora

molte volte ed approfondiremo, sia applicato all’analisi della volatilità a sè che applicata al pricing

delle opzioni.

Lo schema GARCH(1,1) è quindi

𝜎𝑛2 = 𝛾��2 + 𝛼𝑢𝑛−1

2 + 𝛽𝜎𝑛−12

Con 𝛾��2che rappresenta la media di lungo periodo, 𝛼𝑢𝑛−12 rappresenta il rendimento del periodo

precedente e 𝛽𝜎𝑛−12 che rappresenta la volatilità del periodo precedente (Riaz[5]).

Page 16: Simare la volatilità dalle serie storiche

Per il modello EWMA avevamo che:

𝛼 = 1 − 𝜆 ; 𝛽=𝜆 ; 𝛾 =0

ponendo:

𝜔 = 𝛾��2

Otteniamo:

𝜎𝑛2 = 𝜔 + 𝛼𝑢𝑛−1

2 + 𝛽𝜎𝑛−12

I vincoli del modello sono :

poniamo:

𝛾 + 𝛼 + 𝛽 =1

quindi:

𝛾 =1−𝛼 − 𝛽

e 𝜔

��2=1−𝛼 − 𝛽

��2 =𝜔

1 − 𝛼 − 𝛽

finalmente

𝜔 = ��2 (1−𝛼 − 𝛽)

Inoltre dovremmo avere che:

𝛼 + 𝛽 <1

Altrimenti il peso applicato alla varianza di lungo periodo sarebbe negativo.

Una volta stabilita la forma del modello, dobbiamo trovare i valori dei parametri 𝜔 , 𝛼e𝛽.

Anche in questo caso useremo il metodo della massima verosimiglianza, già introdotto in

precedenza per la stima del parametro nei modelli EWMA Optimal Decay.

Page 17: Simare la volatilità dalle serie storiche

Stima dei parametri

Anche in questo caso, assumiamo, per semplicità, che i rendimenti siano distribuiti

normalmente. Sotto questa assunzione, per trovare i valori ottimali di 𝜔 , 𝛼, e 𝛽

massimizziamo la funzione di verosimiglianza.

Per ogni periodo, in genere pari ad un giorno, calcoliamo la funzione di log-verosimiglianza:

log[1

𝜎𝑖√2𝜋𝑒−(𝑢𝑖−𝑢)

2

2𝜎𝑖2

]

Quindi, massimizziamo tale funzione:

∑log[1

𝜎𝑖√2𝜋𝑒−(𝑢𝑖−𝑢)

2

2𝜎𝑖2]

𝑚

𝑖=1

Implementare GARCH in Excel

Lo schema per il modello GARCH:

𝜎𝑛2 = 𝜔 + 𝛼𝑢𝑛−1

2 + 𝛽𝜎𝑛−12

Per applicare il modello dovremo avere delle stime iniziali dei parametri , 𝛼e𝛽 , diciamo

𝛼 = 10%𝛽 = 80%

Definiamo 𝜔 in termini di varianza di lungo termine e gli altri due nostri parametri come:

𝜔 = ��2 (1−𝛼 − 𝛽)

per ridurre il numero di parametri da ottimizzare.

Utilizziamo sempre i dati giornalieri di S&P500 e VIX da Yahoo Finanza:

https://it.finance.yahoo.com/q/hp?s=%5EGSPC

https://it.finance.yahoo.com/q/hp?s=%5EVIX

Lavoriamo sempre solo sui dati dell’S&P, usando sempre il VIX a scopo di confronto generale

sull’andamento

Page 18: Simare la volatilità dalle serie storiche

Importando i dati dell’S&P500, per esempio, avremo ancora:

Calcoliamo sempre i log-rendimenti giornalieri

Rendimento = log(𝑆𝑖

𝑆𝑖−1)

nel foglio di calcolo:

=LN(B3/B2)

Come valore iniziale usiamo anche qui la varianza dell’intero periodo, usando tutti dati del

campione a disposizione:

La varianza non-condizionale è ([10] Bourgoin) :

=VAR(C3:C864)

Tale valore viene inserito nel nostro foglio di calcolo nella cella D3, come valore iniziale del calcolo.

E’ utile denominare le celle Excel, chiameremo longrun la cella con la Varianza non-condizionale.

Creiamo tre celle denominate : omega, alpha e beta. Nella casella omega:

=longrun*ABS(1-alpha-beta)

Usiamo il valore assoluto per aiutare, in qualche modo, l’algoritmo di ottimizzazione, nello specifico

solver, per evitare di avere valori negativi. Nelle celle alpha e beta mettiamo, rispettivamente, i

valori inizali di cui sopra, cioè 0.1 e 0.8.

Creiamo altre due celle , sotto quelle dei parametri , per la verosimiglianza, che sarà in questo caso

la log-verosimiglianza, e per i vincoli di ottimizzazione (𝛼 + 𝛽 < 1) , in modo che solver ottimizzi i

valori di alpha e beta .

Inseriamo quindi , nella colonna successiva , la formula per il nostro modello GARCH(1,1)

Page 19: Simare la volatilità dalle serie storiche

Ora, quello che vogliao fare , è definire la nostra log-verosimiglianza. Possiamo appoggiarci ad una

funzione di Excel: NORMDIST che calcola la funzione di densità cumulativa di probabilità normale o

la funzione di distribuzione normale per una serie di parametri forniti. La sintassi è la seguente :

NORMDIST( x, mean, standard_dev, cumulative ) . Il primo parametro, x, rappresenta i dati, nel

nostro caso sono i rendimenti giornalieri, il secondo parametro, mean, abbiamo detto che

assumiamo sia zero, la standard_dev è pari alla radice della nostra stima GARCH(1,1). L’ultimo

parametro è un valore booleano (vero/falso), con 0 indichiamo che vogliamo funzione di

distribuzione, come nel nostro caso, mentre con 1 vogliamo la funzione di densità cumulativa.

Quindi la nostra cella likelihood , da ottmizzare sarà semplicemente:

=SUM(I3:I2833)

Con la cella likelihood attiva, che sarà quindi la cella obiettivo, clicchiamo su Solver. Vogliamo

massimizzarne il valore, cambiano le celle alpha e beta, aggiungendo il vincolo che la cella costrain

( =alpha + beta) sia <= 0.999.

Per il nostro campione di 2833 dati giornalieri dell’S&P che vanno dal 3 gennaio 2005 al 17 febbraio

2016 , otteniamo valori ottimali pari a :

𝛼 = 0.1121𝛽 = 0.8764

Page 20: Simare la volatilità dalle serie storiche

Otteniamo quindi una stima della volatilità negli ultimi mesi:

Se voglio poi confrontare la stima del modello GARCH(1,1) col VIX o col modello RiskMetrics, devo

annualizzare la stima:

=SQRT(H3*365)*100

Infatti procediamo col confronto tra le stime della volatilità realizzata di GARCH(1,1) e RiskMetrics

Optimal Decay e della volatilità implicita col VIX.

0

5

10

15

20

25

30

35

40

45

08

/19

/20

15

08

/25

/20

15

08

/31

/20

15

09

/04

/20

15

09

/11

/20

15

09

/17

/20

15

09

/23

/20

15

09

/29

/20

15

10

/05

/20

15

10

/09

/20

15

10

/15

/20

15

10

/21

/20

15

10

/27

/20

15

11

/02

/20

15

11

/06

/20

15

11

/12

/20

15

11

/18

/20

15

11

/24

/20

15

12

/01

/20

15

12

/07

/20

15

12

/11

/20

15

12

/17

/20

15

12

/23

/20

15

12

/30

/20

15

01

/06

/20

16

01

/12

/20

16

01

/19

/20

16

01

/25

/20

16

01

/29

/20

16

02

/04

/20

16

02

/10

/20

16

02

/17

/20

16

Garch (1,1)

0,00

20,00

40,00

60,00

80,00

100,00

120,00

03

-ge

n-0

52

6-a

pr-

05

15

-ago

-05

05

-dic

-05

27

-mar

-06

19

-lu

g-0

60

7-n

ov-

06

01

-mar

-07

28

-giu

-07

17

-ott

-07

12

-feb

-08

06

-giu

-08

25

-se

t-0

81

9-g

en

-09

13

-mag

-09

01

-se

t-0

92

1-d

ic-0

91

5-a

pr-

10

04

-ago

-10

24

-no

v-1

01

5-m

ar-1

10

6-l

ug-

11

26

-ott

-11

17

-feb

-12

12

-giu

-12

02

-ott

-12

23

-ge

n-1

31

6-m

ag-1

30

4-s

et-

13

24

-dic

-13

16

-ap

r-1

40

8-a

go-1

41

2/0

1/2

01

40

3/2

6/2

01

50

7/2

0/2

01

51

1/0

9/2

01

5

Page 21: Simare la volatilità dalle serie storiche

Vediamo la linea blu è il GARCH(1,1), la linea arancione è il VIX mentre quella grigia è RiskMetrics

Optimal Decay.

Notiamo come il VIX tende ad avere valori più alti del GARCH(1,1) e ancor più del modello Optimal

Decay, soprattutto nei momenti in cui la volatilità è su valori medi, sembrerebbe che il VIX anticipi i

movimenti degli altri due modelli, soprattutto per gli spikes al rialzo. In realtà il tema se il VIX abbia

capacità previsonali rispetto ai modelli ARCH o simili è piuttosto dibattuto in letteratura, ma la

maggior parte delle evidenze,come vedremo, mostrano come valori più elevati del VIX dipendano

soprattutto dalla sua natura di stima di mercato, per cui , tra i vari motivi, sul mercato delle opzioni

gli operatori aggiungono un premio per il rischio, che viene prezzato in parte come volatilità.

Relativamente di recente, il calcolo del VIX è cambiato ed ora è model free. In ogni caso, una

componente mean reverting sembra essere presente anche nel VIX index, spiegando questa

presunta capacità previsionale.

Previsione della volatilità col GARCH(1,1)

Come detto in precedenza, una delle debolezze del modello RiskMetrics (1994) è l’assenza di

capacità previsionali oltre un periodo (Riaz[5]). Possiamo scrivere il Garch (1,1)

𝜎𝑛2 = ��2(1 − 𝛼 − 𝛽) + 𝛼𝑢𝑛−1

2 + 𝛽𝜎𝑛−12

= ��2 − 𝛼 − 𝛽��2 + 𝛼𝑢𝑛−12 + 𝛽𝜎𝑛−1

2

𝜎𝑛2 − ��2 = 𝛼(𝑢𝑛−1

2 − ��2) + 𝛽(𝜎𝑛−12 − ��2)

Quindi, ai fini previsionali, siamo interessati a quello che succede in un periodo n+k futuro.

Manipoliamo per vedere quali sono le aspettative per il futuro.

𝜎𝑛+𝑘2 − ��2 = 𝛼(𝑢𝑛+𝑘−1

2 − ��2) + 𝛽(𝜎𝑛+𝑘−12 − ��2)

Prendendo le aspettative da entrambi i lati dell’equazione, avremo

𝐸[𝜎𝑛+𝑘2 − ��2] = 𝐸[𝛼(𝑢𝑛+𝑘−1

2 − ��2) + 𝛽(𝜎𝑛+𝑘−12 − ��2)]

Sapendo che

𝐸[𝑢𝑛+𝑘−12 ] = 𝜎𝑛+𝑘−1

2

Possiamo porre

𝐸[𝜎𝑛+𝑘2 − ��2] = 𝐸[𝛼(𝑢𝑛+𝑘−1

2 − ��2) + 𝛽(𝜎𝑛+𝑘−12 − ��2)]

= 𝐸[(𝛼 + 𝛽)(𝜎𝑛+𝑘−12 − ��2)]

Essendo (𝛼 + 𝛽) costante ed approfittando della linearità delle aspettative:

𝐸[𝜎𝑛+𝑘2 − ��2] = (𝛼 + 𝛽)𝐸[(𝜎𝑛+𝑘−1

2 − ��2)]

Usiamo ora il risultato per 𝐸[𝑢𝑛+𝑘−12 ]otteniamo:

𝐸[𝜎𝑛+𝑘−12 − ��2] = (𝛼 + 𝛽)𝐸[(𝜎𝑛+𝑘−2

2 − ��2)]

Page 22: Simare la volatilità dalle serie storiche

Quindi:

𝐸[𝜎𝑛+𝑘2 − ��2] = (𝛼 + 𝛽)2𝐸[(𝜎𝑛+𝑘−2

2 − ��2)]

Ripetendo queso passaggio otteniamo:

𝐸[𝜎𝑛+𝑘2 − ��2] = (𝛼 + 𝛽)𝑘𝐸[(𝜎𝑛

2 − ��2)]

= (𝛼 + 𝛽)𝑘(𝜎𝑛2 − ��2)

Perché conosciamo il valore di 𝐸[(𝜎𝑛2 − ��2)] e quindi lo possiamo trattare come una costante

Espandendo le aspettative:

𝐸[𝜎𝑛+𝑘2 ] − ��2 = (𝛼 + 𝛽)𝑘 (𝜎𝑛

2 − ��2)

E quindi, finalmente, otteniamo l’equazione per le previsioni :

𝐸[𝜎𝑛+𝑘2 ] = ��2+(𝛼 + 𝛽)𝑘(𝜎𝑛

2 − ��2)

Ora, con l’equazioni di cui sopra, possiamo prevedere la volatilità a (n+k) periodi usando solamente

le informazioni alla fine del periodo (n-1) (Riaz[5]).

Se ripensiamo a quanto detto sul modello EWMA, cioè che la previsione per i periodi n+k è una

costante, vediamo qui che, essendo appunto nel modello EWMA

𝛼 + 𝛽 = 1𝑒𝛾 = 0

L’equazione previsionale diventa:

𝐸[𝜎𝑛+𝑘2 ] = 𝜎𝑛

2

Implentazione in Excel

Creiamo una colonna di valori k corrispondenti alla potenza relativa al giorno di previsione.

Dal 4 gennaio 2016 smettiamo di usare lo schema GARCH(1,1) ed implementiamo la nostra

equazione previsionale

=longrun+(alpha+beta)^C2804*($H$2804*longrun)

Confrontiamo poi le previsioni del modello GARCH con i valori realizzati del modello RiskMetrics

Optimal decay e con la volatilità implicita del VIX:

Page 23: Simare la volatilità dalle serie storiche

Vediamo quindi la natura tipica delle previsioni di un modello GARCH. Nel periodo specifico,

l’indicazione era per una volatilità in leggera salita.

In questo lavoro abbiamo peraltro usato uno schema GARCH(p,q) con p = q =1 , mentre è possibile

ricercare valori ottimali per p e q.

Da questo grafico sono evidenti i difetti del modello GARCH, come una lentezza nel rispondere al

movimento del mercato nella stima della volatilità realizzata.

Per ovviare a tali difetti, come vedremo nei lavori successivi, sono stati create diverse rielaborazioni

partendo proprio dallo schema GARCH(p,q), come i modelli EGARCH, GJR-GARCH, AGARCH, NGARCH

ed altri che vedremo.

Conclusioni

Abbiamo quindi visto come sono costruiti i principali modelli statistici di stima della volatilità

realizzata che vengono utilizzati come benchmark.

L’ampiezza dei dati end-of-day disponibili su Yahoo Finanza permetterà all’utente

interessato di analizzare il comportamento dei modelli introdotti su serie storiche reali.

Ricordo che i modelli utilizzati, per quanto iscretamente efficienti, non sono consigliati per

un utilizzo speculativo .

Nei prossimi papers vedremo anche modelli stocastici di volatilità e approfondiremo

laragamente i modelli statistici che abbiamo appena iniziato a vedere.

Notes

[a] varianza condizionale: In teoria delle probabilità e statistica, una varianza condizionale è

la varianza di una distribuzione di probabilità condizionata. Cioè, è la varianza di una

variabile casuale dato il valore o i valori di una o più altre variabili. In particolare in

econometria, la varianza condizionale è anche conosciuto come la funzione schedastica.

0

5

10

15

20

25

301

0/0

1/2

01

5

10

/06

/20

15

10

/09

/20

15

10

/14

/20

15

10

/19

/20

15

10

/22

/20

15

10

/27

/20

15

10

/30

/20

15

11

/04

/20

15

11

/09

/20

15

11

/12

/20

15

11

/17

/20

15

11

/20

/20

15

11

/25

/20

15

12

/01

/20

15

12

/04

/20

15

12

/09

/20

15

12

/14

/20

15

12

/17

/20

15

12

/22

/20

15

12

/28

/20

15

12

/31

/20

15

01

/06

/20

16

01

/11

/20

16

01

/14

/20

16

01

/20

/20

16

01

/25

/20

16

01

/28

/20

16

02

/02

/20

16

02

/05

/20

16

02

/10

/20

16

Previsione 2016

VIX GARCH Opt Decay

Page 24: Simare la volatilità dalle serie storiche

[b] varianza incondizionale: è semplicemente la varianza storica, non prende in

considerazione le informazioni disponibili oggi. Tratta tutte le informazioni con lo stesso

peso.

[1] RiskMetrics Group (1996) RiskMetrics – Technical Document , New York ,JP

Morgan/Reuters

[2] Alexander C. (1996) “Evaluating the use of RiskMetrics as a Risk Measurement Tool for

Operations: what are advantages and limitations?” Derivatives : use Trading and Regulation.

[3] Nelson D.(1992) “Filtering and Forecasting with misspecified ARCH models: getting the

right variance with the wrong model” Journal of Econometrics.

[4] McNees S. S. : “The Forecasting Record of 1970’s” New England Economic Review,

September/October 1979

[5] Riaz A. “Introduction to Volatility Trading” CQF-Fitch lectures 2012

[6] Riaz A. “Stochastic Volatility ” CQF-Fitch lectures 2012

[7] Andersen G. , Bollerslev T., Diebold F. , Ebens H. (2001):”The Distribution of Realized

Stock Returns Volatility ” Journal of financial Economics

[8] Zumbach G., (2006) : “The RiskMetrics 2006 Methodology” RiskMetrics Group

[9] Bollerslev T. (1986) “Generalized Autoregressive Conditional Heteroskedasticity” Journal

of Econometrics

[10] Bourgoin F. (2003) “Applied Volatility and Correlation Modelling Using Excel” Wiley

References

Black F., Scholes M. (1973) “The pricing of Options and Corporate Liabilities” Journal of

Political Economy

Bates D. (1996) “Jumps and Stochastic Volatility: Exchange Rate Process Implicit in PHLX

Deutschemark Options”

Jackwerth J. , Rubinstein M. (1996) : “Recovering Probabilities Distributions from Option

Prices” Journal of Finance

Page 25: Simare la volatilità dalle serie storiche

Ritchey R.J. (1990) : “Call Options Valuations for Discrete Normal Mixtures” , Journal of

Financial Research

Shimko, D. (1994) “A Tail of Two Distributions” Risk ”

Bollerslev T., Chou R.Y., (1992) “ARCH modeling in finance a selective review of the theory

and empirical evidence” Journal of Econometrics

Engle R.F., (1993): “Measuring and Testing the impact of news on Volatility” Journal of

Finance

Fama E.F., (1965) : “The Behavior of Stocks Market Prices” Journal of Businness

Jacquier E., Marcus A.J., (2000): “Market Volatility and Asset Correlation structure” working

paper Boston College