Avaliação do Valor em Risco de um Portifólio de Opções ... · aproximação, principalmente no...
Transcript of Avaliação do Valor em Risco de um Portifólio de Opções ... · aproximação, principalmente no...
Avaliação do Valor em Risco de um Portifólio de Opções
segundo as Metodologias Delta-Gama e Simulação Histórica
Filtrada.
Claudio Henrique da Silveira Barbedo
Universidade Federal do Rio de Janeiro
Instituto COPPEAD de Administração
Mestrado em Administração
Orientador: Eduardo Facó LemgruberPh.D. em Finanças
Rio de Janeiro
2002
ii
Avaliação do Valor em Risco de um Portifólio de Opções segundo asMetodologias Delta-Gama e Simulação Histórica Filtrada.
Claudio Henrique da Silveira Barbedo
Dissertação submetida ao corpo docente do Instituto COPPEAD de Administração, da
Universidade Federal do Rio de Janeiro - UFRJ, como parte dos requisitos necessários
para a obtenção do grau de Mestre em Ciências (M.Sc.) em Administração.
Aprovada por:
Orientador : ____________________________________________
Prof. Eduardo Facó Lemgruber (COPPEAD/UFRJ)
Examinador: ___________________________________
Prof. Eduardo Saliby (COPPEAD/UFRJ)
Examinador: ___________________________________
Prof. Octávio Bessada (Banco Central)
Rio de Janeiro
2002
iii
FICHA CATALOGRÁFICA
Barbedo, Claudio Henrique da Silveira.
Avaliação do Valor em Risco de um Portifólio de Opções segundo as
Metodologias Delta-Gama e Simulação Histórica Filtrada/ Claudio
Henrique da Silveira Barbedo. - Rio de Janeiro: UFRJ/COPPEAD,
2002
xi, 114p. il.
Dissertação - Universidade Federal do Rio de Janeiro, COPPEAD.
1. Opções. 2. Ativos Não-Lineares. 3. Métodos Não-Paramétricos
II. Universidade Federal do Rio de Janeiro. Instituto COPPEAD de
Administração III.Título.
iv
Agradecimentos
Aos meus pais.
Ao Departamento do Meio Circulante, por atuar participativamente na formação técnica
de seus recursos humanos, com uma visão sistêmica e integrada.
Ao amigo de turma Gustavo, pelas infindáveis discussões nos fins-de-semana.
Ao professor Facó, pela objetividade e clareza demonstrada na orientação.
À minha esposa, pela compreensão, força e companheirismo demonstrados nos
momentos mais difíceis desta empreitada.
Ao meu filho Luiz Felipe, pelas ausências constantes.
v
RESUMO
BARBEDO, Claudio Henrique da Silveira. Avaliação do Valor em Risco de um
Portifólio de Opções segundo as Metodologias Delta-Gama e Simulação Histórica
Filtrada. Orientador: Eduardo Facó Lemgruber. Rio de Janeiro: UFRJ/COPPEAD,
2002. Dissertação.
Vários modelos de finanças adotam suposições simplificadas. Um dos mais importantes,o modelo de variância de Markowitz (1959), assume uma distribuição normalizada paraos ativos analisados, devido à facilidade de tratamento matemático e estatístico.
Entretanto, a distribuição normal é, na prática, útil somente como uma rudeaproximação, principalmente no caso de opções, que se caracterizam como uminstrumento não linear e com caudas pesadas nas séries de retorno.
O objetivo deste trabalho é obter um modelo acurado e que apresente uma boaestimativa das medidas de risco de um portifólio de opções.
O estudo não faz suposições sobre propriedades estatísticas das mudanças futuras depreços e analisa os mais utilizados modelos para análise de risco de opções: o modeloRiskMetricsTM e o modelo de Simulação Histórica, com uma técnica para suplantar suasprincipais deficiências constantes na literatura.
A proposta é um refinamento do modelo de Simulação Histórica, ao qual, elimina otrade-off entre longos períodos amostrais, que violam a suposição de retornosindependentes e identicamente distribuídos, e curtos períodos amostrais, que reduzem aprecisão do modelo. Além disso, soluciona o problema de que os únicos fatores de riscopossíveis de medição, na previsão por este método, serem aqueles observados noperíodo da amostra.
O procedimento proposto é filtrar a simulação histórica pela volatilidade de umprocesso GARCH e modelar a futura distribuição do ativo-objeto. Os preços dos ativos-objeto são simulados pelo processo de bootstrap. Os preços das opções são computadospor reavaliação contínua dos preços dos ativos-objeto. A metodologia, implicitamente,leva em consideração a correlação entre os ativos-objeto, a assimetria e as caudaspesadas, sem a necessidade de cálculo ou estimativas matemáticas.
vi
ABSTRACT
BARBEDO, Claudio Henrique da Silveira. Avaliação do Valor em Risco de um
Portifólio de Opções segundo as Metodologias Delta-Gama e Simulação Histórica
Filtrada. Orientador: Eduardo Facó Lemgruber. Rio de Janeiro: UFRJ/COPPEAD,
2002. Dissertação.
Several models in finance rely on simplified assumptions. One of the most important,the Mean-Variance model of Markowitz (1959), assumes the multivariate normaldistribution for a collection of assets due to its mathematical tractability and statisticalinterpretations.
However, the normal distribution is, in practice, useful only as a rough approximation,mainly in the case of options, because it involves a non-linear instrument in a single andtypically fat-tailed return series.
The aim of this work is that of obtaining a good representation of accuracy and a goodestimate of the risk measures in an option portfolio.
This study made no assumptions about statistical properties of future price changes andanalyzed the two most widespread approaches to Value at Risk options estimation: theRiskMetricsTM model and the Historical Simulation model, with a technique toovercome the shortcomings of the latter.
The proposal is a refinement of the Historical Simulation model. Therefore, one will nolonger have to worry about the trade-off between long sample periods, which potentiallyviolate the assumption of independent and identical distributions, or short sampleperiods, which reduce the precision of the Historical Simulation estimate. Furthermore,it solves the problem that the only changes in risk factors that were possible to measurein the forecast distribution were those observed in the historical sample period.
The proposed procedure is filtering a historical simulation by GARCH volatilities andmodeling the future distribution of assets. The underlying prices are simulated by thebootstrapping process. Options process changes are computed by full reevaluation of thechanging prices of underlying assets. The methodology takes asset correlations,skewness and tail-fatness into account implicitly, avoiding parameterizing andestimating a mathematical model.
vii
SUMÁRIO
CAP.1: INTRODUÇÃO................................................................................................... 1
1.1 - O PROBLEMA.......................................................................................................... 1 1.2 - OBJETIVOS.............................................................................................................. 5 1.3 - CARACTERÍSTICAS DO ESTUDO................................................................................ 6 1.4 - DELIMITAÇÃO DO ESTUDO....................................................................................... 7
CAP.2: REVISÃO DA LITERATURA......................................................................... 10
CAP.3: METODOLOGIA ............................................................................................ 42
3.1 - SELEÇÃO DO PERÍODO E DA AMOSTRA................................................................... 42 3.2 - CÁLCULO DA CURVA DA TAXA DE JUROS PRÉ-FIXADA........................................... 43 3.3 - METODOLOGIA DA SIMULAÇÃO HISTÓRICA FILTRADA ........................................... 48 3.4 – OUTRAS METODOLOGIAS ...................................................................................... 56 3.5 – A METODOLOGIA DELTA-GAMA ........................................................................... 60 3.6 – MÉTODOS PARA AVALIAÇÃO DOS MODELOS ......................................................... 63
3.6.1 – Kupiec .......................................................................................................... 64 3.6.2 – Christoffersen ............................................................................................... 65 3.6.3 – Lopez ............................................................................................................ 70
CAP.4: RESULTADOS ................................................................................................. 74
4.1 – RESULTADO DAS METODOLOGIAS PARA AS OPÇÕES ISOLADAS .............................. 75 4.2 – RESULTADO DAS METODOLOGIAS PARA OS PORTIFÓLIOS DE OPÇÕES..................... 88 4.3 – RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA AS
OPÇÕES ISOLADAS ........................................................................................................ 96 4.4 – RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA OS
PORTIFÓLIOS................................................................................................................. 99
CAP.5: CONCLUSÕES E CONSIDERAÇÕES FINAIS........................................... 101
REFERÊNCIAS BIBLIOGRÁFICAS ........................................................................ 105
ANEXOS ...................................................................................................................... 110
SUMÁRIO
CAP.1: INTRODUÇÃO ....................................................................................................... 1
1.1 - O PROBLEMA ............................................................................................................... 1
1.2 - OBJETIVOS ................................................................................................................... 5
1.3 - CARACTERÍSTICAS DO ESTUDO .................................................................................... 6
1.4 - DELIMITAÇÃO DO ESTUDO ........................................................................................... 7
CAP.2: REVISÃO DA LITERATURA ............................................................................ 10
CAP.3: METODOLOGIA ................................................................................................ 42
3.1 - SELEÇÃO DO PERÍODO E DA AMOSTRA ...................................................................... 42
3.2 - CÁLCULO DA CURVA DA TAXA DE JUROS PRÉ-FIXADA ............................................. 43
3.3 - METODOLOGIA DA SIMULAÇÃO HISTÓRICA FILTRADA ............................................. 48
3.4 – OUTRAS METODOLOGIAS .......................................................................................... 56
3.5 – A METODOLOGIA DELTA-GAMA ............................................................................... 60
3.6 – MÉTODOS PARA AVALIAÇÃO DOS MODELOS ............................................................ 63
3.6.1 – Kupiec ............................................................................................................... 64
3.6.2 – Christoffersen ................................................................................................... 65
3.6.3 – Lopez ................................................................................................................. 70
CAP.4: RESULTADOS ..................................................................................................... 74
4.1 – RESULTADO DAS METODOLOGIAS PARA AS OPÇÕES ISOLADAS ................................ 75
4.2 – RESULTADO DAS METODOLOGIAS PARA OS PORTIFÓLIOS DE OPÇÕES ...................... 88
4.3 – RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA AS
OPÇÕES ISOLADAS ............................................................................................................. 96
4.4 – RESULTADO DAS METODOLOGIAS SEGUNDO A PROXIMIDADE DO DINHEIRO PARA OS
PORTIFÓLIOS ..................................................................................................................... 99
CAP.5: CONCLUSÕES E CONSIDERAÇÕES FINAIS ............................................. 101
REFERÊNCIAS BIBLIOGRÁFICAS ........................................................................... 105
ANEXOS ........................................................................................................................... 110
1
Cap.1: Introdução
1.1 - O Problema
Métodos de cálculo do Valor em Risco desempenham um papel importante no
gerenciamento do risco de instituições financeiras. Vários modelos de Valor em Risco ou
VaR são usados com o mesmo objetivo, que é medir a pior perda esperada ao longo de
determinado horizonte de previsão, sob condições normais de mercado e dentro de um
determinado nível de confiança.
A análise de Valor em Risco impulsionou-se com a disponibilização gratuita da
metodologia de quantificação de risco pela matriz de variância-covariância, introduzida
pelo banco J.P. Morgan – RiskMetricsTM (1993). A aproximação variância-covariância
pôde ser resgatada baseada na teoria de portifólios de Markowitz (1959)1, o que explica, em
parte, o porquê desta metodologia ter tido tão ampla repercussão no gerenciamento de
risco.
Antes disso, o primeiro passo para uma administração de risco mais rígida tinha sido o
histórico Acordo da Basiléia de 1988, que estabeleceu exigências mínimas de capital para
os bancos comerciais, como prevenção contra o risco de crédito. A partir de 1995, os países
que compunham o grupo dos dez (G-10), do qual o Comitê de Supervisão Bancária da
1 Markowitz introduziu a matriz de variância-covariância com um diferente propósito. Seu objetivo era determinar os pesos ótimos dos ativos considerando a relação risco e retorno. Gerentes de risco não enfrentam o problema de alocação de ativos.
2
Basiléia foi criado, foram obrigados a requerer dos bancos medidas de risco de mercado
usando a noção de Valor em Risco. Os bancos seriam autorizados a escolher entre um
modelo padrão legislado ou algum modelo interno criado pelo próprio banco, desde que
comprovado a adequação aos propósitos e previamente aprovado pelos supervisores,
estabelecendo-se que a adequação de capital seria proporcional a medida de VaR de cada
instituição financeira. Este mesmo movimento foi seguido pelos membros dos estados da
União Européia em 1996. Estas propostas demonstraram o reconhecimento dos bancos
centrais de que os modelos de administração de risco utilizados pelos principais bancos
eram superiores a qualquer modelo que eles pudessem propor.
Porém, esta liberdade para a escolha da metodologia usada para o cálculo do Valor em
Risco apresenta o aspecto negativo de poder dar margem a resultados muito diferentes de
necessidade de adequação de capital. Bancos com posições semelhantes poderiam ter
diferentes necessidades de capital em função do método escolhido para a mensuração do
Valor em Risco. Isto poderia representar um obstáculo a uma precisa e confiável estimação
da solvência do banco pelos supervisores, caso houvesse alguma tendência de utilização de
métodos de VaR que produzissem menores necessidades de capital. Portanto, pesquisas
nesta área tornaram-se extremamente importantes e necessárias para a estabilidade do
sistema financeiro.
Pelo lado das instituições financeiras, este assunto também apresenta grande importância
pelo fato de definir-lhes o melhor método de medida do Valor em Risco, que seja aceitável
pelo supervisor, de maneira que não imponha adequações extras de capital e ao mesmo
tempo permita que o banco administre o seu risco de maneira prudente e responsável.
3
Os modelos de risco mais utilizados no mercado, geralmente se baseiam em propriedades
estatísticas existentes que impõem fortes suposições sobre a distribuição dos dados. A
função de probabilidade dos retornos diários geralmente é estabelecida como normal e com
média e variância constante. Como previamente documentado por Kendall (1953),
Mandelbrot (1963) e Fama (1965), a suposição de normalidade é pouco realista, à medida
que a distribuição dos retornos das séries financeiras parece tender para caudas mais gordas
do que a da distribuição normal. Com isso, a suposição de normalidade produz uma
subestimação do Valor em Risco. Duffie e Pan (1997) apontam que as possíveis causas
para a existência das caudas gordas nas séries financeiras são a presença de saltos, que
representam mudanças descontínuas nos preços, e a presença da volatilidade estocástica.
Estes problemas são agravados quando o portifólio contém posições em ativos não lineares,
pois, neste caso, dada a distribuição de retornos do ativo-objeto, não se consegue
determinar, com precisão, a distribuição de retornos do derivativo.
Para contornar estas limitações, gerentes de risco iniciaram a trabalhar com técnicas de
simulação, usadas para gerar trajetórias de preços ou cenários específicos para as posições
lineares, taxas de juro, câmbio e outras, para então avaliar as posições dos derivativos, em
função de cada cenário. Porém, o modelo também não conseguiu fugir às críticas, pois
gerava cenários baseados em números aleatórios de uma distribuição teórica, que
geralmente era a normal, e que nem sempre era similar a distribuição empírica do ativo que
se queria investigar.
4
Reconhecendo o fato que muitos retornos de ativos não podem ser descritos por uma
distribuição teórica, um grande número de instituições financeiras está usando modelos de
Simulação Histórica2. Neste método, cada observação histórica forma um cenário possível
e para cada cenário há uma precificação do ativo. A distribuição do portifólio gerada é mais
realista do que quando baseada em uma distribuição teórica dos fatores de risco. Porém, o
método também apresenta algumas falhas, devido à suposição implícita de que os retornos
são distribuídos independente e identicamente (iid)3. Fierli (2002) ressalta que esta
suposição é violada pelas evidências do cluster de volatilidade e que esta violação leva a
uma inconsistência na estimativa do Valor em Risco.
Algumas técnicas têm sido usadas para reduzir esta inconsistência, como a metodologia de
Simulação Histórica de Boudoukh, Richardson e Whitelaw (1998) que desconsidera a
suposição padrão de que os retornos passados têm a mesma probabilidade de ocorrência,
atribuindo maior probabilidade a observações mais recentes e a metodologia de Barone-
Adesi, Giannopoulos e Volsper (2000), que apresentam uma técnica para resolver o
problema da não ocorrência de retornos distribuídos independente e identicamente, que é a
utilização destes retornos divididos pela volatilidade modelada por um processo GARCH.
2 Segundo Barone-Adesi, Giannopoulos e Vosper (2000). 3 Independent and identically distributed. Identicamente distribuída significa que a probabilidade de ocorrência de uma específica perda é a mesma para cada dia. Independência implica que a escala do movimento do preço em um período não influenciará o movimento de preços sucessivos.
5
1.2 - Objetivos
O objetivo fundamental deste trabalho é verificar a eficiência da metodologia de Barone-
Adesi, Giannopoulos e Volsper (2000) no cálculo do Valor em Risco de uma carteira de
opções negociadas na Bovespa, com as respectivas adaptações do modelo às características
do mercado brasileiro.
A principal idéia, seguida neste trabalho, é padronizar os retornos assumindo um modelo
para a volatilidade do ativo estudado. Dentro da série, um bootstrap é aplicado para gerar
uma distribuição de retornos simulada.
O bootstrap é uma técnica que assume que os resíduos padronizados têm a mesma
probabilidade de ocorrência. Esta suposição é extremamente coerente se considerarmos que
a volatilidade do modelo foi corretamente especificada, caso contrário, seria melhor atribuir
probabilidades maiores de ocorrência as mais recentes observações da série. Neste sentido,
este trabalho compreende também um minucioso estudo sobre a estimativa da volatilidade
dos ativos envolvidos, conforme será explicitado no capítulo que trata da metodologia do
trabalho.
Para alcançar esse objetivo, será verificada a eficiência do modelo no teste de proporção de
falhas de Kupiec (1995), que verifica a acurácia do VaR calculado, no teste condicional de
Christoffersen (1996), que se baseia nas informações existentes em cada ponto da amostra e
no teste de Lopez (1999), que se baseia nas perdas verificadas.
6
1.3 - Características do Estudo
A decisão do tipo de portifólio a ser utilizado neste trabalho foi devida principalmente a
poucos estudos previamente apresentados no Brasil e ao fato de ser, neste momento, um
dos objetos de regulamentação pelo Banco Central do Brasil. Outro aspecto importante a
destacar é o nível de complexidade do assunto, conforme nos retrata Gyzycky e Hereford
(1998), que através de um estudo empírico, enviaram uma série de portifólios para todos os
bancos australianos, para que estes calculassem o VaR diário de cada portifólio pelos seus
próprios métodos. Dos vinte e dois bancos que responderam a pesquisa, somente dois
foram capazes de calcular o Valor em Risco de todos os portifólios e o que continha opções
foi o que apresentou os maiores problemas para cálculo pelos bancos.
O período de estudo deste trabalho não foi determinado por acaso. O objetivo foi selecionar
um período comum em que as opções de maior liquidez do mercado pudessem compor um
portifólio teórico, a fim de que se pudesse testar a metodologia indicada.
Em relação à escolha do nível de significância, neste trabalho, seguiu-se a recomendação
do BIS4. Pode-se dizer que esta escolha, em última instância, é arbitrária e varia de acordo
com o propósito em questão, seja avaliação da precisão do sistema de risco implantado,
determinação do volume de capital exigido para a instituição ou comparação de sistemas de
risco distintos. Mollica (1999) oferece algumas indicações, ao afirmar que se o propósito da
escolha for a avaliação do sistema, recomenda-se que o nível de significância seja alto,
4 Bank of International Settlement
7
porque, caso contrário, retornos que excedem o VaR seriam eventos raros e, com isso, seria
necessária uma base de dados muito grande para se obter informações sobre o desempenho
do modelo. No caso da determinação de capital, a escolha do nível de significância depende
do grau de aversão ao risco do administrador: quanto mais avesso ao risco menor deve ser o
nível de significância para que o capital alocado seja maior. Por último, o autor afirma que
se o propósito é comparar diferentes sistemas de risco sob a hipótese de normalidade, o
nível de significância escolhido é irrelevante, pois neste caso, o VaR com dado nível de
significância pode ser diretamente transformado num outro nível de significância qualquer,
com a simples alteração de parâmetros. Verifica-se, portanto que, sem a premissa de
normalidade, a escolha do nível de significância é importante para o cálculo do Valor em
Risco e que, neste caso, os diferentes níveis de significância tornam-se incomparáveis.
1.4 - Delimitação do Estudo
Este estudo não se propõe a abordar ou comparar os diferentes métodos de cálculo do Valor
em Risco, tarefa já amplamente executada em diversos cursos e trabalhos5, mas sim focar
em um aspecto chave para o cálculo do Valor em Risco em geral e, sobretudo para o
cálculo do Valor em Risco de opções, em particular: a validade da suposição de
normalidade dos retornos de um ativo-objeto. Sob este aspecto, literaturas consagradas na
área de risco são apresentadas no capítulo de Revisão Bibliográfica e demonstram que,
embora haja uma definição ou mesmo uma indiferença do mercado na maneira de se
calcular o Valor em Risco de ativos-objeto, no que tange aos derivativos, há uma gama de
5 O capítulo de revisão bibliográfica apresenta diferentes trabalhos de comparação dos mais diversos métodos de cálculo do Valor em Risco.
8
estudos pouco conclusivos. Este estudo pretende prestar uma contribuição dentro da área de
Valor em Risco de opções, demonstrando a aplicabilidade de uma metodologia denominada
Simulação Histórica Filtrada.
Dentre as técnicas mais comumentes adotadas nos trabalhos acadêmicos, para avaliação do
Valor em Risco dos modelos existentes no mercado, encontramos: curtos holding periods,
geralmente 1 ou 10 dias, distribuição dos retornos normais, retorno esperado zero, matriz de
variância-covariância constante e ausência de benchmark. Porém, a maioria dos modelos
considerados como práticas padrão nasceram do uso dos bancos e dentre o que se vê na
prática6, destaca-se: horizonte de investimento longo, pelo menos 1 mês e em alguns casos
períodos maiores, a não razoabilidade de considerarmos a distribuição dos retornos normais
para este horizonte, retorno esperado do portifólio diferente de zero, volatilidades e
correlações variantes com o tempo e não necessariamente lineares e a existência de um
benchmark. Com isso, os métodos por ora presentes, acabam se caracterizando por
representações simplistas da realidade dos mercados.
Das técnicas abordadas neste trabalho, uma considera a hipótese de normalidade dos
retornos – a metodologia Delta-Gama, e o cálculo do Valor em Risco envolve apenas um
problema probabilístico, uma vez que estamos supondo conhecida a distribuição dos
retornos da carteira. A outra, desconsidera esta hipótese, e a mensuração do Valor em Risco
envolve um problema de inferência, pois a única informação disponível é a realização do
processo estocástico passado dos retornos. Neste segundo caso, conforme será apresentado
no capítulo da Revisão Bibliográfica, alterações na metodologia original serão conduzidas,
6 Segundo Pallotta e Zenti (2000).
9
visando a apresentação de um modelo que se mostre confiável para aplicação dentro do
objetivo deste trabalho e que atenda às práticas de negociação das opções.
Por fim, apesar das diferentes ramificações e exposições a riscos financeiros – risco de
crédito, mercado, liquidez e operacional, este trabalho ficará centrado no risco de mercado
para um portifólio de derivativos de renda variável, o que significa a quantificação da
variação do valor da carteira decorrente somente de mudanças inesperadas nos preços dos
ativos-objeto estudados.
10
Cap.2: Revisão da Literatura
Duffie e Pan (1997) conduziram um dos mais completos trabalhos de comparação entre o
método de simulação de Monte Carlo e o método Delta-Gama adotado pelo RiskMetricsTM.
Em seu estudo, os autores ilustraram as implicações dos métodos de estimação do Valor em
Risco para um portifólios de opções, utilizando 10.996 opções dos 418 ativos-objeto da
carteira do RiskMetricsTM de 29 de julho de 1996, distribuídos em 4 grupos formados por
commodities, moeda estrangeira, títulos de renda fixa e ações.
Os autores verificaram que com 99% de confiança, na posição comprada ou vendida, o
cálculo do VaR utilizando o método de simulação de Monte Carlo, que assumia um
processo estocástico descrito pelos preços como log-normal, apresentou valores maiores
dos que o resultante da metodologia do RiskMetricsTM. No caso do holding period de 1 dia,
a diferença chegou a 0.1% do valor inicial do portifólio e no holding period de 10 dias, esta
diferença chegou a 1.8%. É nesta medida de confiança que se concentra a cauda da
distribuição de probabilidade e quando os problemas de caudas gordas aparecem, devido à
não normalidade e à falta de linearidade, no caso das opções.
Pritsker (1997) testa a hipótese de que os diferentes métodos de cálculo do Valor em Risco,
para ativos não lineares, geram resultados distintos. O autor comprova esta idéia ao
examinar 6 diferentes metodologias para cálculo do Valor em Risco. Em um primeiro
exercício, o autor calcula o Valor em Risco de posições comprada e vendida, para opções
isoladas de moeda estrangeira, com 7 classificações de moneyness e 10 classificações de
11
maturidade, variando de 36 dias a 1 ano. Em um segundo exercício, o autor examina o
cálculo do Valor em Risco para 500 portifólios aleatórios, formados pelas opções do
primeiro exercício.
O autor também analisa o trade-off entre acurácia e tempo computacional. No exame de
acurácia, os resultados foram divididos em dois grupos devido a grande superioridade dos
métodos de simulação sobre os métodos analíticos. No exame de tempo computacional,
apesar de verificado a superioridade dos métodos analíticos, como era de se esperar, os
resultados conjugados com o exame da acurácia apontaram a superioridade do método de
simulação de Monte Carlo, utilizando o Delta e o Gama do portifólio para estimar as
variações a partir de movimentos no preço do ativo-objeto.
Os resultados indicaram que todos os métodos de cálculo do Valor em Risco, à exceção do
Monte Carlo completo - denominação seguida pelo autor para designar a suposição de que
o processo estocástico descrito pelos preços é log-normal, geraram grandes erros para
opções muito fora-do-dinheiro com um curto tempo para expiração. Para o caso de opções
de compra isoladas, o autor utilizou variações das metodologias Delta analítica e Delta-
Gama analítica e concluiu que os métodos superestimaram grosseiramente o Valor em
Risco do período. No caso de opções de venda isoladas, as metodologias subestimaram o
Valor em Risco. Somente os resultados da metodologia Delta foram consistentes com os
verificados na literatura sobre VaR.
Na análise do Valor em Risco dos portifólios foi constatada uma relativa similaridade no
comportamento dos erros dos métodos analíticos e simulação. Quando os métodos
12
analíticos erravam grosseiramente o Valor em Risco do portifólio, os métodos de simulação
também erravam grosseiramente, porém quando os métodos analíticos apresentavam
pequena escala de erros, os métodos de simulação acertavam na previsão.
O autor termina o artigo constatando a superioridade dos métodos de simulação no cálculo
do Valor em Risco de ativos não lineares.
No Brasil, Picanço (2000) avaliou como flutuações no preço do ativo-objeto podem ser
traduzidas em Valor em Risco para posição comprada de opções isoladas e de portifólios
tipo spread borboleta, por 6 diferentes metodologias de cálculo. Foram utilizados dados do
mercado brasileiro para 12 vencimentos de opções telebrás, no período de janeiro de 1995 a
dezembro de 1996, e as metodologias utilizadas foram: Diferença de valor por
Black&Scholes, Delta analítica, Delta-Gama analítica, simulação de Black&Scholes,
simulação Delta e a simulação Delta-Gama.
O autor ressalta que, de um modo geral, as metodologias correspondentes apresentaram o
mesmo comportamento ao longo de todo o período, isto é, o Valor em Risco da simulação
Delta, Delta-Gama e Black&Scholes foram praticamente coincidentes com o Valor em
Risco do Delta, Delta-Gama e Black&Scholes analíticas, respectivamente. No caso das
opções isoladas houve uma sobrevalorização das abordagens tipo Delta analítica e uma
subavaliação das do tipo Delta-Gama analítica, como era de se esperar, porém as
abordagens por simulação não se mostraram mais precisas do que as analíticas. Para o
portifólio tipo spread borboleta, o autor verificou que as metodologias correspondentes
também apresentavam o mesmo comportamento ao longo de todo o período.
13
Desta maneira, o estudo desperta atenção para a importância da escolha do modelo de
comportamento futuro dos retornos do ativo-objeto utilizado na simulação, de maneira que
o custo computacional do método de simulação possa ser traduzido em resultados
efetivamente melhores de previsão do Valor em Risco.
Coronado (2000) também compara a metodologia do RiskMetricsTM com o método de
simulação de Monte Carlo, assumindo que o processo estocástico descrito pelos preços é
log-normal, para estimar o Valor em Risco de portifólios de opções de um dos maiores
bancos espanhóis. O portifólio escolhido para estudo foi um portifólio hedgeado que
continha posições de opções de moedas e posições do ativo spot na data de 21 de outubro
de 1996. A partir da referida data foi calculado o Valor em Risco do portifólio hedgeado e
do portifólio denominado não-hedgeado, composto somente pelas opções do portifólio
hedgeado. A autora verificou que a maior diferença de valor entre os métodos, tanto para o
portifólio hedgeado quanto para o portifólio não-hedgeado, foi obtida para o VaR calculado
com 99% de confiança. No caso do portifólio hedgeado, com 99% de confiança em
qualquer holding period, a diferença entre os métodos variou de 12% a 13% e a menor foi
obtida para o VaR diário com 90% de confiança, com a diferença entre os métodos em
torno de 3%. No caso do portifólio composto apenas por opções, com 99% de confiança e
em qualquer holding period, a diferença entre os métodos variou de 5% a 6%. Com isso, o
estudo verificou que o VaR calculado pelo método de simulação de Monte Carlo apresenta
valores superiores aos do VaR calculado pelo método analítico, pela maior capacidade da
simulação em capturar a não linearidade e a não normalidade.
14
A importância desta constatação pode ser vista sob o prisma da supervisão bancária, onde,
no caso do Acordo da Basiléia, a adequação de capital para o risco de mercado é
estabelecida de acordo com a medida de 99% de confiança e holding period de 10 dias,
precisamente onde foi verificada a maior diferença no estudo apresentado. Neste caso,
poderia haver uma demanda maior dos bancos pelo método analítico, por requerer menor
necessidade de ajuste de capital e, conseqüentemente, por beneficiar a rentabilidade
esperada do negócio.
A Figura 1 demonstra o comportamento do método analítico no cálculo do VaR para
opções. Verifica-se pelo erro da aproximação de segunda ordem, que o método superestima
as perdas potenciais em posição vendida.
Figura 1: Erro Verificado por ocasião da Precificação de Opção de Venda pela Metodologia Delta-Gama, no caso de uma variação x, no preço do ativo-objeto.
y y+x
x
Erro
Pre
ço d
a O
pção
f(y
)
Preço do Ativo-Objeto y
f’(y)x + 1/2 f’’(y)x2
15
Estrella (1996) afirma que a aplicação das aproximações de Taylor, para estimação do
Valor em Risco, deve ser feita com extrema cautela. O autor avalia a utilização das
aproximações Delta e Delta-Gama na avaliação do Valor em Risco de opções. Segundo o
autor, estas aproximações funcionam somente dentro de uma limitada amostra de valores e
falham na detecção de informações do comportamento não linear associado com
movimentos extremos do ativo-objeto. Jorion (1997) também afirma que o método Delta-
Gama superestima o valor real da opção no caso de movimentos extremos do ativo-objeto.
Estrella (1996) comprova, ainda, que a não linearidade das opções não é limitada somente
ao risco do Gama, apesar desta premissa ser freqüentemente assumida no gerenciamento do
risco, e deve ser tratada com ordens mais altas de não linearidade. Segundo o autor, há duas
implicações na utilização das aproximações de Taylor: a primeira é a não compatibilização
destas aproximações com o contexto do teste de stress, pois para movimentos maiores que
2 ou 3 desvios-padrões ele observa substanciais diferenças. A segunda é que o
gerenciamento do risco envolvendo pequenos movimentos periódicos, menores que 1
desvio-padrão, pode ser possível através das aproximações de Taylor, porém com especial
atenção para opções altamente não lineares, como opções muito próximas do dinheiro e de
curta maturidade. O autor termina o seu artigo indicando o método de simulação de Monte
Carlo como o mais preciso para o gerenciamento do risco de opções.
Coronado (2000) classifica ainda, os dois métodos para se obter o Valor em Risco de ativos
ou de portifólios: O primeiro método, denominado método geral, tenta estimar o VaR do
percentil da distribuição empírica “real” de retornos dos ativos, como no caso dos métodos
de Simulação Histórica e simulação de Monte Carlo. No segundo método, denominado
16
método paramétrico, é utilizada uma distribuição paramétrica que melhor se ajusta aos
dados de retorno dos ativos. Neste método se inclui a metodologia analítica da matriz de
variância-covariância para o cálculo do Valor em Risco. Como principais vantagens do
método analítico da matriz de variância-covariância, a autora aponta a simplicidade do
método e a rapidez dos cálculos. Como principais problemas do método, a autora aponta a
tendência do método de superestimar o VaR para níveis de confiança menores e de
subestimar, para níveis de confiança mais altos, conseqüentemente, influenciando a
adequação do capital requerido pelas autoridades supervisoras. Outro problema apontado, é
que a suposição de linearidade torna este método aplicável apenas para portifólios lineares.
Como comentário final, Coronado (2000) ressalta que não observou o trade-off entre
acurácia e tempo computacional, ou seja, a precisão obtida no cálculo do Valor em Risco,
pelo método de simulação de Monte Carlo, se adequou melhor as exigências de uma
estimativa de VaR mais apurada e não pôde ser menosprezada em função do tempo
despendido no processo. Porém, a autora afirma que a distribuição normal poderia ser
assumida para o retorno do portifólio de opções, desde que o número de opções no
portifólio fosse suficientemente grande e que a magnitude da correlação serial entre as
opções fosse pequena.
A autora destaca que, no caso de um portifólio com um número grande de opções
independentes, as propriedades da distribuição normal poderiam ser assumidas devido ao
teorema do limite central. Duffie e Pan (1997) também concordam com a idéia de que um
portifólio bem diversificado tem uma distribuição de probabilidade aproximadamente
normal. Segundo os autores, este portifólio teria a importância das caudas gordas diminuída
17
sensivelmente, o que tornaria possível a aplicabilidade da propriedade do teorema do limite
central.
Finger (1997) demonstrou quantas opções seriam necessárias para formar um portifólio
bem diversificado com distribuição de probabilidade aproximadamente normal. Para
realizar o teste, o autor considerou opções com as seguintes características na composição
da carteira: todas as opções eram de compra; todas as opções estavam no-dinheiro; as
opções possuíam a mesma maturidade; os retornos dos ativos-objeto eram normalmente
distribuídos e cada par de ativos-objeto tinha a mesma correlação. O autor verificou que
para um portifólio com o mínimo de 20 opções, independentes ou fracamente
correlacionadas, a distribuição de probabilidades se aproxima muito da normal nos
percentis. O autor estabelece, ainda, um limite para a noção de fracamente correlacionadas,
como um valor menor ou igual que 10%, para cada par de ativos-objeto do conjunto de
opções.
Na conclusão do seu estudo, o autor afirma que só há duas maneiras de garantir que um
portifólio de opções tenha distribuição normal: a primeira, construindo um portifólio de
opções com a mesma característica do seu experimento, o que é pouco viável nos mercados
financeiros, principalmente o brasileiro, objeto de questão do presente estudo. A segunda
maneira, seria manter o portifólio hedgeado, com posição neutra, através de posições spot
dos ativos-objeto, o que neste caso destrói a atratibilidade deste estudo, que tem como
característica a composição de portifólios exclusivamente por opções.
18
Silva Neto (1999) também classifica os modelos existentes para a análise de risco. Nos
modelos paramétricos ou analíticos cada fator de risco é isolado, calcula-se o risco
pressupondo determinada distribuição de probabilidades (normal ou log-normal) e agrega-
se o risco da carteira com base nas correlações existentes entre cada um de seus
componentes. Nos modelos não paramétricos, os instrumentos são tratados em blocos,
geralmente através de simulação, sem pressupor determinada distribuição de
probabilidades.
Nos modelos não paramétricos, segundo o autor, o Valor em Risco da carteira é calculado
segundo uma série de cenários definidos. Para determinação destes cenários, pode-se usar
tanto os dados históricos quanto modelos probabilísticos, como a Simulação Estruturada de
Monte Carlo ou Monte Carlo Completo.
O autor afirma ainda, após verificação empírica, que assumir uma distribuição normal para
alguns mercados no Brasil seria atribuir uma grande probabilidade para eventos que são
quase impossíveis de ocorrer, em detrimento daqueles que possuem uma grande
probabilidade de ocorrência.
Um dos primeiros estudos a abordar o problema da não normalidade no Brasil foi elaborado
por Lemgruber e Ohanian (1997), que testaram a hipótese de que os retornos diários das
variáveis de mercado seguiam uma distribuição de probabilidades do tipo normal no
mercado brasileiro. Os testes visavam, em especial, verificar a precisão do modelo
RiskMetricsTM de estimativa de volatilidade dos retornos e a consistência da hipótese de
distribuição normal condicional de probabilidades.
19
As amostras de variáveis do mercado brasileiro compreenderam as séries históricas de
variações diárias ocorridas nas taxas de juros interbancários, taxas de cupom cambial e
dólar comercial venda, no período de 16/01/1996 a 15/05/1997.
O teste consistiu em, uma vez estimada a volatilidade pela metodologia do RiskMetricsTM,
verificar os intervalos de confiança projetados e se eles se enquadravam no padrão definido
para uma distribuição normal, ou seja, 5% no intervalo de um desvio-padrão, 2.5% no
intervalo de dois desvios-padrões e 1% no intervalo de três desvios-padrões.
A hipótese de distribuição normal condicional testada significava que variáveis de mercado,
como taxa de juros e câmbio, comportavam-se, diariamente, de acordo com medidas de
probabilidades normais condicionais ao tempo, pois os parâmetros média e desvio-padrão
dessas distribuições variavam a cada dia.
Os autores verificaram que as séries de retornos diários dessas variáveis apresentavam
significativos graus de curtose, o que poderia significar que eventos extremos ocorriam
com uma probabilidade maior do que aquela prevista por uma curva normal. Com isso, o
modelo que trabalhava com a hipótese de distribuição normal, ou seja, a metodologia do
RiskMetricsTM, funcionava razoavelmente bem para margens de confiança da ordem de
5%, porém tendia a subestimar o risco de mercado incorrido quando margens de confiança
mais rígidas eram exigidas.
Os autores concluem o trabalho com a constatação de que existe a necessidade de se
enriquecer os modelos utilizados no mercado brasileiro.
20
Bonomo e Garcia (2001) em seu estudo sobre modelos de precificação condicional no
mercado de ações brasileiro, também verificaram a pouca evidência de normalidade em 25
ações componentes do índice IBOVESPA, durante o período de janeiro de 1976 a
dezembro de 1992. Segundo os autores, todas as séries passaram fortemente longe da
distribuição normal, como indicado principalmente pela estatística do excesso de curtose.
Hull e White (1998) também abordam o problema da não normalidade das mudanças dos
retornos diários dos ativos nos mercados. Os autores afirmam que embora o RiskMetricsTM
assuma normalidade para o cálculo do Valor em Risco, as mudanças nos mercados exibem
curtose positiva, o que significa que movimentos extremos nos ativos-objeto são mais
prováveis do que uma distribuição normal pode prever. Inicialmente, os autores
demonstram a não normalidade das taxas de retorno, ao examinar o mercado de cotação de
12 moedas, no período de janeiro de 1988 a agosto de 1997, o que cobre um total de 2425
dias de negociação. Os dados demonstraram um significativo excesso de curtose e a
hipótese de normalidade foi rejeitada com um elevado nível de confiança.
A probabilidade do movimento de um desvio-padrão foi em média de 25.04%,
consideravelmente menor do que os 31.73% previstos pela distribuição normal, o que
indicava que as taxas das moedas tinham uma distribuição, no pico da curva, maior do que
a normal. A probabilidade do movimento de três desvios-padrões foi de 1.34%, em média,
comparado com 0.27% para a distribuição normal e consistente com a evidência empírica
de caudas gordas ou pesadas.
21
Os autores propuseram uma maneira de tratar a não normalidade. O método consiste em
considerar as mudanças diárias do retorno como uma função de distribuição normal
cumulativa, ou seja, a usual suposição de normalidade para o cálculo do Valor em Risco
seria substituída por uma suposição de normal-transformada. O método apresentado pode
ser usado tanto com simulação de Monte Carlo quanto em modelos fechados de cálculo do
Valor em Risco e apresenta a vantagem de permitir que os momentos da distribuição dos
retornos sejam refletidos nos cálculos do Valor em Risco.
Mollica (1999) faz um extenso teste sobre a normalidade dos retornos em seu trabalho, no
qual comparou o método Delta-Normal e o método de Simulação Histórica na estimação do
Valor em Risco de duas carteiras de ativos. Para estimar a matriz de covariância do método
Delta-Normal, o autor utilizou modelos de variância estocástica, modelos de GARCH e
modelos de EWMA, supondo que os retornos dos ativos tinham distribuição condicional
normal. Para o cálculo do VaR, foi estimado o parâmetro de cada modelo com as 900
primeiras observações e utilizado para a previsão os próximos 100 dias úteis, reestimando-
se estes parâmetros a cada 20 dias úteis.
Os testes foram aplicados em duas carteiras compostas de posições compradas em ativos,
com participação relativa idêntica de cada um deles. A cada dia era feito o rebalanceamento
das carteiras para que a variação no valor de mercado dos ativos não alterasse a
participação relativa dos ativos. Nas duas carteiras, a série histórica dos retornos era
composta por 1000 observações no período de 04/08/94 a 18/08/98. A primeira carteira era
composta por 5 ativos: três vencimentos de DI futuro, Telebrás PN e o IBOVESPA futuro.
22
A segunda carteira era composta por quatro ativos: dois vértices da curva de juros de 20 e
40 dias úteis, Telebrás PN e o índice IBOVESPA a vista.
O método Delta-Normal, com a matriz de covariância estimada pelo EWMA, e o método
de Simulação Histórica apresentaram os melhores resultados para um nível de confiança de
1% e 5% em ambas as carteiras, porém o autor criticou o método Simulação Histórica por
apresentar pouca adaptabilidade às condições de mercado e às observações mais recentes,
resultado esperado para que um modelo possa ser bem qualificado para o cálculo de VaR.
O autor ratifica o problema da não normalidade das mudanças dos retornos diários dos
ativos, no mercado brasileiro, ao verificar que as estatísticas de assimetria e curtose, de
todos os ativos envolvidos e durante todo o período de realização do estudo, apontavam
para um distanciamento da hipótese de normalidade. Em todos os casos rejeitava-se a
hipótese nula de que a distribuição dos retornos era normal. Na descrição estatística, das
séries de ajustes diários dos três vencimentos de DI futuro, a média amostral era próxima de
zero e o desvio padrão amostral crescia com os vencimentos. Nas séries estudadas,
pertencentes ao mercado acionário, a média dos retornos era maior do que zero para estes
ativos e o gráfico da distribuição acumulada dos retornos mostrava que a probabilidade de
ocorrência de retornos extremos era maior que no caso de uma distribuição normal, o que
indicava a existência do efeito caudas pesadas.
Com isso, verifica-se ser pouco confiável a aceitação prévia da hipótese de que os retornos
diários das variáveis de mercado seguem uma distribuição de probabilidades do tipo
23
normal. Menos confiável ainda, conforme o estudo relatado por Finger (1997), a hipótese
de uma distribuição de probabilidades do tipo normal para opções.
A literatura de finanças não indica de forma direta qual a metodologia mais adequada para
avaliar o risco de um portifólio que contenha somente instrumentos não lineares, porém
ressalta grandes restrições as metodologias que desprezam a captura das características de
não normalidade e de não linearidade7 e apresenta uma série de testes empíricos, conforme
citados neste trabalho, onde a metodologia da Simulação de Monte Carlo apresenta os
melhores resultados na determinação da exposição de um portifólio de opções. De acordo
com esta metodologia, uma trajetória futura dos preços do ativo-objeto seria modelada e o
valor do portifólio, constituído somente por opções, seria reavaliado aos vários preços
simulados para o ativo-objeto ao longo da trajetória. As críticas recentes surgidas a este
método se atêm basicamente a sobrecarga computacional e ao tempo demandado para a
simulação. A mais forte crítica a este método, porém, encontra-se no fato da escolha
arbitrária da futura distribuição que o ativo-objeto irá seguir, o que pode trazer como
conseqüências, de acordo com Barone-Adesi, Giannopoulos e Bourgoin (2000), a
destruição de valiosas informações sobre a distribuição passada dos retornos dos
portifólios. Os autores ressaltam que, de um modo geral, a simulação de Monte Carlo
impõe a estrutura de risco que o método supõe investigar. Com isso, a confiança em um
modelo estocástico específico ou em modelos de precificação previamente definidos pode
levar ao risco de modelo. Jorion (1997) também aborda o problema do risco de modelo na
metodologia Monte Carlo e destaca que, caso se considerasse um grande número de
7 Conforme críticas de Estrella (1996), Jorion (1997), Pritsker (1997), Hull and White (1998) e Coronado (2000)
24
variáveis estocásticas, como a variação temporal de volatilidade e os cenários extremos,
que seriam os melhores casos de previsibilidade do modelo, o custo financeiro e
computacional inviabilizaria o processo.
Barone-Adesi, Giannopoulos e Volsper (2000) desenvolveram um modelo de VaR que
pôde trabalhar com a não-normalidade dos retornos de ativos, com informações sobre a
distribuição passada dos retornos e com a heterocedasticidade no cálculo do Valor em
Risco de opções e portifólios de opções.
Inicialmente, a volatilidade de cada ativo-objeto da opção contida no portifólio era
modelada separadamente, por um processo GARCH, construindo-se uma trajetória
estimada de volatilidade para cada ativo-objeto, conforme a expressão:
21
211
21 ttttt hrdrh (1)
Onde: ht é a variância no momento t
rt é o retorno no momento t
esão parâmetros de GARCH
é o parâmetro de GARCH relativo à assimetria
dt é uma variável dummy igual a 1 se yt é negativo e 0, em caso contrário.
A partir daí, os autores regressionavam os retornos passados de cada ativo-objeto, para
uma janela de 1000 dias úteis, em função do retorno e da volatilidade do dia anterior e do
25
ativo livre de risco, gerando uma série de resíduos de retorno que seriam a parte não
explicável do modelo de regressão, com premissa estatística de distribuição normal. Como
exemplo desta regressão, a distribuição dos retornos apresentada foi modelada por um
processo ARMA (1,1) descrito como:
tttt rr 11 (2)
Onde: rt é o retorno no momento t
esão parâmetros da regressão
t é o parâmetro de resíduo da regressão dos retornos.
Estes resíduos eram divididos pela volatilidade calculada pelo modelo GARCH, estimada
na mesma data em que eles foram colhidos, o que gerava uma distribuição independente e
identicamente distribuída de resíduos de retorno padronizados, de acordo com a seguinte
fórmula:
Zt = htt (3)
Onde: t é o resíduo da regressão dos retornos
ht é a variância diária dos retornos do ativo-objeto obtidos por GARCH
Zt é o resíduo de retorno padronizado.
26
Estes resíduos de retornos padronizados eram colhidos aleatoriamente e com reposição pela
técnica do bootstrap e a seguir, multiplicados pela volatilidade modelada pelo processo
GARCH do dia que se queria prever, a fim de serem ajustados para as condições correntes
de mercado. Estes resíduos iriam compor a parte aleatória do retorno futuro do ativo-objeto.
A parte explicável seria a resultante do modelo de regressão. Este procedimento recursivo
era então repetido para cada dia até que o holding period fosse alcançado, gerando uma
trajetória de preços futuros do ativo-objeto. Todo o processo era repetido 10.000 vezes.
No caso de portifólios, a seleção dos resíduos de retorno padronizados, dos ativos-objeto
que compunham o portifólio, era feita em uma mesma data da base de dados, de maneira a
manter o co-movimento que existia entre os ativos-objeto a cada dia.
Desta forma, obtínhamos o preço futuro do ativo-objeto. Para precificar a opção, aplicava-
se a fórmula de Black&Scholes, pois se partia da premissa, do método de regressão, de que
os resíduos de retornos regressionados eram normais. Conseqüentemente, gerava-se por
este método uma distribuição normalizada de valores do ativo previstos para o holding
period, com sua correspondente variância prevista pela modelagem GARCH. O VaR da
opção era obtido através da leitura direta dos piores retornos para um dado percentil da
distribuição empírica.
Esta metodologia foi denominada de Simulação Histórica Filtrada.
A mais severa crítica ao método da Simulação Histórica Filtrada foi feita por Bellini e
Talamanca (2001), que afirmaram que a modelagem GARCH só pode ser considerada
27
correta se a distribuição for aproximadamente normal. Neste aspecto, a metodologia da
Simulação Histórica Filtrada apresenta a incoerência de não considerar uma distribuição
específica para os retornos do portifólio, mas modelar a volatilidade dos retornos por um
processo que é considerado paramétrico.
Hull e White (1998-B) afirmam que as mais comuns aproximações utilizadas para modelar
a não normalidade em retornos observados de séries temporais têm sido assumir que,
embora os retornos incondicionais não sejam normais, os retornos são condicionalmente
normais. Dessa forma, existem três modelos amplamente utilizados na literatura para
adequar estes retornos: Modelos GARCH, Modelos de Saltos Difusos Misturados e
Modelos de Markov. Nos modelos GARCH ou nos modelos de volatilidade estocástica, os
retornos são normais condicionais conhecendo-se a variância corrente. Nos modelos de
Saltos Difusos Misturados, os retornos são normais condicionais não havendo os saltos.
Nos modelos de Markov, os retornos são normais condicionais conhecendo-se o valor
corrente das variáveis. Dessa forma, os modelos desenvolvidos permitem a utilização das
propriedades da distribuição normal. Barone-Adesi, Giannopoulos e Volsper (2000) se
utilizam, neste trabalho, da adequação de que os retornos condicionais são normais e que
sua variância pode ser modelada por um processo GARCH.
A Simulação Histórica Filtrada surgiu na tentativa de refinar a metodologia de Simulação
Histórica Tradicional, absorvendo suas vantagens e corrigindo suas principais falhas.
Mollica (1999) afirma que a metodologia de Simulação Histórica Tradicional é o método
de abordagem mais direta e intuitiva para o cálculo do Valor em Risco de uma carteira de
28
ativos. A técnica consiste em aplicar os pesos atuais de cada ativo do portifólio às
respectivas séries históricas dos retornos destes ativos, para obter uma série histórica dos
retornos do portifólio.
Em seguida, constrói-se a distribuição empírica destes retornos, da qual se obtém o VaR ao
nível de significância desejado no percentil equivalente. Por exemplo, numa série de 1000
observações de retornos da carteira, o VaR a 95% de confiança é a perda que excede 5%
dos dias, isto é, a 5maior perda na carteira.
Este método é relativamente simples de implementar e tem uma série de atrativos. Em
primeiro lugar, trata-se de uma técnica em que não é necessária a estimação de nenhum
parâmetro, como volatilidades e correlações, para obtenção do VaR. Com isso, evita-se
problemas de modelagem e erros de estimações destes parâmetros. Outra vantagem do
método de Simulação Histórica, é que ele dispensa qualquer hipótese a priori sobre a
distribuição dos retornos dos ativos. Segundo Jorion (1997), o método incorpora as
características específicas de cada série, como o excesso de curtose e assimetrias das
distribuições, freqüentemente negligenciadas por outros modelos. Além disso, como o
retorno do portifólio está sendo calculado em cada instante do tempo, o método também
considera de forma implícita os efeitos de não linearidades, tais como o risco Gama. Por
último, os recursos computacionais atualmente disponíveis tornam extremamente simples
sua implementação.
29
Papageorgiou e Paskov (1999) apontam algumas críticas ao método de Simulação Histórica
em relação ao método tradicional de simulação de Monte Carlo, dentre elas, a suposição de
que a distribuição passada dos retornos pode representar a futura distribuição, ou seja, o
método considera a distribuição como estacionária, além de apresentar uma grande
sensibilidade dos resultados em relação à extensão do período histórico. Jorion (1997)
acrescenta outras críticas: o fato do método não tratar de forma adequada as situações com
volatilidade temporariamente elevada e o fato do método ponderar igualmente todas as
observações na janela, inclusive os dados mais antigos.
O método da Simulação Histórica Filtrada corrigiu as principais falhas apontadas na
literatura para o método de Simulação Histórica. Em relação à crítica de que a Simulação
Histórica supõe que a distribuição passada dos retornos representa a futura distribuição, o
método da Simulação Histórica Filtrada corrige esta deficiência permitindo que se modele o
comportamento futuro dos ativos por outro modelo qualquer, como por exemplo, o
movimento browniano geométrico, adotado nesse trabalho. Em relação à grande
sensibilidade dos resultados em relação à extensão do período histórico, o método da
Simulação Histórica Filtrada diminui esta deficiência ao trabalhar com resíduos
padronizados de retornos passados colhidos aleatoriamente por um processo de bootstrap
com reposição, o que reduz a influência da extensão do período histórico sobre a
capacidade de previsão do método. Em relação ao fato da Simulação Histórica não tratar de
forma adequada às situações com volatilidade temporariamente elevada, o método da
Simulação Histórica Filtrada corrige totalmente esta falha, ao multiplicar os resíduos
padronizados de retornos passados pela volatilidade prevista pelo modelo GARCH do dia
em que se quer prever o retorno do ativo-objeto. Por último, em relação à crítica de que o
30
método de Simulação Histórica pondera igualmente todas as observações na janela,
inclusive os dados mais antigos, o método Simulação Histórica Filtrada utiliza uma
distribuição independente e identicamente distribuída de resíduos de retorno padronizados,
o que diminui a importância da antiguidade da observação sobre o poder de previsão do
método, devido a forte influência da série de volatilidade prevista pelo modelo GARCH.
Trabalhos anteriores aos da Simulação Histórica Filtrada também propuseram soluções
semelhantes às apresentadas por esta metodologia.
Duffie e Pan (1997) propõem um bootstrap com dados de retorno históricos, como a melhor
maneira de capturar correlações, volatilidades, caudas gordas e assimetria dos retornos, que
são características presentes empiricamente em séries de retorno de variáveis de mercado e
de maneira a evitar a necessidade de parametrizar e estimar modelos matemáticos, com os
conseqüentes custos e perigos de erros para o cálculo do Valor em Risco. A fim de
considerar as características de não estacionaridade da série, os autores propõem ainda
atualizar os retornos passados, dividindo-os pela volatilidade do momento em que os dados
foram colhidos e multiplicando-os pela volatilidade do momento em que se pretende fazer a
previsão.
Cunha Júnior et al (2001) ressaltam as vantagens do bootstrap para precificação, na medida
em que ele pode ser aplicado em situações complicadas onde a modelagem paramétrica ou
a análise teórica não pode ser aplicada. Os autores afirmam ainda que, dado que a
finalidade do VaR é capturar o comportamento das caudas e que a amostra histórica
31
apresenta caudas mais pesadas do que a distribuição normal, o método de bootstrap satisfaz
muito bem ao conceito de Valor em Risco.
Hull e White (1998-B) também propuseram um procedimento semelhante ao método da
Simulação Histórica Filtrada que consistia em modelar a volatilidade da série usando um
modelo GARCH ou EWMA e conjugar com o método da Simulação Histórica para o
cálculo do Valor em Risco. Ao invés de usar as mudanças percentuais históricas das
variáveis de mercado para o processo de bootstrap e simulação, os autores propõem ajustar
as mudanças históricas pela razão da volatilidade corrente do momento em que se quer
fazer a previsão, e a volatilidade do momento em que se fez a observação.
Os autores compararam esta metodologia com a de Simulação Histórica e com a de
Boudoukh, Richardson e Whitelaw (1998) – aqui denominada de BRW – que consistia em
uma Simulação Histórica onde a série de observações histórica era ponderada, de maneira a
dar mais pesos para as observações mais recentes. Nesta metodologia, para se determinar
um determinado percentil da distribuição de probabilidade era necessário ordenar as
observações e, iniciando da menor, acumular pesos até o percentil ser alcançado.
A comparação entre as três metodologias foi feita com dados de 12 moedas estrangeiras e 5
índices de ações, entre 4 de janeiro de 1988 e 15 de agosto de 1997, e o objetivo dos
autores foi escolher o método que, para uma determinada média de capital investido,
maximizasse a proteção contra perdas. A distribuição de probabilidades dos dados
passados, para os três métodos comparados e para todas as variáveis de mercado, foi feita
com base nos 500 dias mais recentes de dados passados.
32
Os autores verificaram que, no método da Simulação Histórica, a necessidade de adequação
de capital ficava inalterada por longos períodos de tempo, devido à extensão do período
histórico, enquanto que, no método proposto por eles, a adequação de capital era
determinada pelas estimativas de volatilidade e, portanto, muito mais sensível às recentes
variações.
Para posição comprada em moeda estrangeira, a adequação de capital para o método BRW
era em média 11% menor do que para a Simulação Histórica e a adequação de capital para
o método dos autores era em média 7.8% menor do que para a Simulação Histórica. Para
posição comprada em índice de ações a adequação de capital para o método BRW era em
média 0.2% maior do que para a Simulação Histórica e a adequação de capital pelo método
dos autores era em média 6.7% maior do que para a Simulação Histórica.
Foram calculados ainda, os percentis de 99% e 99.5% para holding period de 1 e de 10
dias. O método de Hull e White, com volatilidade estimada por um método EWMA,
apresentou melhores resultados do que o BRW para os dois conjuntos de ativos analisados
e em relação ao método da Simulação Histórica, apresentou melhores resultados para
moedas estrangeiras. Para os índices de ações, os resultados do método proposto pelos
autores apresentaram melhores resultados para holding period de 1 dia, mas piores
resultados para holding period de 10 dias.
Pritsker (2001) analisa o método da Simulação Histórica Filtrada destacando seus pontos-
chave para se obter uma precisão na obtenção do Valor em Risco. O autor destaca que o
método é superior a metodologia BRW e a Simulação Histórica Tradicional, por ter
33
características que aprimoram significativamente os resultados em relação aos métodos de
matriz de variância-covariância e aos métodos de Simulação Histórica atualmente
utilizados no mercado.
Para analisar as limitações do método da Simulação Histórica Filtrada, o autor trabalhou
com dados de moedas estrangeiras de janeiro de 1973 a junho de 1986. Uma importante
suposição do método é que as correlações do conjunto de dados filtrados são constantes ao
longo do tempo. Testes estatísticos aplicados pelos autores sugeriram que as mudanças nas
correlações ao longo do período foram estatisticamente significantes, com isso o bootstrap
colheu observações com correlações diferentes das correlações do momento que se queria
prever. O autor afirma que isto pode ter o efeito de fazer posições de risco aparecerem
hedgeadas ou posições hedgeadas aparecerem como posições de risco. O autor aponta duas
alternativas para o problema em questão, a primeira seria modelar estruturas de correlação
variável com o tempo, como em modelos GARCH multivariados. A segunda seria encurtar
o período da extensão dos dados passados, com a conseqüência de uma eventual perda de
informações não paramétricas importantes sobre as caudas da distribuição de
probabilidades.
Em relação a esta segunda solução, o autor analisou uma possível fonte de erro do modelo
que poderia ser causado pela extensão de dados passados. Sua conclusão é que, para
amostras históricas de dados filtrados até 500 observações, há uma tendência para que o
modelo subestime o risco, devido a pouca quantidade de extremos na distribuição dos
dados a serem coletados pelo bootstrap. Neste aspecto, uma maior extensão de dados
34
passados pode melhorar a metodologia, permitindo uma maior quantidade de observações
extremas na distribuição.
Barone-Adesi, Giannopoulos e Volsper (2000) testaram a metodologia da Simulação
Histórica Filtrada em portifólios reais de derivativos. O objetivo era seguir as
recomendações do BIS na avaliação do risco para 4 diferentes níveis de confiança (0.95;
0.98; 0.99 e 0.995) e para 5 diferentes holding periods (1; 2; 3; 5 e 10 dias). A análise era
baseada em 2 critérios: estatístico e econômico. O primeiro examinava a freqüência e o
padrão de perdas excedentes do Valor em Risco, previstos pela Simulação Histórica
Filtrada. O segundo examinava as implicações destas diferenças, em termos econômicos,
com referência ao Valor em Risco total alocado. Foram utilizados dois anos de dados
históricos dos ativos-objeto para calibrar o modelo GARCH e para construir a base de
dados necessária para a simulação.
A primeira bateria de backtests foi aplicada para portifólios de futuro de taxa de juros e
opções no período de 4 de janeiro de 1996 a 12 de novembro de 1997. Os autores
compararam os lucros e perdas efetivamente realizadas com as previstas pela sua
metodologia para 216 portifólios. Foi observado que, exceto para níveis de confiança muito
altos (0.99 e 0.995) e curtos holding periods (1; 2; 3), os resultados da aplicação da
metodologia produziram uma estimativa dentro dos limites considerados para o Valor em
Risco, ou seja, as perdas previstas pela metodologia foram excedidas pelo valor efetivo
dentro de uma certa porcentagem correspondente ao nível de confiança definido. Os autores
fizeram uma segunda simulação, modelando o comportamento futuro da volatilidade como
estocástico, e encontraram resultados semelhantes. Exceto para os mesmos níveis de
35
confiança anteriores e holding period (1; 2), os resultados ficaram dentro dos limites
considerados para o Valor em Risco.
A segunda bateria de backtests foi aplicada para 24 portifólios de swaps de 4 moedas
estrangeiras, no mesmo período que o anterior, para maturidades variando de 2 a 10 anos.
Foi observado que todos os resultados da aplicação da metodologia produziram uma
estimativa dentro de cada intervalo de confiança previamente definido para o cálculo do
Valor em Risco.
A última bateria de backtests foi aplicada para portifólios contendo futuros, opções e swaps
para o mesmo período. Neste caso, os resultados também produziram uma estimativa
dentro de cada intervalo de confiança previamente definido para o cálculo do Valor em
Risco.
Os autores encontraram ainda, uma tendência do modelo para superestimar o risco no caso
de holding periods mais longos. Esta observação foi constatada tanto para opções isoladas,
como para portifólios de opções. Para holding periods curtos foi verificada a maior acurácia
da metodologia.
Gibson (2001) produziu um trabalho sobre o risco de evento, comparando as metodologias
de Simulação Histórica, a metodologia de Boudoukh, Richardson e Whitelaw (1998), a
Simulação Histórica Filtrada e a de matriz de variância-covariância. Risco de evento é o
risco do valor do portifólio ser afetado por largos movimentos nos preços de mercado. No
caso de ações, risco de evento é sinônimo de caudas gordas e movimentos de saltos e é um
36
dos elementos defendidos pelos órgãos regulamentadores de risco como componente do
risco de mercado. O autor afirma que, na teoria, um bom modelo de VaR deve capturar
simultaneamente a variação da volatilidade com o tempo e as caudas gordas, e que a
maioria dos modelos só conseguem capturar o primeiro em detrimento do segundo.
Segundo o autor, a Simulação Histórica Filtrada se constitui no melhor método, dos
utilizados no trabalho, para a análise do risco de evento, por utilizar dados recentes para
capturar a variação da volatilidade com o tempo, através de um processo GARCH, e ao
mesmo tempo trabalhar com uma ampla base de dados para cada ativo, suficiente para
capturar os movimentos nas caudas.
Terazzan, Berardi e Tebaldi (2001) compararam a performance do método de Simulação
Histórica Filtrada com o método de Simulação Histórica convencional, para um período de
6 anos dos retornos do índice Mib308 de 1994 a 2000. Os primeiros 3 anos foram utilizados
para construir o banco de dados e foi considerado um holding period de 10 dias com 5
diferentes níveis de confiança (95%, 96%, 97.5%, 99%, 99.5%). Todo dia havia uma
simulação para os próximos 10 dias, gerando 7120 dados para o backtesting. Os autores
verificaram que todos os resultados produzidos pela metodologia da Simulação Histórica
Filtrada ficaram dentro dos limites do teste de Kupiec e foram muito superiores aos da
Simulação Histórica convencional. Os autores verificaram ainda que o método da
Simulação Histórica Filtrada, utilizando a volatilidade dos dados de alta freqüência com
8 O índice MIB é um índice de capitalização ponderado das ações das 30 maiores empresas italianas negociadas na Bolsa de Milão.
37
intervalo de 30 minutos nos retornos, produziu resultados consideravelmente melhores do
que pela metodologia que utilizava a volatilidade modelada por um processo GARCH.
Os trabalhos mais recentes considerando a metodologia da Simulação Histórica Filtrada são
apresentados a seguir por Pallotta e Zenti (2002) e Fierli (2002).
Pallotta e Zenti (2002) discutiram e compararam os diferentes caminhos para lidar com o
problema de se calcular o Valor em Risco para grandes holding periods, ao contrário dos
trabalhos tradicionais que se limitam a analisar horizontes de 1 e 10 dias. Os autores
afirmam a necessidade de considerarmos prazos mais longos, pois estes fazem parte da
realidade das instituições bancárias. O autor comparou métodos paramétricos de matriz de
variância-covariância, Simulação Histórica tradicional, metodologias de bootstrap, o
método sugerido por Hull e White (1998), comentado anteriormente neste Capítulo, e o
método de Simulação Histórica Filtrada.
Foram comparadas as medidas de Valor em Risco com nível de confiança de 95% e
holding period de 1 mês para os seguintes índices: MSCI USA, MSCI Far East, MSCI
EMF, MSCI Italy, MSCI Consumer Goods, MSCI Capital Equipment, J.P. Morgan US
Govt. Bond, J.P. Morgan Italy Govt. Bond, MSCI World e J.P. Morgan Global Govt. Bond.
O período estudado foi de 1/1/1990 a 5/5/2000.
O Valor em Risco para o mês da previsão, em todos os métodos estudados, foi estimado
com base em uma janela de 18 meses, sendo que a cada dia o resultado gerado era
comparado com o valor observado e o procedimento repetido, movendo-se um dia na
38
janela. As metodologias foram julgadas com base na sua capacidade de previsão de risco e
após o experimento foi aplicado o teste de proporção de falhas de Kupiec (1995).
Os resultados indicaram que poucos métodos apresentaram acurácia em relação ao teste de
proporção de falhas, basicamente devido ao horizonte relativamente longo usado no
trabalho. O método da Simulação Histórica e o da Simulação Histórica Filtrada foram as
técnicas que apresentaram o maior número de sucessos no teste indicado.
Os autores verificaram ainda se alguns dos métodos apresentavam algum poder de sinalizar
mudanças no risco do mercado, a fim de auxiliar asset managers para que pudessem reagir
de maneira adequada aos movimentos nos retornos dos ativos. O método que se mostrou
mais propenso às estimativas de variação de risco foi o método da Simulação Histórica
Filtrada.
O autor conclui afirmando que o método da Simulação Histórica Filtrada provê satisfatória
assessoria nos riscos do portifólio e que gera cenários de médio e longo prazo confiáveis,
levando em conta a heterocedasticidade, a correlação serial e as características específicas
das séries financeiras.
Fierli (2002) trabalhou com um portifólio composto por ações de empresas de
biotecnologia e opções de índices listados na bolsa de Nova York. O período estudado foi
de 07/06/1999 a 30/05/2001. A escolha das ações foi motivada pela grande volatilidade
destes ativos e por grandes perdas passadas ocasionadas em momentos de crash da bolsa, o
que capacitou o autor a observar a sensibilidade dos métodos de medida do Valor em Risco
39
a grandes variações no mercado. Quanto às opções, foram escolhidas calls e puts européias
no-dinheiro, do S&P 500 e da NASDAQ 100.
Os métodos utilizados para cálculo do Valor em Risco foram: o VaR paramétrico com a
metodologia Delta-Gama, sendo a matriz de variância-covariância estimada pelo método de
GARCH (1,1) ortogonal baseado em uma janela de 300 dias de observação, o VaR
paramétrico considerando a metodologia do APT, a Simulação Histórica Tradicional com
uma janela de 500 dias de observação, o método de Simulação Histórica de Boudoukh,
Richardson e Whitelaw (1998), abordado anteriormente neste Capítulo e utilizando fator de
decaimento de 0.99 e 0.97, a Simulação Histórica Filtrada e um método modificado da
Simulação Histórica Filtrada desenvolvida pelo autor, que utilizava uma distribuição
exponencial de pesos para o processo de bootstrap, a fim de conceder mais probabilidades
para as observações mais próximas.
Na implementação das metodologias de Simulação Histórica Filtrada foi utilizada uma
janela de 100 dias de observação para estimativa da volatilidade e outra de 400 dias, para a
utilização do método de bootstrap com 5000 simulações.
O autor verificou, no período de estudo, um formato assimétrico na função de
probabilidade dos retornos dos portifólios que continham opções, o que confirmou a
impossibilidade de se considerar a distribuição como normal.
40
A seguir, o autor conduziu um teste estatístico de razão de probabilidade para analisar a
performance dos diversos métodos empregados e se as perdas observadas eram diferentes
estatisticamente das estimadas por cada método e em cada portifólio considerado.
Para os dois portifólios contendo somente ativos-objeto e um nível de confiança de 99%, os
três métodos não paramétricos testados apresentaram resultados estatísticos similares, com
ligeira superioridade para o método de Simulação Histórica Filtrada. De um modo geral, a
performance dos métodos considerados neste trabalho foram bastante similares.
Entretanto, para os dois portifólios contendo opções foi verificado um péssimo
desempenho do método de Simulação Histórica Tradicional. Neste período, devido ao
crash ocorrido na Nasdaq, os métodos que atribuíam peso maior às observações mais
recentes apresentaram os melhores resultados. O método de Simulação Histórica Filtrada
apresentou resultados bastante precisos para os portifólios contendo opções, devido,
sobretudo, à estimativa da volatilidade pelo método GARCH, que conseguiu capturar de
maneira adequada os momentos de crash do mercado. Para o nível de confiança de 99%, o
método de Simulação Histórica Filtrada apresentou os melhores resultados e, para o nível
de confiança de 95%, o método de Simulação Histórica Filtrada Modificada apresentou
resultados ligeiramente melhores. As evidências demonstraram que o método Delta-Gama
apresentou uma performance ruim para os portifólios contendo opções e, como esperado, o
método subestimou as posições compradas e superestimou as posições vendidas. Os
resultados foram semelhantes tanto para os níveis de confiança de 95%, como para o de
99%.
41
O autor concluiu que, de um modo geral, as metodologias de simulação histórica indicaram
resultados melhores do que os métodos paramétricos e ressaltou que, durante todo o
período analisado, os métodos paramétricos apresentaram um valor maior para o índice
composto pela média das razões entre as perdas observadas e as perdas esperadas, o que
demonstra uma pior precisão para estes modelos. Para portifólios compostos por ativos
não-lineares, o autor afirma ainda que, o método de Simulação Histórica Filtrada
apresentou os melhores resultados para o período estudado, porém, com pior rendimento,
por demandar um maior tempo computacional para a sua implementação.
42
Cap.3: Metodologia
3.1 - Seleção do Período e da Amostra
O período do trabalho foi definido de maneira que os ativos-objeto escolhidos pudessem
formar um banco de dados com número suficiente de resíduos padronizados necessários
para implantação da metodologia, e de maneira que fosse possível escolher um período de
tempo que estes ativos apresentassem opções negociadas com relativa liquidez.
Como o problema de liquidez das opções era o mais relevante, inicialmente foram
selecionados ativos com características que atendessem a esta questão. A amostra inicial
constituiu-se de séries de preços de fechamento de ações e opções de compra com base nas
empresas Telemar9, Globocabo e Petrobrás, cotadas na Bolsa de Valores de São Paulo.
Como as ações da empresa de telecomunicações só começaram a ser negociadas em
21/09/1998, esta passou a ser a data inicial para a formação do banco de dados. O estudo
compreende 9 vencimentos de opções no período de 18/12/00 a 15/04/02.
9 Em 22/05/1998, a Telebrás foi cindida em 13 empresas de telecomunicações. Após a privatização (que ocorreu em 29/07/1998), criou-se o RCTB - Recibo de Carteira Selecionada de Ações Telebrás, que permitiu ao investidor negociar um bloco com as 13 ações (semelhante à ação antes da cisão). A partir de 21/09/1998, as ações individuais passaram a poder ser negociadas isoladamente.
43
3.2 - Cálculo da Curva da Taxa de Juros Pré-Fixada
Para o ativo livre de risco foi utilizado o contrato futuro de DI, negociado na Bolsa de
Mercadorias e Futuros de São Paulo (BM&F), que é um contrato sobre a taxa de CDI
acumulada do dia de sua negociação até o seu vencimento. O valor final do contrato é
estabelecido pela bolsa em 100.000 pontos sendo que cada ponto vale R$ 1,00. Os
contratos sempre vencem no primeiro dia útil do mês de referência. A negociação se dá
sobre o valor presente do contrato, o chamado PU (preço unitário). O PU é igual ao valor
final do contrato (100.000) descontado pela expectativa do mercado de taxa de CDI
acumulada até a data de vencimento. Assim, existe uma relação inversa entre um dado PU e
a taxa de CDI esperada até o seu vencimento. Esta relação é obtida utilizando-se a
expressão de valor presente. Considerando PU o preço unitário de um contrato que vence na
data t, e i a taxa de CDI esperada até o vencimento do contrato, então:
i (100.000/PU) – 1 (4)
Para a precificação das opções foi necessária a taxa de juros pré-fixada da data do pregão
da opção até a data do vencimento da opção. Dessa forma, calculou-se a taxa com base na
Cotação do ajuste do DI Futuro-1 dia. As taxas utilizadas foram sempre anuais com base
em 252 dias úteis. Para a construção da curva de taxa de juros pré-fixada, utilizou-se a
interpolação linear, composta por uma taxa de juros da data do pregão até a data de
vencimento do DI-1 dia, imediatamente anterior ao vencimento da opção, aqui denominada
TxJ1 e uma taxa a termo, calculada no dia do pregão, entre a data do vencimento do DI-1
dia imediatamente anterior do vencimento da opção até a data do vencimento do DI-1 dia
44
imediatamente posterior do vencimento da opção, aqui denominada TTM, cujas fórmulas
são apresentadas a seguir:
1)1
100000(1 1
252
DU
AjusteTxJ (5)
1)
)11(
)21(( 12
252
252
1
252
2
DUDU
DU
DU
TxJ
TxJTTM (6),
Onde: 100.000 é o valor do contrato do DI futuro de 1 dia, Ajuste1 é a Cotação do ajuste no
dia do pregão para vencimento do DI-1 dia imediatamente anterior do vencimento da
opção, DU1 é o número de dias úteis da data do pregão até este mesmo vencimento do DI
Futuro, DU2 é o número de dias úteis da data do pregão até a data de vencimento do DI-1
dia imediatamente posterior do vencimento da opção e TxJ2 é a taxa de juros deste período
DU2.
Finalmente, a taxa pré-fixada da data do pregão ao vencimento da opção, é dada pela
seguinte fórmula:
1))1(*)11((Pr 31
252
252
3
252
1
DUDU
DUDU
TTMTxJéTaxa (7),
Onde: DU3 é o número de dias úteis entre o vencimento da opção e da data de vencimento
do DI-1 dia imediatamente anterior do vencimento da opção.
45
Pela fórmula observa-se que quanto mais próximo for o vencimento da opção, da data de
vencimento do DI-1 dia imediatamente anterior, menos relevância terá a TTM para a taxa
de juros pré-fixada, uma vez que DU3 será pequeno em relação a DU1.
As cotações de fechamento das ações foram obtidas do software Economática. Trabalhou-
se com as séries ajustadas para dividendo no cálculo da volatilidade e dos processos
gerados de retornos e a série não ajustada para estimativa do valor da opção. Os preços de
fechamento das opções foram obtidos do banco de dados da BOVESPA.
Como foi observado anteriormente, as duas formas de se estimar o VaR são as abordagens
paramétricas e não-paramétricas. Na abordagem paramétrica, se supõe que a distribuição
dos retornos do ativo-objeto seja conhecida, como por exemplo, a distribuição normal. Na
abordagem não-paramétrica, o retorno do ativo-objeto ou da carteira é calculado sobre
algum período de tempo usando os dados históricos. O cálculo do VaR é obtido através da
leitura direta dos piores retornos para um dado percentil da distribuição empírica.
Para estimativa do Valor em Risco de uma carteira contendo significativas posições em
opções, temos que lidar com o problema da não-normalidade da série dos ativos-objeto e
com o problema da não-linearidade dos ativos componentes da carteira. Na Figura 2, o
gráfico QQ-plot demonstra que as séries aqui estudadas divergem da distribuição normal –
representada pela linha mais fina – principalmente nas caudas. Este fenômeno é
denominado caudas pesadas ou caudas gordas.
46
Dessa forma, nenhuma distribuição teórica foi imposta para a série de dados neste estudo,
considerando-se tão somente a própria distribuição empírica histórica da série para a
simulação. Para construir retornos independentes e identicamente distribuídos, removeu-se
Normal Q-Q Plot of GLOBOCBO
Observed Value
,5,4,3,2,10,0-,1-,2
Exp
ect
ed
No
rma
l Va
lue
,2
,1
0,0
-,1
-,2
Normal Q-Q Plot of PETROBRS
Observed Value
,2,1-,0-,1-,2-,3
Exp
ect
ed
No
rma
l Va
lue
,2
,1
0,0
-,1
-,2
Normal Q-Q Plot of TNLP
Observed Value
,4,3,2,10,0-,1-,2
Exp
ect
ed
No
rma
l Va
lue
,2
,1
0,0
-,1
-,2
Figura 2 – Gráficos QQ-plot dos Ativos-Objeto Petrobrás, Telemar e Globocabo, respectivamente, referente aos Retornos Logarítmicos, no Período de 21/09/98 a 24/11/00.
47
as correlações seriais e os clusters10 de volatilidade presente no conjunto de dados. Os
clusters de volatilidade e a correlação do quadrado dos retornos foram capturados por
processos GARCH, de acordo com a metodologia adotada por Barone-Adesi et al (2000). A
média condicional da série foi então regressionada contra o termo de média móvel (MA), o
retorno do dia imediatamente anterior (AR)11, a variância, o desvio-padrão e o retorno do
ativo livre de risco do dia imediatamente anterior.
A metodologia empregada também apresenta a propriedade de lidar com a suposição de
heterocedasticidade. Dessa forma, determinou-se o modelo GARCH que melhor explicava
o comportamento da variância nos retornos imediatamente anteriores, dentre os modelos
TARCH de Glosten et al (1993), EGARCH de Nelson (1991) e GARCH (1,1) simétrico de
Bollerslev (1986). Vale destacar que no período estudado, a variância dos retornos dos
ativos foram avaliadas pelo teste de Goldfeld-Quandt, a fim de se determinar a evidência de
heterocedasticidade na amostra. O teste se baseia na premissa de que a razão entre a
variância da primeira metade da amostra e a variância da segunda metade da amostra tem
distribuição F com n graus de liberdade, onde n é o número de dados de cada metade da
amostra. A Tabela 1 indica as estatísticas dos ativos no período estudado.
10 O cluster de volatilidade é uma tendência de séries financeiras onde largas mudanças de preços são seguidas por largas mudanças de preços. 11 Todas as séries modeladas pelos processos AR, MA ou ARMA foram testadas pela estatística de Dickey-Fuller, cuja hipótese nula é uma série não-estacionária. As estatísticas dos testes rejeitaram a hipótese nula sob o valor crítico de 10%. Para maiores detalhes do teste veja Griffiths et al (2000).
Ativo-objeto Estatística do Teste Hipótese Nula Petrobrás 1,35 RejeitadaTelemar 1,64 Rejeitada
Globocabo 3,07 Rejeitada
Tabela 1 – Estatística do Teste de Goldfeld-Quandt, para o Período de 21/09/98 a 24/11/00, sob a Hipótese Nula de Não Heterocedasticidade da Variância dos Retornos dos Ativos.
48
3.3 - Metodologia da Simulação Histórica Filtrada
Pritsker (2001) externa uma preocupação com a metodologia de bootstrap para amostras
históricas de dados filtrados até 500 observações. Segundo o autor, neste caso, há uma
tendência para que o modelo subestime o risco, devido a pouca quantidade de extremos na
distribuição dos dados. Segundo o autor, uma maior extensão de dados passados é
necessária para a eficiência da metodologia, o que permitiria uma maior quantidade de
observações extremas na distribuição.
Considerando a necessidade de uma maior extensão dos dados passados e levando em conta
a peculiaridade dos ativos escolhidos, selecionou-se o período de 21/09/98 a 24/11/00 para
estimativa do modelo GARCH e dos resíduos de cada série. Desta forma, gerou-se um total
de 539 resíduos de retorno padronizados, para cada ativo-objeto.
Para o ativo Petrobrás, a regressão do retorno mais parcimoniosa incluiu o termo de média
móvel (MA) com lag 1, cuja fórmula é apresentada na equação 8. O modelo de volatilidade
que melhor se adaptou a série de retornos foi o TARCH de Glosten et al (1993), cuja
fórmula é apresentada na equação 9.
tttr 1 (8)
12
112
1 ttttt hdh (9)
49
Onde: é a constante do termo MA, t é o resíduo do retorno no momento t, ht é a
variância no momento t, eesão parâmetros de GARCH, é o parâmetro de GARCH
relativo à assimetria e dt-1 é uma variável dummy igual a 1 se t-1 é negativo e 0, no caso
contrário.
Para os ativos Globocabo e Telemar, a regressão do retorno incluiu o termo de média
móvel (MA) e o retorno do dia imediatamente anterior (AR), ambos com lag 1, e o modelo
de volatilidade foi o GARCH (1,1) simétrico de Bollerslev (1986), apresentados nas
equações 10 e 11 respectivamente:
tttt rr 11 (10)
12
1 ttt hh (11)
A Tabela 2 indica a distribuição dos modelos estimados mês a mês, durante o período de
27/11/00 a 15/04/02, período de aplicação da metodologia na avaliação do Valor em Risco
do portifólio de opções.
50
A partir da regressão inicial, que abrangeu o período de setembro de 1998 a novembro de
2000, gerou-se a série de 539 resíduos de regressão, cuja premissa, pela suposição do
modelo de regressão, é normal (0, ht0.5), onde ht é a variância diária dos retornos dos ativos-
objeto. Os testes Kolmogorov-Smirnov e Anderson-Darling rejeitaram a hipótese de
normalidade para os resíduos de regressão dos três ativos estudados. Padronizou-se então
estes resíduos, dividindo-os pelo respectivo desvio-padrão do dia, criando o que Barone-
Adesi et al (2000) denominam de resíduo de retorno padronizado, dado pela fórmula 12:
Zt = htt (12)
Retorno Variância Retorno Variância Retorno Variância
set/98 a nov/00 MA TARCH ARMA GARCH ARMA GARCHdez/00 MA TARCH ARMA GARCH ARMA GARCHjan/01 MA GARCH ARMA GARCH ARMA GARCHfev/01 MA GARCH ARMA GARCH ARMA GARCH
mar/01 MA TARCH ARMA GARCH ARMA GARCHabr/01 MA TARCH ARMA GARCH ARMA GARCHmai/01 MA TARCH ARMA GARCH ARMA GARCHjun/01 MA TARCH ARMA GARCH ARMA GARCHjul/01 MA TARCH ARMA GARCH ARMA GARCH
ago/01 MA TARCH MA GARCH ARMA GARCHset/01 MA TARCH MA GARCH ARMA GARCHout/01 MA GARCH MA GARCH ARMA GARCHnov/01 MA GARCH MA GARCH ARMA GARCHdez/01 MA GARCH MA GARCH ARMA GARCHjan/02 MA GARCH MA GARCH - GARCHfev/02 MA GARCH MA GARCH - GARCH
mar/02 MA GARCH MA GARCH - GARCH
Regressão
Período
Ativo-objeto Petrobrás Telemar Globocabo
Tabela 2 – Modelos Estimados por Regressão para os Retornos e Variâncias dos Ativos-Objeto Petrobrás, Telemar e Globocabo, no período de Setembro de 1998 a Março de 2002, aplicados para Previsão do Valor em Risco do Portifólio no Mês Imediatamente Posterior.
51
Onde: té o resíduo da regressão dos retornos, ht é a variância diária dos retornos do ativo-
objeto obtida pela modelação GARCH e Zt é o resíduo de retorno padronizado. A Figura 3
indica a distribuição obtida pelos resíduos de retorno padronizados do ativo-objeto
Petrobrás.
Ao contrário do teste dos resíduos obtidos pela regressão do retorno, neste caso verificou-se
que os testes Kolmogorov-Smirnov e Anderson-Darling não rejeitaram a hipótese de
normalidade para os resíduos de retorno padronizados do ativo Petrobrás, ainda que a um
nível de confiança de 10%. As Figuras 4 e 5 indicam as distribuições obtidas pelos resíduos
de retorno padronizados dos ativos-objeto Telemar e Globocabo, respectivamente.
0
10
20
30
40
50
60
70
80
-3.75 -2.50 -1.25 0.00 1.25 2.50 3.75
Series : R ES ID 01Sam ple 1 539O b servations 539
M ean 0.069154M edian 0.009242M axim um 3.802206M inim um -3.596782S td. D ev. 0.980985Skewness 0.249250Kurtos is 3.882210
Jarque-Bera 23.06014Probability 0.000010
Figura 3: Distribuição dos Resíduos de Retorno Padronizados do Ativo-Objeto Petrobrás, no Período de 21/09/98 a 24/11/00, com Base em um Retorno Modelado por um Termo de Média Móvel e Volatilidade Modelada pela Metodologia GARCH.
Anderson-Darling 1. 0 3 4 8 7
Kolmogorov-Smirn. 0. 0 3 1 7
52
0
10
20
30
40
50
60
-2.5 0.0 2.5 5.0
Series: RESID01Sample 2 539Observations 538
Mean 0.044494Median 0.000769Maximum 5.839274Minimum -2.724643Std. Dev. 1.001523Skewness 0.478116Kurtosis 5.070889
Jarque-Bera 116.6331Probability 0.000000
Figura 4: Distribuição dos Resíduos de Retorno Padronizados do Ativo-Objeto Telemar, no Período de 21/09/98 a 24/11/00, com Base em um Retorno Modelado por um Termo de Média Móvel (MA) e um Termo Autoregressivo (AR) e com a Volatilidade Modelada pelo Método GARCH.
Anderson-Darling 0 .5 2 6 5
Kolmogorov-Smirn. 0 .0 3 1 2
0
10
20
30
40
50
60
-2.5 0.0 2.5 5.0
Series: RESID01Sample 2 408Observations 407
Mean 0.037046Median 0.005983Maximum 5.146127Minimum -3.688240Std. Dev. 1.002767Skewness 0.500167Kurtosis 5.213087
Jarque-Bera 100.0274Probability 0.000000
Figura 5: Distribuição dos Resíduos de Retorno Padronizados do Ativo-Objeto Globocabo, no Período de 21/09/98 a 24/11/00, com Base em um Retorno Modelado por um Termo de Média Móvel (MA) e um Termo Autoregressivo (AR) e com a Volatilidade Modelada pelo Método GARCH.
Anderson-Darling 1 .3 4 6 8
Kolmogorov-Smirn. 0 .0 3 4 9
53
Nos dois casos, também se verificou que os testes Kolmogorov-Smirnov e Anderson-
Darling não rejeitaram a hipótese de normalidade para os resíduos de retorno padronizados
dos ativos estudados, ainda que a um nível de confiança de 10%.
O modelo estimado de retorno e o modelo de volatilidade, no período de 21/09/98 a
24/11/00, foram utilizados para a formação deste banco de dados de resíduos de retorno
padronizados e para a previsão dos retornos e das volatilidades dos ativos do mês seguinte,
necessários para aferição do Valor em Risco da carteira composta pelas opções dos ativos-
objeto estudados. Após este período de 1 mês, era feita nova estimativa do modelo de
retorno e de volatilidade, baseado em uma janela móvel de 539 dias úteis, para previsão do
Valor em Risco da carteira de opções do novo mês. O processo resultou em 17 regressões
para o retorno e para a volatilidade de cada ativo-objeto estudado, que compôs o banco de
dados de resíduos de retorno padronizados. A quantidade de regressões realizadas está de
acordo com a quantidade de meses entre o primeiro e o último vencimento de opção, da
amostra de vencimentos de opções deste estudo. No total, abordou-se 9 períodos de
vencimentos de opções. A Tabela 3, a seguir, apresenta os vencimentos utilizados para
aplicação das metodologias, a quantidade de dias de negociação até o vencimento e a
quantidade de opções de cada ativo-objeto, cujo critério de seleção baseou-se na liquidez e
na continuidade de negociação das opções, durante o período de estudo.
Tabela 3 – Vencimentos de Opção, Número de Dias de Negociação e Quantidade de Opções de cada um dos Ativos-Objeto Petrobrás, Telemar e Globocabo, selecionados neste Estudo para Aplicação das Metodologias Apresentadas.
Vencimento 18/12/00 19/02/01 16/04/01 18/06/01 20/08/01 15/10/01 17/12/01 18/02/02 15/04/02
Dias de Negociação 16 44 43 44 53 42 47 31 51
Número de Opções 4 5 4 4 3 3 4 3 3
54
Ainda conforme a Tabela 2, o ativo-objeto Petrobrás foi o ativo mais instável em termos de
regularidade para o modelo de retorno e volatilidade. Apesar disso, verifica-se uma
tendência para um modelo com retorno em função do erro de retorno do dia anterior (MA)
e com volatilidade indicada por um modelo TARCH de Glosten et al (1993). Os ativos
Globocabo e Telemar apresentaram uma forte regularidade no modelo de retorno ARMA e
no modelo de volatilidade GARCH (1,1) simétrico de Bollerslev (1986).
Selecionou-se os modelos de retorno do ativo-objeto e da variância que melhor se
adaptaram aos retornos imediatamente anteriores ao período estudado. Os parâmetros dos
retornos e da variância foram estimados através do software Eviews 4, que emprega o
método de máxima verossimilhança. A escolha do método GARCH mais parcimonioso
para cada semestre foi feita com base primeiramente nos p-valores da estimativa de cada
parâmetro. Se o parâmetro de assimetria, dos processos TARCH (1,1) e EGARCH (1,1)
fosse significativamente positivo ou negativo, o GARCH (1,1) seria descartado. Se os p-
valores fossem razoavelmente semelhantes, eram utilizados os critérios Schwartz (1978) e
Akaike (1970)12 .
Foi utilizado, ainda, o teste Ljung-Box para verificação da nulidade da hipótese de não
autocorrelação entre os resíduos. Para uma estatística inferior a 25, com 15 graus de
liberdade, não se rejeitou a hipótese de autocorrelação serial dos retornos igual a zero, com
95% de confiança, para todos as estimativas de volatilidade pela metodologia GARCH
analisadas neste trabalho.
12 Estes métodos se baseiam no critério de aderência que visa comparar medidas de defasagens de modelos alternativos estimados com o mesmo número de observações. Para maiores detalhes dos métodos veja Griffiths et al (2000).
55
A seguir foram compostas as carteiras de opções formadas por todas as opções de cada um
dos três ativos-objeto e agrupadas de acordo com a relação entre o valor presente do seu
preço de exercício e do preço spot do ativo-objeto. O critério de classificação das opções se
baseou no trabalho de Donangelo, Lemgruber e Silva (2000). Com isso, as opções foram
classificadas como dentro-do-dinheiro, quando a razão preço spot pelo valor presente do
seu preço de exercício fosse maior que 1.05, no-dinheiro, quando a razão situou-se entre
0.95 e 1.05 e como fora-do-dinheiro, quando fosse menor que 0.95.
No total, foram compostos 829 dias de negociação para cada ativo-objeto, subdivididas
posteriormente na classificação dentro-do-dinheiro, no-dinheiro e fora-do-dinheiro.
Para simular o retorno do ativo, no dia seguinte, colhia-se aleatoriamente e com reposição,
por um processo de bootstrap, um resíduo de retorno padronizado e multiplicava-se pela
volatilidade modelada pelo processo GARCH para o dia seguinte, de maneira a ajustá-lo às
condições correntes de mercado. Este resíduo iria compor a parte não explicável do retorno
do ativo-objeto. A parte explicável seria a resultante do modelo de regressão. No caso de
holding period maior que um, este procedimento recursivo poderia ser repetido para cada
dia até que o holding period fosse alcançado, gerando uma trajetória de preços futuros do
ativo-objeto. Todo o processo era simulado 5.000 vezes.
Quando se trabalha com uma carteira de ativos, o processo é semelhante, mas com o
cuidado de selecionarmos cada resíduo de retorno padronizado, de cada ativo, na mesma
data da base de dados de resíduos, de maneira a manter o co-movimento que existe entre os
ativos a cada dia. A idéia de co-movimento visa substituir a metodologia da matriz de
56
correlação e em um caso de carteira com muitos ativos pode demandar uma maior rapidez
de cálculo computacional.
No caso particular das opções, partindo da constatação empírica de que os resíduos de
retorno padronizados seguem a distribuição normal, gera-se pela metodologia uma
distribuição normalizada de retornos do ativo previstos para o holding period e, calcula-se o
valor da opção através da fórmula de Black&Scholes (1973) que irá gerar uma distribuição
de valores de opções correspondente a cada valor de ativo simulado com sua respectiva
variância – calculada com base na volatilidade implícita do dia útil anterior da opção. Neste
caso, o VaR da opção é obtido através da leitura direta dos piores retornos para um dado
percentil da distribuição empírica.
O método apresenta, ainda, propriedades para avaliação de situações de valores extremos
ou de testes de stress. Neste caso, atribui-se maior probabilidade, no processo de
colhimento do bootstrap, aos resíduos de retorno padronizados com maior valor absoluto.
3.4 – Outras metodologias
Conforme se constata nas Figuras 2, 3 e 4, os três ativos apresentaram os seus resíduos de
retorno padronizados seguindo a distribuição normal. Porém, a fim de se verificar a
consistência da metodologia utilizada, utilizou-se duas modificações no modelo
originalmente proposto pelos autores.
57
A primeira consistiu em desconsiderar a premissa de normalidade dos resíduos de retorno
padronizados e conseqüentemente da distribuição de valores previstos para o ativo. Desta
maneira, tal procedimento invalida a utilização da fórmula de Black&Scholes, e neste caso,
precificou-se as opções por um processo de simulação do valor do ativo no vencimento da
opção, descontado do preço de exercício e trazido a valor presente pela taxa de juros do
ativo livre de risco. Desconsiderou-se também a premissa de que os retornos do ativo, no
futuro, pudessem seguir o mesmo comportamento do passado através do modelo de retorno
obtido pela regressão. Neste caso, as opções foram precificadas modelando-se o
comportamento do ativo através de um movimento browniano geométrico. Se o preço de
um ativo-objeto (S), segue o movimento browniano geométrico, tem-se que
dtSd )2
(ln2
,13 onde é o retorno logarítmico esperado do ativo, é o desvio-
padrão no instante t, e é uma variável aleatória que possui uma distribuição normal com
média 0 e variância condicional . Então, como sob condições de log-normalidade,
pode ser considerado igual a )exp( r , onde é a unidade de prêmio de risco, e r é o
retorno logarítmico do ativo livre de risco, ambos para um período, tem-se que o preço do
ativo-objeto para um período segue o seguinte processo dado pela fórmula 13:
]2
[ exp S2
1-t tt
tttt rS
(13)
13 Ver HULL (1999).
58
A unidade de prêmio de risco, cujo objetivo é capturar a sensibilidade do mercado – bull ou
bear, foi calculada com base em uma janela móvel de 20 dias úteis de acordo com a
metodologia utilizada por Araújo e Barbedo (2001), dada pela fórmula 14:
- R)/ dp (14)
Onde: R e dpsão respectivamenteoretorno médio do ativo-objeto, a taxa de juros
média do ativo livre de risco e o desvio-padrão dos 20 dias úteis anteriores, baseado no
modelo GARCH estimado para cada ativo e em cada período.
No período de simulação, ou seja, entre a data de precificação de cada opção e o seu
vencimento, considerou-se a taxa de juros do ativo livre de risco e a unidade de prêmio de
risco constante e uma volatilidade estocástica segundo um processo GARCH. Esta
metodologia foi denominada de Simulação Histórica Filtrada com Movimento Browniano
(SHFMB).
A segunda modificação consistiu em aplicar uma volatilidade diferente da metodologia
indicada pelos autores, devido a algumas impropriedades verificadas nos preços de
fechamento utilizados para o cálculo da volatilidade implícita, tais como os preços de
fechamento não refletirem uma sincronização das transações e não significarem
necessariamente preços obtidos por transações, isto é, poderiam ter sido resultantes de
diferenças entre o bid-ask ou resultante de movimentos artificiais ocorridos no
59
fechamento14. Desta forma, a volatilidade considerada foi a que resultou no preço do ativo
simulado no holding period, modelada pelo processo GARCH. Esta metodologia foi
denominada de Simulação Histórica Filtrada com Volatilidade Modificada (SHFVM).
O resultado das metodologias modificada e original está apresentado no próximo capítulo.
Verificou-se que a metodologia que utilizava movimento browniano e volatilidade
estocástica exigiu maior esforço computacional, pois a cada dia para o vencimento da
opção a simulação gerava um total - tempo para o vencimento da opção x 5.000 – que
variava de 80.000 a 290.000 simulações para cada portifólio. Buscou-se então, métodos de
redução de variância que pudessem tornar a metodologia mais aplicável, baseados em
trabalhos consagrados na literatura, como o de Davison e Hinkley (1997) e Davison et al
(1986). Verificou-se que os métodos existentes apresentam vieses que poderiam interferir
na apuração do Valor em Risco.
Dentre as idéias apresentadas, destaca-se a que o autor denomina de Balanced Ressampling,
que consiste em igualar o processo de colheita de cada observação, isto é, interferir na
simulação, de maneira que as observações sejam colhidas uma mesma quantidade de vezes.
Optou-se por não se adotar esta técnica de redução de variância, devido à existência de
valores extremos na distribuição dos resíduos. Jorion (1997) afirma que a aleatoriedade do
colhimento destes valores é que determina o bom desempenho da metodologia de bootstrap
nos extremos da distribuição.
14 Outros vieses podem ser encontrados em Galai (1977).
60
3.5 – A metodologia Delta-Gama
Os resultados obtidos pelo modelo de simulação histórica filtrada foram comparados com a
metodologia Delta-Gama, sugerida pelo Riskmetrics (1996) para ativos não lineares.
Assumindo-se que o valor da ação segue um processo de Wiener e que os retornos
calculados de forma logarítmica são normalmente distribuídos15, calcula-se o Valor em
Risco dos ativos-objeto, diariamente, pela fórmula 15:
HPVAR ttAtivo s 0, (15)
Onde: S0 é o valor esperado da ação para o dia em que se está calculando o VaR, é o
coeficiente Z da distribuição normal (0,1), sendo que neste trabalho, usou-se um nível de
confiança de 95%, 98% e 99% unicaudal, portanto = 1.64; = 2.05 e = 2.32
respectivamente. HP é o holding period assumido no trabalho como igual a 1 dia e t, a
volatilidade do ativo-objeto calculada de duas maneiras distintas: a primeira, considerando
a volatilidade implícita (ISD) do dia útil anterior da mesma opção que está se querendo
apreçar. As ISD´s foram calculadas por intermédio de processo iterativo a partir da função
Atingir Meta, do programa Excel. A segunda pelo método GARCH, dado pela fórmula 9.
15 Ver Hull (1999).
61
As comparações dos dois métodos de volatilidade aplicadas na fórmula Delta-Gama estão
explicitadas no capítulo Resultados.
Considerando só o Delta, a variação do valor do prêmio da opção, dc, será:
dSdc (16)
Considerando que a variação do prêmio da opção está inserida nas gregas Delta e Gama, da
série de Taylor, a variação do prêmio da opção é dada pela fórmula 17:
2
2
1dSdSdc (17)
Se a variável dS for normalmente distribuída, obtém-se o Valor em Risco da opção:
2)(2
1)()( dSVaRdSVaRdcVaR (18)
Para as distribuições normais, o VaR de ativos-objeto, definido na fórmula 15, com holding
period de um dia é:
SdSVaR )( (19)
Onde: é desvio normalizado para a significância selecionada, é o desvio padrão e S é o
valor inicial do ativo.
Substituindo a fórmula 19 na equação 18, temos a equação do VaR para opções:
12
11
22
, ss tttopçõesVAR (20)
Onde: t é a primeira derivada do preço da opção em relação ao preço do ativo objeto
(delta), t é a segunda derivada do preço da opção em relação ao preço do ativo objeto
62
(gama) e 1 é o desvio padrão multiplicado pelo desvio normalizado para a significância
selecionada.
O sinal do segundo termo do lado direito da equação depende da operação realizada. Para
posições longas, compradas, o sinal é negativo, reduzindo-se o risco, dado a característica
de trava de uma operação comprada de opções.
O grande fator de risco da opção é sem dúvida o preço da ação. É por isso que normalmente
se usa a aproximação linear do Delta para a análise do risco da opção. A composição Delta-
Gama fornece uma aproximação muito melhor para as variações na opção, mesmo
incorrendo no erro de desprezar os termos de ordens maiores que o Gama.
O VaR Delta-Gama do portifólio foi definido, então, para título de comparação com a
metodologia da Simulação Histórica Filtrada, como o VaR “não diversificado”16, que é a
soma dos VaRs individuais de cada ativo, calculado pela fórmula 21:
3 opção32 opção21 opção1 VARVARVAR wwwVARcarteira (21)
Onde: w 1, w 2 e w 3 são os pesos das respectivas opções no portifólio.
16 Ver Jorion (1997), página 149.
63
3.6 – Métodos para Avaliação dos Modelos
Na literatura econométrica existe uma grande variedade de trabalhos que procuram avaliar
a precisão de modelos que fazem previsões pontuais sobre uma determinada variável, em
um período de tempo.
Em geral, a acurácia destas previsões é avaliada a partir de alguma medida de distância
entre os valores estimados e realizados da variável. Assim, quanto menor esta distância
mais precisa é a previsão do modelo.
Contudo, ainda é muito restrito o número de métodos para avaliação de previsões de
intervalos para uma variável. Uma previsão de um intervalo significa encontrar um certo
subconjunto do espaço onde a variável toma valores associados a uma probabilidade de
ocorrência. O VaR de um portifólio tem esta característica, pois ele nada mais é do que o
limite de um intervalo de confiança que informa quais as perdas acima deste valor que
ocorrem com uma probabilidade 1-p, sendo p o nível de confiança.
Neste trabalho utilizou-se 3 métodos, apresentados a seguir, para avaliação de previsões de
intervalos de confiança que podem ser utilizados para avaliação do desempenho de
estimativas de VaR.
64
3.6.1 – Kupiec
O primeiro teste é o de proporção de falhas encontrada na amostra analisada, de Kupiec
(1995), para verificação da acurácia do VaR calculado. O teste baseia-se na freqüência de
extrapolação do VaR em uma amostra para um dado portifólio. Sendo n o tamanho da
amostra e x o número de vezes em que o retorno do portifólio excede o VaR calculado a um
nível de confiança 1-p*. O que se pretende testar é se x dividido por n é significativamente
diferente de p*. Todos os testes foram conduzidos com um valor crítico de 5%.
A comparação da perda ou ganho do portifólio em um determinado dia com a estimativa do
VaR a certo nível de significância p* determina o resultado de um evento binomial. Neste
caso, tem-se um erro quando a perda da carteira é maior que a perda potencial dada pelo
modelo de VaR e um acerto quando ela é menor. Supondo independência dos eventos entre
dias, a probabilidade E de haver x erros (retornos acima do VaR) numa amostra n é dada
por uma distribuição binomial com parâmetros x, p, sendo p a probabilidade do erro:
E = (1-p )n-x . p x (22)
O teste de proporção de falhas é baseado na taxa de verossimilhança para a hipótese nula,
que segundo Kupiec (1995), representa a forma mais poderosa para um teste de proporção
de falhas. A estatística de taxa de semelhança, nesse caso, é dada pela Equação 23.
65
xxnxxn
n
x
n
xLogppLogPF 1212 **
(23)
Onde: PF é a proporção de falhas, p* é a probabilidade de falha sob a hipótese nula, n é o
tamanho da amostra e x o número de falhas da amostra.
Sob a hipótese nula, onde p = p*, a proporção de falhas é igual ao nível de significância
desejado, e tem uma distribuição chi-quadrada com 1 grau de liberdade.
A região de número de falhas onde não se pode rejeitar a hipótese nula é determinada pela
intercessão da PF e da função chi-quadrada. Para um dado tamanho da amostra e um dado
nível de significância obtêm-se os limites inferior e superior dentro dos quais a hipótese
nula não pode ser rejeitada.
O problema deste teste, como apontado por Kupiec (1995), é seu baixo poder para amostras
pequenas, ou seja, este teste tem uma alta probabilidade de aceitar a hipótese nula quando
ela é falsa em amostras com número de observações limitado.
3.6.2 – Christoffersen O procedimento sugerido por Kupiec para medir a proporção de falhas do VaR é não
condicional, ou seja, é baseado na informação conjunta da amostra. O teste não condicional
não tem a característica de avaliar o comportamento das falhas do VaR estimado, isto é, se
elas se agrupam ou não, de forma dependente no tempo. Um método condicional tem a
66
propriedade de levar em conta as informações existentes em cada ponto da amostra, ele é
condicional ao conjunto de informações disponível em cada instante de tempo. Como as
séries financeiras, em geral, apresentam volatilidades dependentes no tempo, implicando
uma dependência temporal no VaR, a avaliação condicional dos modelos de risco se torna
importante.
Em Christoffersen (1996) é definido um procedimento para a verificação da precisão das
previsões nos intervalos de confiança, que tenta capturar a condicionalidade das
estimativas. O teste é diretamente direcionado para o caso de estimadores de VaR para
portifólios.
Seja ytT t=1a seqüência observada da variável aleatória yt, que é o retorno monetário
de um ativo ou portifólio de ativos. Em cada instante do tempo o intervalo estimado com
base na amostra é dado por VaR t/t-1 (1-p),onde VaR t/t-1 (1-p) é o VaR estimado
para o período t ao nível de confiança p com as informações disponíveis até t-1. Define-se a
seguinte variável indicador It:
1, se yt VaR t/t-1 (1-p) It = 0, se yt VaR t/t-1 (1-p)
67
Diz-se que uma seqüência de intervalos projetados é eficiente com relação ao conjunto de
informação t-1 se E[It | t-1] = p, para todo t.
O autor define então um critério operacional demonstrando que testar a eficiência do
intervalo projetado é equivalente a testar a hipótese de que a seqüência { It } é independente
e identicamente distribuída segundo uma Bernoulli com parâmetro p. Diz-se então que uma
seqüência de intervalos tem uma correta cobertura condicional se It i.i.d~ Bernoulli (p),
para todo t.
Para testar esta hipótese sugere-se dois testes de razão de verossimilhança (RV). O primeiro
testa exclusivamente a adequação não condicional das estimativas. O segundo testa a
independência da seqüência yt T t=1
No teste de adequação não condicional, a hipótese nula de que E[It] = p é testada contra a
alternativa E[It] p. Sobre esta hipótese nula, a verossimilhança é igual a:
L(p; I1, I2, ..., It) = (1-p)n-x . p x (24)
Onde: x é o número de observações para as quais It = 1 e n o tamanho da amostra.
Sobre a hipótese alternativa, a verossimilhança é igual a:
68
L(; I1, I2, ..., It) = (1-)n-x x (25)
Onde: é igual a razão entre x e n.
A estatística do teste de razão de verossimilhança (RVnc) neste caso é igual a:
RVnc = -2 ln[L(p; I1, I2, ..., It) / L(; I1, I2, ..., It)] ~ 2 (26)
No teste de independência a hipótese nula é a independência da série e a hipótese
alternativa é um processo markoviano de primeira ordem. Onde esãomatrizes de
transição de probabilidade de uma cadeia de Markov binária de primeira ordem.
A estatística do teste de razão de verossimilhança (RVind) é dada, neste caso, por:
RVind = -2 ln[L(; I1, I2, ..., It) / L(; I1, I2, ..., It)] ~ 2 (27)
Maximizando a log-verossimilhança e resolvendo os parâmetros obtém-se:
nnn
nnn
nnn
nnn
1110
11
0100
01
1110
10
0100
00
^
1 (28)
Onde: nij é o número de observações com o valor i seguido pelo valor j.
69
Utilizando os valores da série It, obtida do modelo a ser avaliado, pode-se testar essa
hipótese alternativa contra a de independência, que apresenta a seguinte matriz de
transição:
2
2
2
2
1
12 (29)
A independência se caracteriza por probabilidades iguais na mesma coluna da matriz, dessa
maneira, a exceção de VaR deve ser independente do estado anterior, exceção ou não
exceção de VaR.
A função de verossimilhança na hipótese nula é dada por:
L(; I1, I2, ..., It)] = (1- 2)(n00+n10)
2(n01+n11)
(30)
O teste não depende da verdadeira probabilidade de erro 1-p. Desta forma, está se testando
exclusivamente a hipótese de independência. No entanto, o objetivo final é testar
conjuntamente independência e a verdadeira probabilidade de erro 1-p. Para tanto, o autor
sugere uma combinação dos dois testes anteriores, que é a soma das estatísticas dos dois
testes anteriormente apresentados.
RVconjunto = RVnc + RVind (31)
70
3.6.3 – Lopez Lopez (1999) apresenta as metodologias de avaliação da eficácia dos modelos de estimação
do VaR disponíveis para os Órgãos Reguladores. No primeiro grupo, aparece a
metodologia de avaliação baseada em testes de hipóteses, subdividida em binomial,
previsão de intervalos e método de previsão de distribuição. No grupo alternativo, o autor
utiliza uma metodologia em função das perdas e baseada na previsão de probabilidade.
Em cada um dos testes do primeiro grupo, a hipótese nula é a de que as previsões de VaR
apresentam uma propriedade específica de acurácia. O método de avaliação baseado na
distribuição binomial, Kupiec (1995), verifica se as estimativas de VaR, na média, provêem
correta cobertura dos percentis da cauda da distribuição. O método de previsão de
intervalos, proposto por Christoffersen (1998), verifica se as estimativas de VaR exibem
correta cobertura em cada ponto do tempo e o método de previsão de distribuição, proposto
por Crnkovic e Drachman (1996), verifica se os quantis empíricos derivados da distribuição
do modelo estudado são independentes e uniformemente distribuídos.
Nestes testes, se a hipótese nula é rejeitada, as previsões do VaR não exibem a propriedade
específica e o modelo é classificado como inadequado. Se a hipótese nula não é rejeitada, o
modelo é classificado como acurado. Contudo, como em qualquer método que envolva um
teste de hipóteses, estes modelos apresentam o problema de baixa potência – alta
probabilidade de aceitar uma hipótese nula falsa - dos testes dos métodos apoiados em
critérios estatísticos.
71
Para contornar este problema, Lopez (1999) apresentou o seu modelo baseado em previsão
de probabilidade. O método provê informação da performance do modelo de VaR, de
acordo com os critérios dos organismos reguladores, desconsiderando os critérios
estatísticos característico dos outros métodos. O método pode ser usado para comparar a
acurácia do modelo de VaR em diferentes períodos de tempo e em relação a outros
modelos, informação útil para usuários de modelos, mas principalmente para reguladores
de risco.
A função perda, definida pelo autor para um modelo m qualquer, tem a seguinte forma:
T
ittmm CC T ,
1(32)
Onde: 1 + (Pt – VaRmt)
2, se yt < VaRmt
Cm,t =(33)0, se yt ≥ VaRmt
Sendo: VaRmt, o VaR estimado pelo modelo m para o período t e Pt a variação monetária no
valor de mercado do portifólio efetivamente observado em t.
Esta função é semelhante à medida de erro quadrático médio utilizado na avaliação da
precisão de previsões pontuais. Com a diferença que neste caso, a magnitude do erro só
influencia a função quando o VaR é extrapolado. Desta forma, esta função perda também
72
fornece uma medida do tamanho do erro ocorrido quando o VaR é extrapolado, além de
informar a freqüência de erro. O melhor modelo será aquele que produzir uma freqüência
de erro mais próxima da esperada e no qual os erros são menores em relação ao VaR
estimado.
Outro ponto a ser destacado é que as propriedades da função perda são desconhecidas a
priori, ao contrário das estatísticas anteriores que possuem distribuições assintóticas
conhecidas, não permitindo a classificação do modelo de VaR em preciso ou impreciso,
mas limitado a comparar o desempenho do modelo ao longo do tempo e em relação a
outros modelos de VaR.
Em Lopez (1999) realizam-se experimentos com objetivo de avaliar a capacidade dos
quatro métodos apresentados para identificar especificações incorretas de modelos de VaR.
No trabalho geram-se retornos com diferentes hipóteses de distribuições e dinâmicas para
volatilidade condicional e, em seguida, estima-se o VaR pelos métodos selecionados. O
resultado obtido é que os três métodos estatísticos mostram, na maior parte dos casos, uma
baixa potência e, portanto, são pouco eficientes em apontar a imprecisão dos modelos de
risco. Por outro lado, o método que se baseia na função perda tende a apontar como modelo
mais adequado o VaR que se baseia no verdadeiro processo gerador dos dados.
A baixa potência dos testes estatísticos foi o motivo que levou à adoção da função perda,
como critério de avaliação dos modelos estudados neste trabalho. Sobretudo, no estudo do
comportamento das opções por moneyness, que se caracterizavam por séries curtas (entre
73
200 e 300 observações), cuja aplicação dos modelos estatísticos apresentados poderia
apresentar resultados enviesados.
74
Cap.4: Resultados
Visando apresentar as diferentes estimativas de Valor em Risco, a partir das metodologias
estudadas, foram realizados backtests diários, para cada série de opções e portifólios, que
compararam o VaR de cada modelo com as perdas diárias observadas. Para os testes de
hipóteses, criou-se uma variável que descreveu as falhas no cálculo do VaR. Quando as
perdas do modelo estudado de VaR eram menores que as perdas reais observadas, atribuía-
se a essa variável o valor “1”, caso contrário atribuía-se o valor “0”. O teste de acurácia
baseou-se na comparação da porcentagem de valores “1”, falha ou exceção, encontrada em
cada backtest e em relação ao percentil estudado. No caso em que a quantidade de falhas ou
exceções se encontrou dentro dos limites de Kupiec (1995) ou de Christoffersen (1996), o
teste foi considerado “não rejeitado”, no caso contrário, o teste foi considerado “rejeitado”.
Os resumos dos resultados podem ser vistos nas tabelas que se seguem. O nível de
significância adotado neste trabalho foi de 95%, 98% e 99%.
Antes da apresentação dos resultados é importante reiterar o motivo dos ajustes necessários
ao método de Simulação Histórica Filtrada (SHF). Dada a dificuldade encontrada em
aplicar a metodologia utilizando-se da volatilidade implícita para a precificação da opção,
devido principalmente aos problemas de sincronização e liquidez, optou-se pela utilização
de recursos que dispusessem outras formas de cálculo da volatilidade, como a histórica e a
estocástica, ambas baseadas em um processo GARCH. Desta forma, os resultados obtidos
por uma ou outra metodologia diferenciada em nenhuma hipótese invalidam ou mesmo se
diferenciam integralmente da metodologia original.
75
4.1 – Resultado das Metodologias para as Opções Isoladas
A Tabela 4, a seguir, apresenta os resultados do backtest, referente a todo o período de
estudo, avaliados pelo método de Christoffersen (1996), para o total das opções de cada
ativo-objeto e de acordo com cada metodologia empregada para avaliação do Valor em
Risco.
Números com asterístico representam valores não rejeitados pelo Teste de Christoffersen (1996). Valores em branco se referem a séries no qual não houve uma seqüência de duas exceções consecutivas de VaR. Neste caso, o Teste de Christoffersen (1996) atribui valor indeterminado à série.
Tabela 4 – Comparação das Metodologias de Avaliação do Valor em Risco para o Total de Opções dos Ativos-Objeto Petrobrás, Telemar e Globocabo, no Período de 27/11/00 a 15/04/02, através dos Testes de Não-Condicionalidade (TNC) e de Independência (TI), com Diferentes Formas de Cálculo da Volatilidade.
Metodologia
Volatilidade TNC TI TNC TI TNC TI
95% 6,91 15,90 4,35 9,18 14,28 16,64
98% 0,43* 24,77 0,02* 1,03* 1,42* 6,72
99% 0,34* 23,81 0,70* 0,70*
95% 1,06* 38,39 36,00 104,17 6,25
98% 15,93 26,03 104,62 100,04 8,27
99% 39,77 24,57 167,03 107,41 7,71
95% 90,44 4,64 254,94 26,92 220,35 10,60
98% 161,11 7,15 157,57 3,87* 303,64 4,47*
99% 216,54 12,18 39,74 8,31 299,67 11,82
95% 5,55 48,12 45,63 94,79 7,09
98% 42,73 30,78 133,53 78,63 10,93
99% 67,04 13,21 202,68 86,73 10,86
95% 202,26 10,19 294,69 2,84* 146,17 0,17*
98% 375,23 10,38 361,47 2,14* 224,93 1,08*
99% 367,95 0,12* 207,27 -2,21* 211,89 -4,44*
GlobocaboNível de Confiança
Petrobras Telemar
SHF Estocástica -
GARCH
Delta-Gama Histórica - GARCH
SHF Histórica - GARCH
Delta-Gama Implícita
SHF Implícita
76
A Tabela apresenta os resultados dos testes de Christoffersen (1996): o teste de não-
condicionalidade, que é semelhante ao teste de proporção de falhas de Kupiec (1995) e o
teste de independência. Os valores apresentados na Tabela foram comparados com base no
inverso da distribuição qui-quadrada do percentil estudado.
A metodologia de Simulação Histórica Filtrada, utilizando a simulação com movimento
browniano geométrico e volatilidade estocástica modelada por um processo GARCH,
capturou de maneira mais adequada o percentual de exceções de Valor em Risco nos
extremos da distribuição, isto é, nos percentis de 1% e 2%, porém para o percentil de 5%, o
método superestimou o VaR das opções, o que resultou em um pequeno número de
exceções ao longo da série. Como todos os resultados deste trabalho foram conduzidos com
holding period de um dia, estes resultados se apresentaram de acordo com o estudo de
Barone et al (2001), no qual o autor verifica que, para portifólios de opções com curto
holding period, a metodologia apresenta bons resultados nos extremos da distribuição e um
número menor do que o esperado de exceções no percentil de 5%.
As comparações que se seguem neste capítulo passam a fazer referência exclusiva a este
método, Simulação Histórica Filtrada com volatilidade estocástica, por ter apresentado os
resultados mais significativos neste estudo. Os resultados das demais metodologias de
Simulação Histórica Filtrada serão apresentados no Anexo deste trabalho.
Conforme documentado na literatura, verificou-se para a metodologia Delta-Gama uma
subestimação do risco nos extremos da distribuição, porém, esperava-se que a quantidade
de exceções se encontrasse dentro dos limites para o percentil de 5% em todas as opções
77
dos ativos estudados, como no caso da Petrobrás. Tipicidades detalhadas nos gráficos das
Figuras 6 e 7, respectivamente, explicam a não aceitação do teste nestes casos, para as
opções de Globocabo e Telemar.
Conforme pode ser verificado na Figura 6, a distribuição das perdas ocorridas no período
estudado apresentou significativa assimetria negativa. A comparação da metodologia Delta-
Gama com os valores efetivamente realizados implicou em um número exagerado de
exceções de VaR, isto é, número de vezes que o VaR real ou ocorrido foi maior que o VaR
previsto pela metodologia. Estas intensidades de perda, nos valores à esquerda da
distribuição, resultaram de opções muito-fora-do-dinheiro que apresentaram regularmente
movimentos extremos de alteração de 50% ou mais do seu valor, em um único dia, e cujo
preço estava sendo negociado a valores inferiores a R$ 0.12 (doze centavos). Este problema
pôde ser contornado quando se eliminou da amostra opções que apresentavam tais
Figura 6 – Histograma do Valor em Risco para o Total das Opções de Globocabo, Observado no Período de 27/11/00 a 15/04/02.
0
10
20
30
40
50
60
464.286 303.629 223.300 142.972 62.643 0
Valor em Risco (R$)
Nº
de
Ob
se
rvaç
õe
s
78
características, a partir do qual constatou-se a aceitação do teste, no percentil de 5%, para o
ativo Globocabo.
As perdas ocorridas das opções Telemar também apresentaram forte concentração à
esquerda da distribuição, fato este que também provocou um exagerado número de
exceções de VaR, quando comparado com os resultados da metodologia Delta-Gama.
Verificou-se que a eliminação das opções que originaram os movimentos extremos de
perda ocasionou uma aceitação do teste para o percentil de 5%, assim como no caso
anterior.
A metodologia Delta-Gama aplicada com a volatilidade implícita sofreu o mesmo viés da
metodologia da Simulação Histórica Filtrada com volatilidade implícita, isto é, a
Figura 7 – Histograma do Valor em Risco para o Total das Opções de Telemar, Observado no Período de 27/11/00 a 15/04/02.
0
10
20
30
40
50
60
70
460.000 372.523 285.046 197.569 110.092 22.615Valor em Risco (R$)
Nº
de
Ob
se
rvaç
õe
s
79
dificuldade de obtenção de um banco de dados sincronizado para o cálculo das
volatilidades implícitas inviabilizou a aplicação da metodologia. Desta maneira, as
comparações que se seguem neste capítulo passam a se referir exclusivamente à
metodologia Delta-Gama com volatilidade histórica calculada pelo método GARCH, por
ter apresentado os resultados mais significativos neste estudo. Os resultados da
metodologia Delta-Gama com volatilidade implícita serão apresentados no Anexo.
Em relação ao teste de independência, em que se buscava verificar a independência da série
de exceções de VaR, em relação ao estado anterior, exceção ou não exceção de VaR,
verificou-se uma baixa qualidade no resultado das metodologias utilizadas, à exceção da
Simulação Histórica Filtrada com volatilidade implícita, ressaltando-se porém, que apesar
dos bons resultados no critério independência, no teste de proporção de falhas esta
metodologia não atingiu o objetivo a que se propunha.
A seguir, mediu-se a perda diária de cada opção, com a informação disponível ao final de
cada dia de negociação, e comparou-se com o Valor em Risco previsto por cada
metodologia. A contagem de exceções de VaR, do conjunto de opções, foi comparada com
os limites estabelecidos por Kupiec (1995), com valor crítico de 5%, para cada nível de
confiança e detalhada nas Figuras que se seguem, durante toda a maturidade das opções.
80
O gráfico ratifica o baixo desempenho da metodologia, já demonstrado na literatura, para o
nível de confiança de 95%. Ao longo de todo o período, o modelo superestimou o Valor em
Risco das opções, daí a quantidade pequena de exceções. Também se verificou um pior
desempenho do modelo proporcionalmente ao tempo para o vencimento da opção.
A Figura 9, a seguir, apresenta o desempenho da metodologia Delta-Gama. Para o nível de
confiança de 95%, o resultado esperado era a manutenção das opções dentro dos limites de
Kupiec. Porém, a existência de movimentos extremos no comportamento das opções muito-
fora-do-dinheiro, não capturada pela metodologia Delta-Gama, levaram a uma
subestimação do VaR das opções de Telemar e Globocabo.
Figura 8 – Avaliação das Exceções de VaR das Opções de Petrobrás, Telemar e Globocabo, no Período de 27/11/00 a 15/04/02, em Relação aos Limites de Kupiec, pela Metodologia de Simulação Histórica Filtrada, para um Nível de Confiança de 95% e de acordo com o Número de Dias Úteis para o Vencimento das Opções.
0%
2%
4%
6%
8%
10%
42 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12 10 8 6 4 2
Tempo para o Vencimento
Exc
eçõ
es
de
VaR
Globocabo Petrobras Telemar Limites Kupiec
81
Conforme pode ser verificado, as tipicidades verificadas no período levaram a uma
subestimação do risco da opção Telemar e Globocabo. O comportamento da curva das
exceções de Globocabo, todo o período acima de 13%, não se apresentou visível devido à
escala do gráfico, que captura um percentual de exceções de até 10%.
As Figuras 10 e 11, a seguir, apresentam o backtest dos modelos Delta-Gama e Simulação
Histórica Filtrada no nível de confiança de 95%, para a opção de Petrobrás. Os backtests
destes modelos nos níveis de confiança de 98% e 99%, serão apresentados nos Anexos 1 e
2.
Figura 9 – Avaliação das Exceções de VaR das Opções de Petrobrás, Telemar e Globocabo, no Período de 27/11/00 a 15/04/02, em Relação aos Limites de Kupiec, pela Metodologia Delta-Gama, para o Nível de Confiança de 95% e de acordo com o Número de Dias Úteis para o Vencimento das Opções.
0%
2%
4%
6%
8%
10%
42 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12 10 8 6 4 2Tempo para o Vencimento
Ex
ceçõ
es
de
Va
R
Petrobras Telemar Limites Kupiec
82
Os backtests acima evidenciam a diferença de atuação de cada metodologia. De um modo
geral, a Simulação Histórica Filtrada se caracterizou por simular de forma mais qualitativa
e quantitativa as situações de perdas, com base no histórico de perdas anteriores dos ativos
e na volatilidade vigente durante o período de estudo. No caso da metodologia Delta-Gama,
Figura 10 – Backtest do Modelo Delta-Gama para a Opção de Petrobrás, no Nível de Confiança de 95%, durante o Período de 27/11/00 a 15/04/02.
Figura 11 – Backtest do Modelo de Simulação Histórica Filtrada para a Opção de Petrobrás, no Nível de Confiança de 95%, durante o Período de 27/11/00 a 15/04/02.
(1.400.000,00)
(1.000.000,00)
(600.000,00)
(200.000,00)
200.000,00
600.000,00
Data
(1.000.000,00)
(800.000,00)
(600.000,00)
(400.000,00)
(200.000,00)
0,00
200.000,00
400.000,00
600.000,00
800.000,00
Data
83
foi sempre visível um maior número de exceções de VaR, que no nível de confiança de
95% se mostrava dentro ou próximo dos limites percentuais.
Entretanto, se a 95% de confiança a metodologia Delta-Gama tendia a apresentar resultados
dentro dos limites percentuais de exceção de VaR, para níveis de confiança maiores, este
número grande de exceções sempre ultrapassou os limites do teste de proporção de falhas,
enquanto que a metodologia de Simulação Histórica Filtrada apresentava resultados
compatíveis com o nível de confiança desejado. As Figuras 12 e 13, abaixo, destacam os
resultados para o nível de confiança de 98%.
Figura 12 – Avaliação das Exceções de VaR das Opções de Petrobrás, Telemar e Globocabo, no Período de 27/11/00 a 15/04/02, em Relação aos Limites de Kupiec, pela Metodologia Simulação Histórica Filtrada, para o Nível de Confiança de 98% e de acordo com o Número de Dias Úteis para o Vencimento das Opções.
0%
1%
2%
3%
4%
5%
42 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12 10 8 6 4 2
Tempo para o Vencimento
Exc
eçõ
es
de
VaR
Globocabo Petrobras Telemar Limites Kupiec
84
Pode ser verificado, que as opções da Petrobrás passam todo o tempo dentro dos limites
estabelecidos, bem como as da Telemar, a partir do vigésimo primeiro dia útil para o
vencimento. As opções Globocabo pelos motivos expostos anteriormente, e por ter
apresentado movimentos extremos em uma série de opções cujos valores variaram entre R$
0.01 (um centavo) e R$ 0.02 (dois centavos), tiveram seus limites controlados pelo modelo
apenas a partir do décimo quinto dia útil para o vencimento.
Tal característica, não é verificada na metodologia Delta-Gama neste nível de confiança.
Conforme já caracterizado em trabalhos acadêmicos, há uma subestimação do Valor em
Risco das opções que está detalhado na Figura 13. A opção Globocabo não aparece devido
ao percentual de exceções do período estar acima da escala do gráfico.
Figura 13 – Avaliação das Exceções de VaR das Opções de Petrobrás, Telemar e Globocabo, no Período de 27/11/00 a 15/04/02, em Relação aos Limites de Kupiec, pela Metodologia Delta-Gama, para o Nível de Confiança de 98% e de acordo com o Número de Dias Úteis para o Vencimento das Opções.
0%
2%
4%
6%
8%
10%
42 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12 10 8 6 4 2Tempo para o Vencimento
Ex
ce
çõ
es
de
Va
R
Petrobras Telemar Limites Kupiec
85
A Figura 14, a seguir, demonstra o comportamento das três opções estudadas, no nível de
confiança de 99%, para a metodologia da Simulação Histórica Filtrada. Apesar de, até o
trigésimo dia útil para o vencimento não haver um número de opções suficiente para a
determinação dos limites de Kupiec, por isso não constar as linhas de caracterização dos
limites no gráfico, verifica-se que, a partir do vigésimo nono dia útil para o vencimento até
o vencimento de todas as opções estudadas dos três ativos, o número de exceções de Valor
em Risco sempre se manteve dentro dos limites calculados pelo teste de proporção de
falhas.
Para a metodologia Delta-Gama, no nível de confiança de 99%, mais uma vez verificou-se
a tendência à subestimação do risco das opções. Neste nível de confiança, a metodologia
Figura 14 – Avaliação das Exceções de VaR das Opções de Petrobrás, Telemar e Globocabo, no Período de 27/11/00 a 15/04/02, em Relação aos Limites de Kupiec, pela Metodologia Simulação Histórica Filtrada, para o Nível de Confiança de 99% e de acordo com o Número de Dias Úteis para o Vencimento das Opções.
0%
1%
2%
3%
4%
5%
42 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12 10 8 6 4 2
Tempo para o Vencimento
Ex
ce
çõ
es
de
Va
R
Globocabo Petrobras Telemar Limites Kupiec
86
subestimou de maneira mais acentuada do que para os níveis de confiança anteriores
levando-se em conta a maturidade, isto é, com vinte e um dias úteis para o vencimento das
opções da Petrobrás e vinte e oito dias para as opções da Telemar, o modelo já não
capturava o número de exceções dentro dos limites traçados. A Figura 15, a seguir, detalha
o comportamento da metodologia de acordo com o tempo para o vencimento. Mais uma
vez as opções Globocabo não aparecem, por apresentarem quantitativo de exceções acima
de 10%.
A fim de verificar se os bons resultados da metodologia Simulação Histórica Filtrada, nos
extremos da distribuição, poderiam ser consistentes para qualquer composição de carteira
Figura 15 – Avaliação das Exceções de VaR das Opções de Petrobrás, Telemar e Globocabo, no Período de 27/11/00 a 15/04/02, em Relação aos Limites de Kupiec, pela Metodologia Delta-Gama, para o Nível de Confiança de 99% e de acordo com o Número de Dias Úteis para o Vencimento das Opções.
0%
2%
4%
6%
8%
10%
42 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12 10 8 6 4 2
Tempo para o Vencimento
Ex
ceçõ
es
de
Va
R
Petrobras Telemar Limites Kupiec
87
de opções, procedeu-se a análises de diferentes carteiras de opções isoladas para cada ativo-
objeto. Para tal, compôs-se novas carteiras com uma e somente uma opção do mesmo ativo-
objeto, em cada vencimento, escolhida aleatoriamente, ao invés de se considerar todo o
conjunto de opções.
Pela quantidade de opções de cada ativo-objeto em cada vencimento, apresentados na
Tabela 3 do capítulo da Metodologia, verificou-se a possibilidade de se compor 103.680
(cento e três mil, seiscentos e oitenta) carteiras de opção de cada ativo-objeto, que é o
produto da quantidade de opções em cada período de vencimento. Cada carteira
apresentava composição média de 250 opções.
Para se verificar as proporções de sucessos, isto é, a quantidade relativa de carteiras cujas
exceções, ao nível de confiança determinado, situavam-se dentro dos limites de Kupiec
(1995), extraiu-se da população uma amostra de tamanho 3.000, com reposição. Utilizou-se
10 corridas e a seguir, calculou-se os intervalos de confiança17, a um nível de confiança de
99%, da média percentual das aceitações dos modelos. A Tabela 5 apresenta os resultados
para as metodologias Delta-Gama e Simulação Histórica Filtrada.
17 com base em uma distribuição binomial. Ver McClave et al (1998).
Tabela 5 – Intervalo de Confiança da Percentagem do Total de Carteiras, dos Ativos-Objeto Petrobrás, Telemar e Globocabo, situada dentro dos Limites de Kupiec, com Valor Crítico de 5%, segundo a Metodologia e os Níveis de Confiança especificados.
95% 69,14% - 73,34% 76,24% - 80,08% 49,00% - 53,64%98% 94,65% - 96,55% 99,85% - 100,00% 77,69% - 81,43%99% 82,97% - 86,31% 90,83% - 93,33% 72,99% - 77,01%95% 68,20% - 72,44% 0,00% - 0,00% 0,00% - 0,00%98% 56,19% - 60,77% 0,00% - 0,00% 0,00% - 0,00%99% 27,56% - 31,80% 0,00% - 0,00% 0,00% - 0,00%
Telemar GlobocaboNível de
ConfiançaPetrobrásMetodologia
Simulação Histórica Filtrada
Delta-Gama
88
Os resultados da metodologia Simulação Histórica Filtrada apresentados na Tabela 5
ratificam os bons resultados inicialmente sugeridos pela Tabela 4. A alta percentagem de
carteiras não rejeitadas, ressaltada pelos intervalos de confiança dos níveis de confiança de
98% e 99%, destaca a capacidade do modelo na previsão do risco das opções dentro dos
limites do teste de proporção de falhas, com valor crítico de 5%, independente do tempo
para o vencimento e da situação de proximidade do dinheiro das opções que compõem a
carteira.
O método Delta-Gama, por sua vez, apresentou as mais altas percentagens de aceitação no
intervalo de confiança do percentil de 95%, para as opções de Petrobrás. Para o percentil de
99%, o intervalo de confiança da percentagem do total das carteiras de Petrobrás que
obtiveram aceitação no teste de proporção de falhas foi consideravelmente baixo - de
27.5% a 31.8%, ressaltando as impropriedades do método nesta situação.
4.2 – Resultado das Metodologias para os Portifólios de Opções
A Tabela 6 apresenta a descrição dos resultados do backtest referente a todo o período de
estudo, pelo método de Christoffersen (1996), para cada portifólio estudado neste trabalho e
de acordo com cada metodologia empregada para avaliação do Valor em Risco. Os
portifólios foram formados com uma mesma participação financeira para cada opção, em
todos os dias de negociação.
89
Na comparação apresentada, todas as metodologias apresentaram um fraco desempenho na
mensuração da quantidade de exceções para os portifólios de opções, em relação ao
percentil avaliado. Apesar deste resultado ser o esperado para as metodologias Delta-Gama,
notadamente nos extremos de distribuição, este resultado vai contra o que se propunha o
método de Simulação Histórica Filtrada, que busca capturar o risco do conjunto de ativos-
objeto através do co-movimento dos resíduos de retorno padronizados. A boa performance
Números com asterístico representam valores não rejeitados pelo Teste de Christoffersen (1996). Valores em branco se referem a séries no qual não houve uma seqüência de duas exceções consecutivas de
VaR. Neste caso, o Teste de Christoffersen (1996) atribui valor Indeterminado a série.
Tabela 6 – Comparação das Metodologias de Avaliação do Valor em Risco para os Portifólios Compostos por Todas as Opções dos Ativos-Objeto Petrobrás, Telemar e Globocabo, no período de 27/11/00 a 15/04/02, através do Teste de Não-Condicionalidade (TNC) e do Teste de Independência (TI), para Diferentes Formas de Cálculo da Volatilidade.
Metodologia
Volatilidade TNC TI TNC TI TNC TI TNC TI
95% 21,19 9,24 45,40 27,70 6,07 30,16 20,25
98% 9,07 17,10 11,31 13,95
99% 10,40 10,40 10,40
95% 0,05* 24,95 4,90 20,61 88,25 71,54 0,77* 17,94
98% 17,50 29,86 30,05 14,00 197,83 62,13 19,13 19,17
99% 48,35 31,22 63,81 12,69 284,47 66,22 42,57 18,62
95% 104,00 8,33 120,71 6,77 159,56 29,19 146,16 12,87
98% 154,07 10,84 190,30 10,03 220,98 21,85 194,05 12,69
99% 70,37 18,60 117,56 2,87* 154,20 6,81 80,58 4,29*
95% 242,15 6,08 154,16 4,34 184,74 1,24* 187,62 1,56*
98% 290,72 -0,16* 224,92 -0,34* 236,85 0,92* 244,92 0,24*
99% 211,89 -1,25* 189,08 -1,18* 154,18 6,17* 154,18 6,17*
95% 1,03* 42,34 12,14 31,74 101,69 64,55 4,26* 27,58
98% 24,33 23,16 54,51 16,75 201,64 68,81 32,03 14,53
99% 57,43 16,05 84,06 2,94* 289,51 64,37 51,30 5,48*
Petrobras e Telemar Telemar e Globocabo 3 opções Petrobras e Globocabo
SHF Estocástica -
GARCH
Nível de Confiança
Delta-Gama Implícita
SHF Histórica - GARCH
SHF Implícita
Delta-Gama Histórica - GARCH
90
individual verificada no Valor em Risco das opções nos extremos da distribuição,
demonstrado anteriormente na Tabela 4, é outro ponto que torna este resultado inesperado.
Procedeu-se então, a uma investigação do comportamento da correlação dos retornos e dos
resíduos de retorno padronizados. Na Figura 16, a seguir, é possível verificar a abrupta
mudança no comportamento da correlação dos resíduos de retorno padronizados, entre o
período de formação do banco de dados e da aplicação da metodologia. Os valores
verificados para a evolução do retorno dos três ativos-objeto não foram significativamente
diferentes dos encontrados no gráfico abaixo. Pritsker (2001) afirmou que a suposição de
correlação condicional constante dos ativos tem grande probabilidade de ser violada na
prática e verifica em seu trabalho a necessidade de modelar a variação da correlação com o
tempo, quando da aplicação da metodologia de Simulação Histórica Filtrada. Em seu
trabalho, o autor constatou que a técnica do bootstrap, aplicada em períodos de tempo
diferentes, trouxe correlações diferentes das do momento em que se queria prever, o que
alterou significativamente o comportamento do portifólio em relação às opções isoladas.
-0,10
0,10,20,30,40,50,60,70,8
1998 1999 2000 2001 2002
Ano
Co
rre
laçã
o
Petrobras e Telemar Petrobras e Globocabo Telemar e Globocabo
Figura 16 – Evolução da Correlação Linear pelo Método de Pearson dos Resíduos de Retorno Padronizados dos Ativos-Objeto Petrobrás, Telemar e Globocabo, no período de 21/09/98 a 10/05/02.
91
Pelo gráfico acima, é visível a mudança do comportamento da correlação dos três ativos-
objeto, entre o período de formação do banco de dados dos resíduos de retorno
padronizados, 1998 e 1999, até o período de aplicação do teste da metodologia, 2000. Neste
período, a correlação entre Petrobrás e Telemar variou de 0.47 para 0.39, a correlação entre
Petrobrás e Globocabo variou de 0.06 para 0.26 e entre Telemar e Globocabo variou de
0.13 para 0.45, no entanto, a partir de 2000, verificou-se uma estabilização no
comportamento da correlação.
Esta variação acentuada da correlação, em um curto período de tempo, pode ter contribuído
para inviabilizar os resultados na aplicação da metodologia para os portifólios,
principalmente por se confrontar com as propriedades de co-movimento dos ativos-objeto.
A fim de testar a validade da idéia do co-movimento, este trabalho optou por gerar resíduos
de retorno padronizados através da fatoração de Cholesky, mantendo-se a correlação entre
cada par de ativos-objeto igual ao valor imediatamente anterior ao período de aplicação da
metodologia. Desta forma, no primeiro dia de negociação da opção, constante da carteira,
gerava-se 539 resíduos de retorno padronizados, que substituíram os resíduos de retorno
padronizados previamente calculados pela metodologia original. Estes novos resíduos eram
utilizados na simulação a fim de gerar o valor da opção no vencimento. Caso a idéia do co-
movimento fosse válida, os bons resultados verificados para o VaR, nos níveis de confiança
de 98% e 99% e para cada opção individualmente, seriam traduzidos em um bom resultado
para o VaR dos portifólios, formados pelas referidas opções.
92
A Tabela 7, abaixo, mostra os resultados da metodologia que utilizou os resíduos de retorno
padronizados gerados através da fatoração de Cholesky.
Verifica-se na Tabela acima, a aceitação do teste de não-condicionalidade no nível de
confiança de 99% para todos os portifólios. Esta aceitação era esperada, devido à
ocorrência deste mesmo resultado no caso das opções isoladas, conforme explicitado na
Tabela 4. É notável então, que a brusca mudança da correlação, entre os retornos dos
ativos-objeto, do período de formação do banco de dados para o período de aplicação da
metodologia, possa ter causado um descompasso quando se considera os portifólios
compostos pelas referidas opções.
Contudo, os resultados não se apresentaram satisfatórios no nível de confiança de 98%,
apesar das opções individualmente terem apresentado aceitação do teste. Isto sugere que a
simples implementação de um processo que reproduza o co-movimento ou a correlação dos
ativos estudados, no período anterior à aplicação da metodologia da Simulação Histórica
Tabela 7 – Avaliação da Metodologia de Simulação Histórica Filtrada, com Resíduos Padronizados Simulados pela Fatoração de Cholesky, para cálculo do Valor em Risco dos Portifólios Compostos pelas Opções dos Ativos-Objeto Petrobrás, Telemar e Globocabo, no período de 27/11/00 a 15/04/02, segundo o Teste de Não-Condicionalidade (TNC) e o Teste de Independência (TI).
Metodologia
Volatilidade TNC TI TNC TI TNC TI TNC TI
95% 32,80 2,28* 41,90 3,50* 32,80 7,43 49,19
98% 13,95 13,95 7,18 4,04* 17,10
99% 4,5* 4,50* 2,76* 4,50*
Petrobras e Globocabo Telemar e Globocabo 3 opções
SHF Estocástica -
GARCH
Nível de Confiança
Petrobras e Telemar
93
Filtrada, não seja suficiente para que esta possa ser estendida para portifólios de opções no
Brasil.
As Figuras 3, 4 e 5, do capítulo da Metodologia, descreveram as principais propriedades
dos resíduos de retorno padronizados, como a normalidade da distribuição, a média dos
valores próxima de zero e o desvio-padrão dos resíduos próximo de um e ainda, a
existência de valores extremos, positivos e negativos, ao longo de toda a série. Dessa
forma, o método a ser escolhido deveria preservar as propriedades dos resíduos de retorno
padronizados e ao mesmo tempo modelar as correlações, de maneira a não invalidar o co-
movimento, como as estruturas de modelos GARCH multivariados.
Os modelos GARCH multivariados foram desenvolvidos para medir e prever a matriz de
variância-covariância de um conjunto de ativos com base em dados históricos. Podem ser
caracterizados como extensões dos modelos GARCH univariados e incorporam os
fenômenos de cluster de volatilidade e assimetria das inovações da matriz de covariâncias.
A fim de demonstrar o potencial de implementação de um modelo GARCH multivariado,
considere Yt o processo estocástico da matriz de variância-covariância e B uma matriz de
variância-covariância, composta por fatores condicionados pelo processo GARCH.
Yt = B + t (34)
Onde: t é uma matriz que representa as inovações do processo estocástico.
94
Conhecendo Yt, que é a variância-covariância verificada no período estudado e B, que é a
matriz modelada por GARCH, estima-se t. Desta forma, a metodologia de Simulação
Histórica Filtrada poderia ser implementada considerando os resíduos dos retornos
correlacionados e padronizados pelas variáveis da matriz t , bem como pela volatilidade e
correlação modeladas pelo processo GARCH.
Apesar de não ser um processo de difícil implementação, prejudica, em parte, a rapidez da
metodologia da Simulação Histórica Filtrada, que se destacava pela eficiência da idéia do
co-movimento que não exigia o cálculo da matriz de variância-covariância.
Artzner et al (1999) documentam a não subaditividade do VaR como uma explicação para o
problema de avaliação do risco de portifólios. Esta propriedade determina a possibilidade
de que um portifólio detenha um risco maior do que o resultante do somatório das posições
individuais. Para um portifólio de opções esta propriedade é ressaltada pelo comportamento
de não-monotoniciedade, isto é, as variações no valor do portifólio não são proporcionais às
flutuações nos preços dos ativos-objeto e das opções isoladamente.
Por fim, visando ratificar os resultados encontrados na Tabela 6, adotou-se procedimento
semelhante aos das opções isoladas, através da formação de novos portifólios compostos
por uma e somente uma opção de cada ativo-objeto, em cada vencimento, de maneira que
novos portifólios, combinados aleatoriamente, pudessem ter os seus resultados comparados
com o portifólio constituído por todas as opções de cada ativo-objeto. A Tabela 8 apresenta
o resultado de cada metodologia para os diferentes portifólio formados.
95
Os valores representam os intervalos de confiança, a um nível de confiança de 99%, da
média das percentagens de aceitações dos modelos no total de corridas, isto é, os intervalos
da quantidade relativa de portifólios, cujas exceções, a um determinado nível de confiança,
situaram-se dentro dos limites de Kupiec (1995), obtidos através de 10 corridas de extração
de amostras de tamanho 3.000, com reposição.
Os resultados da Tabela 8 ratificam o desempenho ruim da metodologia Simulação
Histórica Filtrada para os portifólios estudados, devido sobretudo à variação da correlação
no período. Em relação à metodologia Delta-Gama, verifica-se uma tendência de resultados
melhores a 95% de confiança.
Por ter sido verificado, pelas Figuras 12 e 14, que a metodologia da Simulação Histórica
Filtrada responde melhor a situações próximas do vencimento, analisou-se, também, a
proximidade do dinheiro das opções com maior tempo para o vencimento. Verificou-se
que, das opções com vencimento maior que 30 dias úteis, 75% estavam classificadas como
fora-do-dinheiro e no-dinheiro. Nestas situações de moneyness, o modelo superestimou as
Tabela 8 – Intervalo de Confiança da Percentagem do Total de Portifólios situada dentro dos Limites de Kupiec, com Valor Crítico de 5%, segundo a Metodologia e os Níveis de Confiança especificados.
95% 3,16% - 5,00% 0,00% - 0,13% 32,00% - 36,40% 36,66% - 41,18%98% 68,32% - 72,56% 63,27% - 67,69% 73,65% - 77,63% 66,32% - 70,64%99% 11,10% - 14,18% 0,00% - 0,00% 47,00% - 51,64% 47,64% - 52,28%95% 75,25% - 79,15% 69,51% - 73,69% 0,00% - 0,00% 72,13% - 76,19%98% 45,76% - 50,40% 36,86% - 41,38% 0,00% - 0,00% 40,98% - 45,58%99% 9,36% - 12,24% 13,15% - 16,45% 0,00% - 0,00% 24,75% - 28,85%
Petrobrás e Telemar
Petrobrás e Globocabo
Telemar e Globocabo
3 opções
Simulação Histórica Filtrada
Delta-Gama
MetodologiaNível de
Confiança
96
perdas das opções. Os tópicos, a seguir, detalham os resultados em relação ao moneyness e
tempo para o vencimento, de acordo com os limites de perda.
4.3 – Resultado das Metodologias segundo a proximidade do dinheiro
para as Opções Isoladas
A Tabela 9, a seguir, apresenta o resultado comparativo do teste de Lopez (1999) para as
metodologias Simulação Histórica Filtrada e Delta-Gama para cada moneyness ou
“proximidade do dinheiro” das opções estudadas. A nomenclatura “AT” se refere a opções
no-dinheiro, “IN” para opções dentro-do-dinheiro e “OUT” para as opções fora-do-
dinheiro. Devido à amostragem pequena de cada moneyness e a conseqüente possibilidade
de um viés caso se aplicasse o teste de proporção de falhas, o teste de Lopez (1999) foi o
mais adequado para esta análise. O teste permitiu também, a possibilidade de se avaliar a
escala de perdas proporcionada por cada modelo. Os resultados verificados nos demais
modelos serão apresentados no Anexo 3.
Tabela 9 – Avaliação da Escala de Erros pelo Teste de Lopez, para as Opções de Petrobrás, Telemar e Globocabo, no período de 27/11/00 a 15/04/02, segundo a classificação no-dinheiro (AT), dentro-do-dinheiro (IN) e fora-do-dinheiro (OUT).
95% 98% 99% 95% 98% 99%308 AT 0,00 0,00 0,00 5,39 2,26 2,19301 IN 26,35 14,20 10,15 0,00 0,00 0,00220 OUT 0,00 0,00 0,00 47,95 37,54 34,34279 AT 0,00 0,00 0,00 7,21 4,06 2,02292 IN 29,90 16,28 6,02 0,00 0,00 0,00258 OUT 0,00 0,00 0,00 88,29 78,44 74,97133 AT 0,00 0,00 0,00 70,36 70,05 68,85282 IN 20,57 12,23 6,11 106,98 91,61 87,40414 OUT 0,00 0,00 0,00 130,39 129,98 129,71
Simulação Histórica Filtrada Delta-Gama
Globocabo
MoneynessQuantidadeOpção
Petrobrás
Telemar
97
Pela Tabela acima, podem ser verificados erros em grande escala para a metodologia Delta-
Gama, quando as opções estão fora-do-dinheiro. Esta constatação já havia sido confirmada
na literatura por Zangari (1996, B) e por Fallon (1996), que alertaram para os desempenhos
insatisfatórios produzidos pela metodologia neste caso. Para as opções dentro-do-dinheiro,
exceto Globocabo, que apresentou peculiaridades no período já explicadas anteriormente, o
modelo não conseguiu capturar falhas de VaR.
Zangari (1996, B) aponta outra grave distorção do modelo Delta-Gama no caso de opções
no-dinheiro com curta maturidade. A Tabela 10 explicita os erros do teste de Lopez (1999)
dividido pela quantidade de opções em cada maturidade/moneyness, com o objetivo de
gerar um índice de comparação entre os diversos casos, no nível de confiança de 95%.
Pela Tabela acima, é explícito o viés das opções no-dinheiro no período de curtíssima
maturidade, 0 a 5 dias úteis, apontado por Zangari (1996, B). Isto ocorre, devido a
variabilidade do Delta quando a opção está no-dinheiro e a grande variabilidade do Gama
Tabela 10 - Escala de Erros da Metodologia Delta-Gama pelo Teste de Lopez, no Nível de Confiança de 95%, para as Opções de Petrobrás, Telemar e Globocabo, no período de 27/11/00 a 15/04/02, segundo a Classificação no-dinheiro (AT), dentro-do-dinheiro (IN) e fora-do-dinheiro (OUT).
0 - 5 5 - 20 20 - 40 >40AT 0,39 0,03 0,01 0,00IN 0,00 0,00 0,00 0,00
OUT 0,88 0,42 0,18 0,00AT 0,53 0,07 0,03 0,00IN 0,00 0,00 0,00 0,00
OUT 0,00 0,58 0,33 0,00AT 1,37 0,58 0,50 0,49IN 0,48 0,39 0,36 0,40
OUT 0,00 0,17 0,35 0,39
Petrobrás
Telemar
Globocabo
Opção Tempo para o Vencimento (dias)Moneyness
98
quando o vencimento da opção está muito próximo. A escala de erro, demonstrada na
Tabela, fornece uma idéia do quanto problemática é a metodologia nesta situação. Wilson
(1998) destaca que a única forma de diminuir as distorções da metodologia verificada na
situação acima e no caso das opções fora-do-dinheiro é através de procedimentos de
simulação.
A metodologia Simulação Histórica Filtrada superestimou as perdas das opções no-dinheiro
e fora-do-dinheiro de maneira que, não se verificou exceções de VaR para estas opções. Em
relação à distribuição dos erros de acordo com o tempo para o vencimento, a Tabela 11, a
seguir, apresenta os resultados do teste de Lopez (1999) dividido pela quantidade de opções
em cada maturidade/moneyness, para os níveis de confiança de 98% e 99%.
Ao contrário do que foi verificado na Tabela anterior, que apresentava os resultados da
metodologia Delta-Gama, não se verifica neste caso distorções ou escalas concentradas de
erros relacionadas ao tempo para o vencimento, o que sugere que o modelo conseguiu
capturar as falhas de VaR de maneira igualmente distribuída ao longo do período.
98% 99% 98% 99% 98% 99% 98% 99%AT 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00IN 0,00 0,00 0,05 0,03 0,05 0,03 0,04 0,04
OUT 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00AT 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00IN 0,00 0,00 0,09 0,02 0,06 0,03 0,00 0,00
OUT 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00AT 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00IN 0,09 0,00 0,12 0,06 0,02 0,01 0,00 0,00
OUT 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,00
>40Opção MoneynessTempo para o Vencimento (dias)
0 - 5 5 - 20 20 - 40
Petrobrás
Telemar
Globocabo
Tabela 11 - Escala de Erros da Metodologia Simulação Histórica Filtrada pelo Teste de Lopez, nos Níveis de Confiança de 98% e 99%, para as Opções de Petrobrás, Telemar e Globocabo, no período de 27/11/00 a 15/04/02, segundo a Classificação no-dinheiro (AT), dentro-do-dinheiro (IN) e fora-do-dinheiro (OUT).
99
A escala de erros da Simulação Histórica Filtrada foi sensivelmente menor ao longo de todo
o período, porém, não se apresentou bem distribuída de acordo com a proximidade do
dinheiro.
Esta característica torna transparente a necessidade de uma avaliação inicial das opções, em
termos de tempo para o vencimento, moneyness e nível de confiança, a fim de que seja
determinado o método adequado para o cálculo do Valor em Risco.
4.4 – Resultado das Metodologias segundo a proximidade do dinheiro
para os Portifólios
A Tabela 12, a seguir, apresenta o resultado comparativo do teste de Lopez (1999), para as
metodologias Simulação Histórica Filtrada e Delta-Gama, e para cada moneyness.
95% 98% 99% 95% 98% 99%155 AT 0,00 0,00 0,00 0,00 0,00 0,00181 IN 16,78 6,23 1,00 0,00 0,00 0,00140 OUT 0,00 0,00 0,00 55,11 33,23 27,0853 AT 0,00 0,00 0,00 3,20 3,15 3,08
171 IN 7,20 3,00 0,00 0,00 0,00 0,00174 OUT 0,00 0,00 0,00 48,15 36,42 34,4669 AT 0,00 0,00 0,00 7,59 3,18 3,18
190 IN 14,04 5,43 1,03 4,21 2,63 2,81218 OUT 0,00 0,00 0,00 16,95 13,79 13,0045 AT 0,00 0,00 0,00 2,82 1,04 1,17
124 IN 13,36 4,33 1,00 0,00 0,00 0,00127 OUT 0,00 0,00 0,00 56,14 31,93 30,62
Delta-Gama
Petrobrás e Globocabo
Petrobrás e Telemar
Portifólio Quantidade MoneynessSimulação Histórica Filtrada
Telemar e Globocabo
Petrobrás, Telemar e Globocabo
Tabela 12 – Avaliação da Escala de Erros do Teste de Lopez, segundo cada Metodologia, para os Portifólios estudados, no período de 27/11/00 a 15/04/02, pela Classificação no-dinheiro (AT), dentro-do-dinheiro (IN) e fora-do-dinheiro (OUT).
100
Verifica-se que, enquanto a metodologia Simulação Histórica Filtrada só captura as
exceções de VaR para as opções dentro-do-dinheiro, a Delta-Gama caracteriza-se por
capturar as exceções de VaR essencialmente para as opções no-dinheiro e fora-do-dinheiro
e por penalizar a escala de erro das opções fora-do-dinheiro, tal qual no caso das opções
isoladas.
De um modo geral, o comportamento do portifólio foi bem similar ao das opções isoladas,
isto é, a Delta-Gama apresentando resultados satisfatórios para o nível de confiança de 95%
e a Simulação Histórica Filtrada para os níveis de confiança de 98% e 99%.
Os resultados verificados, para os portifólios, para as demais metodologias de avaliação do
Valor em Risco serão apresentados no Anexo 4.
Assim como no caso das opções isoladas, verifica-se que os erros nos portifólios acontecem
em menor escala na metodologia Simulação Histórica Filtrada, apesar de pior distribuído
em termos de moneyness. Por fim, os resultados verificados no estudo dos portifólios
reiteram a necessidade de uma avaliação inicial da evolução da correlação dos ativos que
compõem a carteira, bem como dos elementos-chave citados para as opções isoladas, como
o tempo para o vencimento, o moneyness e o nível de confiança, antes da aplicação da
metodologia de avaliação do Valor em Risco.
101
Cap.5: Conclusões e Considerações Finais
O objetivo deste estudo foi avaliar a metodologia de Simulação Histórica Filtrada no
cálculo do Valor em Risco de um portifólio de opções. Através deste estudo, foi possível
destacar “detalhes” dos modelos de cálculo de risco de opções, a fim de se avaliar como o
movimento de preços impacta os resultados destes modelos. Nesse sentido, a adoção da
distribuição normal, como aproximação para a distribuição dos retornos dos ativos, se
mostra como um ponto sensível a críticas.
A carteira de estudo foi composta pelas três opções mais líquidas de 2000 e 2001,
combinadas de maneira a compor vários portifólios. Devido à necessidade de
reconhecimento da volatilidade do ativo-objeto para a precificação da opção, foram feitos
ajustes na metodologia de Simulação Histórica Filtrada, de maneira que pudessem ser
obtidos resultados com diferentes volatilidades. Os resultados foram comparados com a
metodologia Delta-Gama, com volatilidades histórica e implícita, levando em consideração
diferentes níveis de confiança, tempo para o vencimento e proximidade do dinheiro. As
metodologias de avaliação foram o teste binomial de Kupiec (1995), o teste de
Christoffersen (1998) e o teste de avaliação de previsão de Lopez (1999).
A utilização de algumas das técnicas da metodologia de Simulação Histórica Filtrada, como
o resíduo de retorno padronizado, o co-movimento e o bootstrap de resíduos, sugere
tratamentos interessantes para a solução de problemas rotineiros no campo da finanças, a
102
saber: a não normalidade dos retornos, o cálculo da matriz de variância-covariância e a
aplicação de testes de stress.
Os resultados obtidos para as opções isoladas mostraram que, no nível de confiança de
95%, a metodologia Delta-Gama respondeu melhor aos testes de proporção de falhas e que,
nos níveis de confiança de 98% e 99%, destacou-se a metodologia de Simulação Histórica
Filtrada. Em relação ao tempo para vencimento e a proximidade do dinheiro, grande erros
foram verificados na metodologia Delta-Gama para as opções no-dinheiro com curtíssima
maturidade e grandes erros para as opções fora-do-dinheiro, durante todo o período para
vencimento das opções.
A metodologia Simulação Histórica Filtrada apresentou uma distribuição melhor da
magnitude dos erros, bem como valores de erros quantitativamente menores ao longo de
todo o período. Porém, em relação à proximidade do dinheiro, as exceções de VaR foram
verificadas somente no caso das opções dentro-do-dinheiro.
O procedimento de backtest, conduzido de acordo com os limites do teste de proporção de
falhas de Kupiec (1995), ratificou as propriedades do método Simulação Histórica Filtrada
nos extremos da distribuição, ou seja, para os níveis de confiança de 98% e 99%.
Os resultados obtidos para os portifólios não se mostraram de acordo com o esperado. A
grande mudança no comportamento da correlação dos ativos-objeto das opções que
compunham os portifólios formados neste trabalho explica, em parte, o problema. Quando
se conduziu uma fatoração de Cholesky, para que os resíduos utilizados na simulação
103
reproduzissem a correlação do período anterior em que se desejava estimar o Valor em
Risco, os resultados apresentaram-se aceitáveis para o extremo das distribuições. Porém, as
propriedades do resíduo de retorno padronizado não puderam ser replicadas através desta
simples fatoração. Neste caso a utilização de processos que modelassem as correlações,
como as estruturas de modelos GARCH multivariados, poderiam ser aplicadas de maneira a
contornar o problema da abrupta alteração da correlação entre os ativos, verificada no
período de formação do banco de dados.
Na análise da magnitude dos erros dos portifólios, verificou-se que o método Simulação
Histórica Filtrada apresentou valores significantemente menores e sem o viés de
concentração destes erros em casos específicos de maturidade/proximidade do dinheiro.
Por fim, os problemas apresentados pelos modelos no teste de proporção de falhas e no
teste de magnitude de erros das opções, por proximidade do dinheiro, sugerem a
necessidade de uma avaliação inicial das opções, em termos de tempo para o vencimento,
proximidade do dinheiro e nível de confiança, antes da determinação da metodologia mais
adequada para o cálculo do Valor em Risco.
A utilização de diversas técnicas de cálculo da volatilidade neste trabalho, também sugere
o impacto que este procedimento pode causar na estimativa de risco. Daí a necessidade da
manutenção de maneiras distintas e simultâneas de cálculo da volatilidade a fim de compor
diferentes cenários de simulação.
104
Apesar de não ser quantificável, ainda, a importância do cálculo do Valor em Risco para
um portifólio de opções, aqui no Brasil, sobretudo devido ao baixo volume de
encarteiramento destes instrumentos, o estudo visa prestar contribuições para necessidades
futuras e para a atual metodologia de cálculos individuais de risco de opções.
Neste sentido, como sugestão de trabalhos complementares nesta área, revela-se a
necessidade da utilização de estruturas de modelos GARCH multivariados no processo de
avaliação do risco de portifólios de opções, de maneira que se controle o impacto da
variação da correlação dos componentes do portifólio e o estudo do comportamento da
correlação para um portifólio de ativos não-lineares, levando em conta as características de
não subaditividade do VaR e da não monotoniciedade de um portifólio de opções.
Como comentário final, não foi observado neste estudo a existência de um trade-off entre
acurácia e tempo computacional. Pode-se dizer que, a precisão obtida pela utilização da
técnica de simulação em nenhum momento deixou margem a dúvidas sobre custo
computacional demandado. Tanto para necessidades de supervisão bancária quanto para
decisões de back office, o tempo computacional demandado no cálculo de cenários, a fim
de se considerar as distintas situações de Valor em Risco, não se mostrou significante
perante a importância das informações geradas.
105
Referências Bibliográficas AKAIKE, H. Statistical Predictor Identification, Ann. Inst. Stat. Math., vol. 22, pp. 203–217, 1970. ARAÚJO, G.; BARBEDO; C. Estudo Comparativo do Valor em Risco Calculado pelo Modelo de Simulação Histórica Filtrada no Mercado Brasileiro, 2001. Não publicado. ARTZNER, P. et al. Coherent Measures of Risk, Mathematical Finance, vol. 9, nº 3, pp. 203-228, 1999. BARONE-ADESI, G.; BOURGOIN, F; GIANNOPOULOS, K. Don’t Look Back, Risk, Agosto 1998. BARONE-ADESI, G.; GIANNOPOULOS, K.; VOSPER, L. VaR without Correlations for Nonlinear Portfolios, Journal of Futures Markets, 19 (April), 583 – 602,1999. ______________; ____________; _________. Backtesting Derivative Portfolios with Filtering Historical Simulation, Journal of European Financial Management, 2001. ______________; _____________. Non-parametric VaR Techniques. Myths and Realities, Journal of Economic Notes, 2001. BASLE COMMITTEE ON BANKING SUPERVISION (1995): An Internal Model Based Approach to Market Risk Capital Requirements. Basle Committee on Banking Supervision, Basle, (April). BASLE COMMITTEE ON BANKING SUPERVISION (1996a): Amendment to the Capital Accord to Incorporate Market Risks. Basle Committee on Banking Supervision, Basle, (January). BASLE COMMITTEE ON BANKING SUPERVISION (1996b): Supervisory Framework for the Use of Backtesting in Conjunction with the Internal Models Approach to Market Risk Capital Requirements. Basle Committee on Banking Supervision, Basle, (January). BERARDI, A.; TEBALDI, C.; TERAZZAN, O. Modern approaches to Value at Risk: Filtered Historical Simulation. University of Verona, Working Paper, 2001. BLACK, F.; SCHOLES, M. The Pricing of Options and Corporate Liabilities, Journal of Political Economy, 81 (3): 637-59, May 1973. BOUDOUKH, J.; RICHARDSON, M.; WHITELAW, R. The Best of Both Worlds, Risk 11 (May), 64-67,1998.
106
BOLLERSLEV, T.Generalised Autoregressive Conditional Heteroskedasticity, Journal of Econometrics, 31, 307-327,1986. BONOMO, M.; GARCIA, R. Tests of Conditional asset pricing models in the Brazilian stock market, Journal of International Money and Finance, 20, 71-90, 2001. CHRISTOFFERSEN, P.F. Evaluating Interval Forecasts, International Economic Review, v. 39, pp. 841-862, 1998. CORONADO, M. Comparing Different Methods for Estimating Value-at-Risk for Actual Non-Linear Portfolios: Empirical Evidence, Universidad de Madrid, Working Paper, 2000. CRNKOVIC, C.; DRACHMAN, J. Model Risk Quality Control, Risk, v. 9, n. 9, pp. 139-143, September, 1996. CUNHA JÚNIOR, D. et al. Bootstrap, IME/FEA-USP, 2001. Não publicado. DAVISON, A. C.; HINKLEY, D. V.; SCHECHTMAN, E. Efficient Bootstrap Methods. Biometrika, 73, pp. 555-566,1986. _______________;_______________. Bootstrap Methods and Their Applications. Cambridge University Press, 1997. DONANGELO, A.; LEMGRUBER, E.; SILVA, W. Estimadores de Volatilidades para Modelos de Valor em Risco de Ativos Lineares e Não-Lineares: Investigação para Períodos de Crises e Estáveis no Mercado Brasileiro, ANPAD, 2000. DUFFIE, D.; PAN, J. An Overview of Value at Risk, Journal of Derivatives, 4, Spring, 7 – 49, 1997. ESTRELLA, A. (1996): Taylor, Black and Scholes: Series Approximations and Risk Management Pitfalls. in Risk Measurement and Systemic Risk, Proceedings of a Joint Central Bank Research Conference. Board of Governors of the Federal Reserve System (Ed.), Washington, D.C. , pp. 359-379. FALLON, W. Calculating value at risk. S.1.: Wharton School Financial Institutions Center, Working Paper, 1996. FAMA, E. F. The Behaviour of Stock-Market Process, The journal of Business, 38, pp. 34-105, 1965. FIERLI, F. Applying and Testing VaR Estimation Methods for Non-linear Portfolios, University of Southern Switzerland, Working Paper, 2002. FINGER, C. (1997): When is a Portfolio of Options Normally Distributed? RiskMetrics Monitor, Third Quarter (September 15), pp. 33-41.
107
GALAI, DAN. Tests of market efficiency of the Chicago Board Options Exchange, The Journal of Business, pp. 168-196, 1977. GIBSON, M. Incorporating Event Risk into Value-at-Risk. Working paper, Federal Reserve Board (January), 2001. GIZYCKI, M. and HEREFORD, N. Assessing the Dispersion in Bank's Estimates of Market Risk: The Results of a Value-at-Risk Survey. Discussion Paper 1 (October), Australian Prudential Regulation Authority, 1998. GLOSTEN, L.R., JAGANNATHAN, R.; RUNKLE, D. On the Relation Between the Expected Value and the Volatility of the Normal Excess Return on Stocks, Journal of Finance 48, 1779-1801, 1993.
GRIFFITHS, W.; HILL, C.; JUDGE, G. Econometria. 1ª edição, São Paulo, 2000, Editora Saraiva. HENDRICKS, D. Evaluation of Value-at-Risk Models Using Historical Data, Economic Policy Review, Federal Reserve Bank of New York, (April), pp. 39-70, 1996. HULL, J. Options, Futures and other Derivatives. Upper Saddle River: Prentice Hall, third edition, 1997. ________; WHITE, A. Incorporating Volatility Updating Into The Historical Simulation Method for Value at Risk. Journal of Risk, Fall 1998. ________; __________. Value at Risk when Daily Changes in Market Variables are not Normally Distributed. Journal of Derivatives, Vol. 5, Nº 3, (Spring), pp. 9-19, 1998. JAHEL L, PERRAUDIN W.; SELLIN P. Value at Risk for Derivatives, Journal of Derivatives, 1999.
JORION, P. Value at Risk: The New Benchmark for Controlling Market Risk. 1st. Edition, McGraw-Hill, 1997.
KENDALL M. The Analysis of Economic time-Series, Journal of the Royal Statistical Society, 96, 11-25, 1953. KUPIEC, P. Techniques for verifying the accuracy of risk measurement models. Journal of Derivatives, v. 2, p. 73-84, December 1995.
LEMGRUBER, E. F. Avaliação de Contratos de Opções. Bolsa de Mercadorias & Futuros, junho, 1995.
108
____________; OHANIAN, G. O Modelo de Projeção de Volatilidade do Rismetrics e a Hipótese de Distribuição Normal Condicional para Alguns Fatores de Risco do Brasil, ANPAD, 1997.
LOPEZ, J.A. Regulatory evaluation of Value-at-Risk Models. New York: Federal Reserve Bank of New York, 1998.
MANDELBROT, B. The Variation of Certain Speculative Prices, The Journal of Business, 36, pp. 394-419, 1963. MARKOWITZ, H. Portfolio Selection: Efficient Diversification of Investments, John Wiley, NY, 1959. MCCLAVE, J.; BENSON, P. Statistics for Business and Economics, 7ª ed., Prentice-Hall, 1998. MOLLICA, M. A. Uma Avaliação de Modelos de Value at Risk: comparação entre métodos tradicionais e modelos de variância condicional. São Paulo: FEA/USP, 1999. Dissertação. (Mestrado em Administração) NELSON, D. B. Conditional Heterosketasticity in Asset Returns: a New Approach,
Econometrica 59, 347-370, 1991.
PALLOTTA, M.; ZENTI, R. Risk Analysis for Asset Managers: Historical Simulation, The Bootstrap Approach and Value at Risk Calculation. Ras Asset Management SGR, Working Paper, 2000. PAPAGEORGIOU, A.; PASKOV, S. Deterministic Simulation for Risk Management, The Journal of Portfolio Management, May, pp. 122-127, 1999. PICANÇO, M. Valor-em-Risco para Ativos Não-Lineares: Análise dos Resultados para Diferentes Metodologias de Cálculo para o Mercado de Opções e Spreads em Ações Telebrás. Rio de Janeiro: UFRJ/COPPEAD, 2000. Dissertação (Mestrado em Administração) PRITSKER, M. Evaluating Value-at-Risk Methodologies: Accuracy versus Computational Time, Journal of Financial Services Research, (October/December), pp. 201-241, 1997. ____________. The hidden dangers of historical simulation. Working paper, Federal Reserve Board (January), 2001.
RISKMETRICS, Technical Document, 4rd ed. J.P Morgan, 1996.
109
SANTOS, L.C. F. Avaliação de Modelos GARCH Multivariados no Cálculo do Valor em Risco de uma Carteira de Renda Variável. Rio de Janeiro: UFRJ/COPPEAD, 2002. Dissertação (Mestrado em Administração) SHWARTZ, G. Estimating the Dimension of a Model, Ann. Stat., vol. 6, p. 461–464, 1978. SILVA NETO, L. Derivativos: definições, emprego e risco. 3ª edição, São Paulo, Atlas, 1999. WILSON, T. C. Value at Risk. In Risk Management and Analysis. V.1: Measuring and Modelling Financial Risk. S.1.: J. Wiley, 1998. ZANGARI, P. A VaR Methodology for Portfolios that Include Options. Riskmetrics Monitor; 1Q, pp. 4-12, 1996. ___________. How Acurate is the Delta-Gamma Methodology? Riskmetrics Monitor; 3Q, pp. 12-29, 1996.
110
Anexos
111
Anexo 1
Backtest dos Modelos, para a Opção de Petrobrás, no Nível de Confiança de 98%, durante o Período de 27/11/00 a 15/04/02. (a) Delta-Gama (b) Simulação Histórica Filtrada
(1.600.000,00)
(1.200.000,00)
(800.000,00)
(400.000,00)
0,00
400.000,00
800.000,00
Data
(1.000.000,00)
(800.000,00)
(600.000,00)
(400.000,00)
(200.000,00)
0,00
200.000,00
400.000,00
600.000,00
800.000,00
Data
112
Anexo 2
Backtest dos Modelos, para a Opção de Petrobrás, no Nível de Confiança de 99%, durante o Período de 27/11/00 a 15/04/02. (a) Delta-Gama (b) Simulação Histórica Filtrada
(1.600.000,00)
(1.200.000,00)
(800.000,00)
(400.000,00)
0,00
400.000,00
800.000,00
Data
(1.000.000,00)
(800.000,00)
(600.000,00)
(400.000,00)
(200.000,00)
0,00
200.000,00
400.000,00
600.000,00
800.000,00
Data
113
Anexo 3
Avaliação da Escala de Erros das Metodologias de Simulação Histórica Filtrada e Delta-Gama pelo Teste de Lopez, no período de 27/11/00 a 15/04/02, segundo a Classificação no-dinheiro (AT), dentro-do-dinheiro (IN) e fora-do-dinheiro (OUT). (a) Petrobrás (b) Telemar (c) Globocabo
133 282 414AT IN OUT
95% 39,52 59,81 75,46 98% 35,50 44,37 56,06 99% 28,89 29,71 45,81 95% 71,20 96,07 130,7098% 70,85 82,79 130,3499% 68,63 79,64 130,1195% 35,30 55,87 57,98 98% 27,34 49,65 36,62 99% 19,50 34,54 27,44
Delta-Gama Volatilidade
ImplícitaSHF -
Volatilidade Implícita
Opção GlobocaboQuantidadeMoneynessSHF -
Volatilidade Histórica
279 292 258AT IN OUT
95% 66,08 51,36 62,63 98% 38,37 26,94 27,55 99% 17,36 6,38 10,63 95% 6,30 6,12 77,99 98% 5,14 6,08 70,27 99% 4,09 5,06 61,90 95% 69,11 63,41 67,23 98% 55,25 43,69 48,47 99% 37,48 17,81 26,66
Delta-Gama Volatilidade
ImplícitaSHF -
Volatilidade Implícita
OpçãoQuantidadeMoneynessSHF -
Volatilidade Histórica
Telemar
308 301 220AT IN OUT
95% 47,46 44,66 29,33 98% 32,89 32,45 30,45 99% 29,21 26,56 27,99 95% 9,01 4,16 51,10 98% 6,93 3,15 45,65 99% 5,89 2,14 39,42 95% 67,16 55,49 43,45 98% 59,73 49,88 39,86 99% 44,64 38,25 31,06
Delta-Gama Volatilidade
ImplícitaSHF -
Volatilidade Implícita
Opção PetrobrásQuantidadeMoneynessSHF -
Volatilidade Histórica
114
Anexo 4
Avaliação da Escala de Erros das Metodologias de Simulação Histórica Filtrada e Delta-Gama pelo Teste de Lopez, para os Portifólios, no período de 27/11/00 a 15/04/02, segundo a Classificação no-dinheiro (AT), dentro-do-dinheiro (IN) e fora-do-dinheiro (OUT). (a) Petrobrás e Telemar (b) Petrobrás e Globocabo (c) Telemar e Globocabo (d) Petrobrás, Telemar e Globocabo
53 171 174AT IN OUT
95% 12,56 31,90 32,0698% 13,35 21,86 21,5699% 6,59 8,26 18,3995% 2,13 0,00 49,0198% 1,00 0,00 38,1899% 0,00 0,00 36,1395% 10,54 44,19 25,4798% 10,19 34,34 19,3099% 7,34 22,07 9,92
Delta-Gama Volatilidade
ImplícitaSHF -
Volatilidade Implícita
Portifólio Petrobrás e GlobocaboQuantidadeMoneynessSHF -
Volatilidade Histórica
155 181 140AT IN OUT
95% 26,67 29,48 28,5798% 20,66 13,29 22,1399% 11,85 3,70 12,6295% 0,00 0,00 54,9198% 0,00 0,00 29,5699% 0,00 0,00 31,0095% 38,05 39,42 34,6398% 29,71 30,23 28,1199% 20,78 14,71 12,95
Delta-Gama Volatilidade
ImplícitaSHF -
Volatilidade Implícita
Portifólio Petrobrás e TelemarQuantidadeMoneynessSHF -
Volatilidade Histórica
69 190 218AT IN OUT
95% 20,48 29,86 42,1998% 15,89 22,04 25,6199% 5,06 10,56 17,6895% 4,81 0,00 92,0098% 4,22 0,00 72,4999% 3,12 0,00 72,5995% 16,90 43,74 33,6098% 9,77 30,33 31,0099% 8,39 15,21 10,96
Delta-Gama Volatilidade
ImplícitaSHF -
Volatilidade Implícita
Portifólio Telemar e GlobocaboQuantidadeMoneynessSHF -
Volatilidade Histórica
45 124 127AT IN OUT
95% 11,94 26,84 25,0098% 9,00 16,88 19,5999% 4,17 6,57 12,7095% 0,00 0,00 57,0298% 0,00 0,00 31,1299% 0,00 0,00 26,0695% 10,95 36,75 27,4698% 8,17 21,14 17,5399% 4,42 13,96 7,38
Delta-Gama Volatilidade
ImplícitaSHF -
Volatilidade Implícita
Portifólio 3 OpçõesQuantidadeMoneynessSHF -
Volatilidade Histórica