UNIVERSIDADE TÉCNICA DE LISBOA -...
Transcript of UNIVERSIDADE TÉCNICA DE LISBOA -...
UNIVERSIDADE TÉCNICA DE LISBOA
MESTRADO EM ECONOMIA MONETÁRIA E FINANCEIRA
ECONOMIA DOS INTERMEDIÁROS FINANCEIROS
VALUE-AT-RISK: NOTAS SOBRE O CASO NÃO LINEAR
Bravo Jorge1 , Clara Pires e Carla Silveira
Abstract: O Value-at-Risk (VAR) é hoje em dia um conceito-chave nas gestão do risco de
mercado das instituições. Em termos genéricos, VAR de uma carteira de activos é definido
como a perda máxima esperada para essa carteira, num determinado período de tempo e para
um determinado nível de confiança. Após a aceitação generalizada do conceito, o debate na
comunidade científica centrou-se nas implicações para o cálculo do VAR que resultam de
relaxar as suas duas hipóteses principais: i) os retornos dos factores de risco seguem uma
distribuição normal e ii) a relação entre o valor da carteira e o valor dos factores de risco é
linear. É precisamente sobre este último tema que nos debruçamos. A exposição está
organizada da seguinte forma: na secção I, é feita uma ligeira introdução ao tema do VAR; Na
secção II são exaustivamente tratados os múltiplos métodos paramétricos utilizados para obter
estimativas do VAR; Na secção III o lugar é dado ao papel dos métodos de simulação no
tratamento da não linearidade.
1 Correspondence to [email protected]
Value-at-Risk: Notas Sobre o Caso Não Linear
1
I. INTRODUÇÃO E PRINCIPAIS CONCEITOS
1.1. Value-at-Risk (VAR): Definição e Caracterização do Conceito
O VAR é uma medida do risco de mercado, que representa a perda máxima no valor de
uma carteira de instrumentos financeiros que se pode verificar, num determinado
período de tempo, com um certo nível de confiança e admitindo condições normais de
mercado.
Deste modo, quando se afirma, por exemplo, que o VAR diário da carteira de activos de
uma instituição financeira é de 1 milhão de contos, com um nível de confiança de 95%,
pretende-se dizer que, em condições normais de mercado, de cada 100 dias, apenas em
cinco a carteira de activos da instituição financeira se poderá desvalorizar em 1 milhão
de contos. De uma forma menos rigorosa, o valor máximo que se pode perder, ou seja, o
valor que está em risco num dia, é de 1 milhão de contos, em condições normais de
mercado.
O VAR engloba assim quatro componentes:
• Um limite superior para as perdas – o valor do próprio VAR;
• Um horizonte temporal, findo o qual se constatam as perdas realizadas;
• Um grau de confiança para o VAR (exemplo 95%) ou uma probabilidade (5%) de o
VAR ser excedido;
• A aceitação de um comportamento estocástico estável pré-determinado para o
mercado ou, de forma mais concreta, a adopção da hipótese de que os retornos de
mercado seguem uma distribuição normal. A distribuição de probabilidades é fixa e
imutável ao longo do tempo. Esta hipótese é muito forte claudicando completamente
no contexto de mercados não estacionários e na presença de não linearidade.
O VAR pode ainda ser definido:
• Em termos absolutos – valor numérico absoluto da perda.
Value-at-Risk: Notas Sobre o Caso Não Linear
2
• Em termos relativos – perda em relação à média das rentabilidades, que é igual à
soma do VAR absoluto com a média das rentabilidades diárias.
Em termos formais, O VAR em termos absolutos é dado por:
[1] VAR (absoluto) = - REV* = - R*W
Em que R denota a taxa de rentabilidade da carteira, W o valor inicial da carteira, REV
o retorno (em valor) da carteira, R* a rentabilidade de corte (correspondente ao nível de
confiança desejado) e REV* representa o respectivo rendimento de corte.
De forma semelhante, se considerarmos REV como representando o rendimento médio
da carteira e µ como a taxa média da rentabilidade, o VAR relativo à média é dado por:
[2] VAR (relativo) = -REV* + REV = -RW + µW
Estas expressões permitem-nos transformar o VAR em termos de rendimentos no VAR
em termos de rentabilidades, o qual é bastante mais fácil de manejar em termos
estatísticos
A atractividade do VAR resulta, em primeiro lugar, de conseguir medir o risco de
mercado de uma forma que o torna facilmente compreensível e comunicável aos
gestores de topo e/ou accionistas, permitindo, desta forma, que estes controlem e
limitem os riscos assumidos (em condições normais de mercado), mesmo que não
possuam todos os conhecimentos técnicos inerentes à forma de cálculo do VAR.
Em segundo lugar, o VAR apresenta a vantagem de medir o risco na mesma unidade em
que estão expressos os activos (unidades monetárias), facto esse que permite comparar
directamente o risco de produtos diferentes.
O VAR coloca-se, desta forma, como alternativa a alguns indicadores de risco para
activos específicos: por exemplo, o desvio-padrão da rentabilidade ou o parâmetro beta,
no caso das acções; a duração, no caso das obrigações; a volatilidade, no caso das
divisas.
Value-at-Risk: Notas Sobre o Caso Não Linear
3
( )250
nZWVAR ×××= σα
A medição do VAR, por seu turno, um pouco mais complexa, especialmente quando
nos afastamos duas premissas principais: i) normalidade para a distribuição dos factores
de risco subjacente e ii) uma relação linear entre os retornos da carteira e os retornos dos
factores de risco.
Saliente-se que o VAR obtido pelos diversos é apenas uma estimativa do verdadeiro
valor em risco, que é normalmente desconhecido, pelo que temos sempre que lidar com
o erro de estimativa.
1.2. Fórmula Genérica Para o Cálculo do VAR
Admitindo que a rendibilidade de um determinado activo ou carteira segue uma
distribuição normal com média nula e desvio-padrão σ, o VAR para um activo é dado
simplesmente por:
[3]
Em que W representa valor de mercado da carteira, n o número de dias para o qual se
calcula o VAR, Z(α) valor crítico da distribuição normal estandardizada desejado e σ o
desvio-padrão anual do factor de risco subjacente.
1.3. Escolha dos Parâmetros do VAR
Calcular o VAR implica definir, à priori, dois parâmetros arbitrariamente: o nível de
confiança e o período de tempo. A definição do nível de confiança é um elemento
subjectivo, não existindo consenso entre os vários utilizadores da metodologia no que
diz respeito a um nível padrão. O comité de Basileia recomenda um nível de confiança
de 99%, enquanto que, por exemplo, a empresa impulsionadora da metodologia (J.P.
Morgan) recomenda um intervalo de 95%.
Qualquer que seja o nível de confiança adoptado, ele deve ter sempre em linha de conta
os seguintes aspectos:
Value-at-Risk: Notas Sobre o Caso Não Linear
4
• Os requisitos de capital aumentam com o nível de confiança do VAR, i.e., o valor
monetário do VAR cresce com o grau de confiança. Este aspecto não pode ser
negligenciado uma vez que os custos superiores de capital imobilizado podem ser
significativos;
• O nível de confiança escolhido deve obedecer a critérios contabilísticos uniformes e
permitir a comparação entre instituições;
• O nível escolhido deve enquadrar-se nas práticos de controlo e gestão do risco por
parte das instituições, fornecendo aos gestores de topo uma medida suficientemente
realista do risco de mercado defrontado.
No que diz respeito ao período de tempo (dia, semana, mês, etc.), ele deverá depender
prioritariamente da função para a qual o VAR é calculado (se num relatório interno de
uma instituição o VAR pode ter um horizonte de um dia, já num relatório trimestral
para os accionistas, o VAR pode ser calculado para três ou mais meses).
Por outro lado, o período de tempo deve depender da liquidez dos activos. Para activos
com mercados muito líquidos, como é o caso das divisas, a instituição pode reduzir
rapidamente a sua exposição a esses activos em caso de perdas, pelo que o período pode
ser menor, tipicamente, um dia. Para activos pouco líquidos, como os valores
mobiliários não negociáveis em bolsa, é necessário aceitar longos períodos de detenção,
normalmente, alguns meses, para dar tempo à instituição de se desfazer dessas posições.
Na carteira de uma determinada instituição há, em geral, activos com diferentes níveis
de liquidez pelo que os períodos de análise tenderiam a ser diferentes para cada um
deles. Para se evitar tal situação é usual a escolha de um período de 10 dias2 como o
intervalo de equilíbrio que pode ser comum para os diversos activos com os graus de
liquidez habituais nas instituições.
1.4. VAR Numérico e VAR Paramétrico
2 Recorde-se que este é o horizonte temporal sugerido pelo Comité de Basileia às instituições financeiras.
Value-at-Risk: Notas Sobre o Caso Não Linear
5
[ ] ( )∫ ==<−
*
%100
*PrR
dRRfRRob α
O cálculo do VAR pode ser efectuado por recurso a duas abordagens distintas,
consoante se imponham ou não, à partida, determinadas hipóteses sobre a distribuição
de probabilidades dos retornos dos factores de risco.
A abordagem não paramétrica, que nos dá o VAR numérico, consiste em não
estabelecer qualquer pressuposto quanto à distribuição para a rentabilidade dos factores
de risco. Por exemplo, se o objectivo é determinar o VAR de uma acção, basta
simplesmente recolher as rendibilidades históricas dessa acção, determinar o valor
crítico da rentabilidade à esquerda do qual estão, por exemplo, 5% das observações e,
finalmente, com esta rentabilidade crítica, calcular a perda máxima em 95% dos casos
(VAR com 95% de confiança).
Este método genérico resume-se, essencialmente, a calcular o VAR que resulta de um
determinado percentil da distribuição empírica da rentabilidade do factor de risco
(activo subjacente, taxa de juro, taxa de câmbio, etc.) em questão. O VAR absoluto e
relativo que referimos anteriormente, baseavam-se na abordagem não paramétrica.
A abordagem paramétrica simplifica substancialmente os cálculos, ao assumir uma
distribuição para a rentabilidade dos activos. Se supusermos que a rentabilidade tem
uma função de densidade de probabilidade f(R) e que estamos a considerar um nível de
confiança de (1–α), A probabilidade da rentabilidade ser menor que R* é dada por:
[4]
Na prática, usualmente considera-se que f(R) representa uma distribuição normal,
existindo a necessidade de estimar os parâmetros da distribuição normal (média µ e
desvio padrão σ), daí a designação de abordagem paramétrica. Transformando o retorno
R numa variável norma estandardizada (i.é., subtraindo o seu valor esperado e dividindo
pelo desvio-padrão temos:
[5] Prob [ R < R* ] = Prob [ Z < (R* - µ) / σ ] = α
Value-at-Risk: Notas Sobre o Caso Não Linear
6
Com R* = µ + α σ e α a denotar o valor crítico da distribuição normal estandardizada.
Resolvendo em ordem a R* obtemos a rendibilidade de corte que nos permitirá calcular
o VAR desejado.
1.5. VAR de um Produto vs VAR de uma Carteira
Em termos gerais, o VAR de um produto pode ser calculado utilizando [3].O VAR de
uma carteira de activos, por seu turno, dependerá do desvio padrão dos retornos da
carteira.
Contudo, sabemos que o risco da detenção de uma carteira de activos não é igual à soma
dos riscos individuais, e isto na medida em que as correlações entre os retornos dos
diferentes factores de risco (efeito diversificação) pode fazer com que o risco total seja
inferior. Da forma similar, o VAR de uma carteira não é simplesmente a soma dos VAR
individuais de cada um dos activos que compõem a carteira, uma vez que os activos não
reagem todos da mesma maneira às alterações nos factores de risco.
O problema reside assim, em estimar os movimentos relativos das taxas de rentabilidade
dos activos que compõem a carteira, isto é, a matriz de variâncias-covariâncias (Σ).
Obtida esta estatística, o cálculo do VAR segue a metodologia usual.
Introduzidos os principais conceitos3 relacionados, voltamo-nos para o tema principal
deste trabalho: fornecer uma visão clara e abrangente dos principais metodologias
utilizadas para obter estimativas do VAR, dedicando especial atenção aos casos em que
existe uma relação não linear entre os retornos da carteira e retornos dos factores de
risco.
3 Para uma introdução mais detalhada ao tema do VAR recomenda-se a leitura de Jorion (1996).
Value-at-Risk: Notas Sobre o Caso Não Linear
7
( )[ ] α=−<∆∆∆ VARStPob ,Pr
II. MÉTODOLOGIAS DE ESTIMAÇÃO DO VAR
2.1. Enquadramento Geral
A década de 90 consagrou definitivamente o Value-at-Risk (VAR) como uma das mais
importantes medidas para o risco de mercado a que estão sujeitas, não apenas as
instituições financeiras, mas todas as empresas ou instituições que detém importantes
carteiras de activos financeiros. A sua simplicidade conceptual, acrescida da
possibilidade de aplicação a diferentes níveis de exposição ao risco forneceu aos
gestores das instituições uma base consistente para comparar e agrupar o risco de
mercado das suas carteiras.
Como já referimos, o valor em risco (VAR) de uma carteira de activos é definido como
a perda máxima esperada para essa carteira, num determinado período de tempo e para
um determinado nível de confiança. A estatística VAR pode ainda ser expressa em
termos de um intervalo de confiança unilateral para as perdas e ganhos esperados de
uma carteira, i.e., em termos formais:
[6]
em que ∆P(∆t, ∆S) mede a alteração no valor da carteira de activos, expressa como uma
função do horizonte de previsão (∆t) e do vector de alterações nos factores de risco
subjacentes (∆S). O parâmetro α representa, como habitualmente, o nível de
significância desejado. Graficamente:
Perdas Ganhos
Value-at-Risk: Notas Sobre o Caso Não Linear
8
( ) TWZ σα
Figura [1] - Distribuição de perdas e ganhos para uma carteira de activos
A estatística VAR envolve dois parâmetros escolhidos arbitrariamente: o horizonte
temporal para o qual desejamos obter estimativas para as perdas da carteira, e o nível de
significância. Porém, o aspecto mais importante da definição do VAR apresentada em
[6] diz respeito ao papel que a distribuição de probabilidades de ∆P assume,
distribuição essa que daqui em diante designaremos por F(∆P).
A introdução deste conceito simples na literatura financeira abriu as portas ao
desenvolvimento de várias metodologias para o seu cálculo. As diferentes abordagens
que se sucederam são apenas traduções distintas de um mesmo objectivo: utilizar
métodos fiáveis e rigorosos por forma a fornecer estimativas eficientes para o
verdadeiro VAR.
Os métodos de cálculo do VAR são normalmente agrupados em duas categorias
principais: métodos paramétricos e métodos não-paramétricos (numéricos ou de
simulação). É ainda usual subdividir os métodos não-paramétricos entre métodos de
simulação histórica e métodos de simulação de Monte Carlo.
Os métodos paramétricos (ou analíticos) são métodos que envolvem hipóteses sobre a
forma como os retornos dos factores de risco subjacente se distribuem, e que implicam
o cálculo do risco directamente a partir das volatilidades, das correlações, e de outros
parâmetros que caracterizam a distribuição.
Os métodos de simulação histórica são procedimentos que envolvem a produção de
cenários para os factores de risco a partir dos seus dados históricos (preços, taxas de
retorno, etc.), com base nos quais é estimada a distribuição de perdas e ganhos da
carteira, e inferido o valor do VAR.
Os métodos de simulação de Monte Carlo consistem na geração aleatória de cenários
para os factores de risco, com a condição de que estes cenários devem ser consistentes
quer com a matriz de volatilidades e correlações histórica, quer com modelos pré-
determinados de avaliação de activos.
Naquilo que se segue do nosso trabalho, procuraremos explorar de forma mais ou
menos pormenorizada a especificidade de cada uma destas metodologias, dedicando
especial atenção aos problemas que se colocam à obtenção de estimativas para o VAR
µ
VAR
α
Value-at-Risk: Notas Sobre o Caso Não Linear
9
nos casos em que as carteiras incluem instrumentos financeiros cujos «payoffs» estão
relacionados de forma não linear com os factores de risco subjacente (Ex. opções).
Enunciaremos ainda, de forma esporádica , algumas das soluções propostas na literatura
para enquadrar a evidência empírica que rejeita a hipótese de que os retornos dos
factores de risco seguem uma distribuição Gaussiana (distribuição normal).
São indicados algumas metodologias que incorporam a variabilidade do risco
(variância) ao longo do tempo, bem assim como algumas soluções adiantadas para
modelizar o problema dos eventos extremos, naquilo que ficou conhecido na literatura
financeira como o fenómeno das «fat tails» (caudas largas) das distribuições de
probabilidade.
2.2. MÉTODOS PARAMÉTRICOS
Os métodos paramétricos são métodos que se centram no processo aleatório que
descreve o comportamento dos ganhos e perdas da carteira de activos. Tratam-se, no
fundo, de métodos que envolvem hipóteses de partida sobre a forma de F(∆P), e que
implicam o cálculo do risco directamente a partir das volatilidades, das correlações, e de
outros parâmetros que caracterizam a distribuição.
O problema surge quando nos afastamos das hipóteses de partida quanto ao cálculo do
VAR, quer quanto ao pressuposto de que os retornos dos factores de risco seguem uma
distribuição normal, quer sobretudo quanto ao facto de os retornos da carteira não serem
uma função linear dos riscos. A figura [2] retracta bem este último aspecto.
Valor de umaPosição Linear
Activo Subjacente
Quando a estrutura de payoffs da posição élinear, existe uma relação linear entre o valor daposição e o valor do activo (factor de riscosubjacente). Ex. FX Forward vs Taxa Câmbio
Valor de umaPosição Não Linear
Activo Subjacente
Quando a estrutura de payoffs é não- linear,a relação entre o valor da posição e o valordo activo exibe uma curvatura. Exemplo:Opção sobre Acção vs Preço Opção
Value-at-Risk: Notas Sobre o Caso Não Linear
10
( )Σ,~ µNR
Figura [2] - Relação entre o valor da posição e activo subjacente
Os procedimentos sugeridos na literatura para lidar com o problema da não linearidade
este último aspecto são tratados nas secções que se seguem.
2.2.1. APROXIMAÇÃO DELTA-NORMAL
A primeira solução para este problema sugeria o recurso a uma aproximação linear de
primeira ordem (delta) para a relação entre os retornos dos activos e os retornos dos
respectivos factores de risco. Para a distribuição de probabilidades dos factores de risco
continuava a admitir-se, contudo, a distribuição Gaussiana. Em suma, as alterações no
valor da carteira são aproximadas pelo seu delta, enquanto que as alterações nos factores
de risco são modelizadas como espelhando uma distribuição normal multivariada. Pelas
suas propriedades, o método foi apelidado de Delta-Normal.
Com base nestas hipóteses, a aproximação delta-normal de F(∆P), que designamos por
Fd(∆P), é caracterizada como univariadamente normal4, e o VAR corresponderá
simplesmente a um percentil dessa distribuição. Mais ainda, no contexto da
aproximação delta-normal o VAR é uma mera função da matriz de variâncias-
covariâncias dos factores de risco.
Em termos formais, a hipótese de que os retornos (R) dos N factores de risco seguem
uma distribuição normal corresponde a:
[7]
em que Σ representa a matriz de variâncias-covariâncias de dimensão N x N, e µ denota
o vector de dimensão N x 1 para os valores esperados dos factores de risco. Para
horizontes temporais de análise reduzidos (como aquele que está normalmente
subjacente ao cálculo do VAR), é frequente admitir-se que o retorno esperado é nulo,
i.e., µ = 0. Daqui em diante consideraremos esta hipótese.
4 A caracterização de Fd(∆P) como univariadamente normal, assenta no pressuposto estatístico de queuma combinação de variáveis normalmente distribuídas e, também ela, uma variável normalmente
distribuída.
Value-at-Risk: Notas Sobre o Caso Não Linear
11
tT
RR
tT
T
tss
Tt
T
tsTti Tts −
∑=∑
−
−= +=
∧
+=
∧ ∧1
,1
2
,, ,1
, µµσ
=Σ
∧∧∧
∧∧∧
∧∧∧
σσσ
σσσ
σσσ
2221
21
222121
11221
NNN
N
N
σβαωσ 21
21
2−− ++= nnn u
( )
S
S
S
SSu
u
n
n
n
nnn
nnn
11
1
21
21
2 1
−−
−
−−
Λ=
−=
−+= λσλσ
No que diz respeito à matriz de variâncias-covariâncias, a aproximação delta-normal é
bastante flexível, admitindo várias possibilidades quanto à metodologia utilizada para
estimar Σ. Foi aliás esta flexibilidade que tornou o método tão popular e que conduziu à
sua rápida adopção pela maioria das instituições.
A primeira abordagem à estimação de Σ foi sugerida por Garbade (1986), e consistia
simplesmente em assumir que Σ representava uma matriz constante, calculada com base
na volatilidade histórica dos retornos dos factores de risco, i.e.
Com
A segunda metodologia foi proposta pela J.P.Morgan (1994) e admitia a variabilidade
do risco ao longo do tempo. O procedimento adoptado admite que as observações mais
recentes dos retornos contribuem de forma mais significativa para a obtenção de
estimativas para as volatilidade histórica. O método utilizado é uma versão restrita do
modelo GARCH (1,1):
[8]
com as seguintes restrições: ω=0, α=1-λ e β=λ. Impondo estas condições, a estimativa
da volatilidade é obtida, em cada momento n, através de uma média móvel exponencial.
A fórmula utilizada para actualizar as estimativas de volatilidade é então dada por:
[9]
Value-at-Risk: Notas Sobre o Caso Não Linear
12
=
∆
∆
=≈∆
δ
δδ
δδ
kk
k
T
S
S
S
S
RRP..
,.., 2
1
1
1
SS
P
S
SP kk
kk
N
k k
kk
∂∂=∑ ∆≈∆
=δδ ,
1
( ) ( )
( ) ( ) ( )
( ) ( ) ( ) δδδδδ
δδ
δδ
Σ===∆
===∆
Σ∆
TTT
TT
Td
RVarRVarPVar
REREPEDemo
NPF
0:
,0~
Uma terceira alternativa para a estimação de Σ passa por recorrer a medidas de
volatilidade implícita obtidas a partir de modelos de avaliação de opções. Para muitos
mercados, existe evidência empírica suficiente para concluir que a volatilidade implícita
nos preços das opções fornece um indicador mais preciso sobre a volatilidade futura
quando comparado com os métodos baseados em informação histórica.
A última alternativa para estimar Σ surge no contexto de modelos de avaliação de
opções que especificam directamente o processo estocástico seguido pela volatilidade.
O modelo de Hull-White (1987) constitui um bom exemplo deste tipo de especificação.
No que toca à hipótese de linearidade, esta pode ser formalizada utilizando uma
expansão de Taylor de primeiro grau, admitindo que todas as derivadas de ordem
superior à primeira são iguais a zero. Nesse caso, a aproximação local de ∆P é dada por:
[10]
em que δk simboliza a sensibilidade da carteira com respeito ao factor de risco k (o
delta). Se utilizarmos notação matricial teremos:
[11]
Utilizando os pressupostos enunciados em [7] e [11] torna-se possível caracterizar
formalmente Fd(∆P):
Value-at-Risk: Notas Sobre o Caso Não Linear
13
( ) δδα Σ−= TZVAR
( ) ( )
( )δδ
α
αδδ
αδδδδ
Σ
−=⇔
=
Σ
−−<⇔=
Σ
∆−−<
Σ
∆−∆
T
TTT
VARZ
VARZob
PEVARPEPob
0PrPr
O passo final consiste em calcular o VAR. Em primeiro lugar, é necessário transformar
a variável aleatória ∆P numa variável normal estandardizada de média nula e desvio
padrão unitário. Recordando a definição do VAR indicada em [10], utilizando a
aproximação de Taylor e os elementos que caracterizam a distribuição temos então que:
Resolvendo finalmente em ordem ao VAR temos:
[12]
e que Z(α) representa o αésimo percentil da distribuição normal estandardizada. O
método delta-normal baseia-se, como vimos, numa aproximação local, sendo na prática
utilizado para obter estimativas do VAR para um grande número de activos.
Apesar da simplicidade metodológica e facilidade de implementação, três críticas
principais são apontadas à aproximação delta-normal. A primeira debilidade, comum a
todos os métodos que se baseiam em séries históricas, refere-se à incapacidade que as
distribuições de probabilidades construídas com base em dados históricos recentes têm
de acomodar os denominados eventos extremos (colapsos cambiais, "crashes de bolsa",
etc.). Tal deve-se simplesmente ao facto de estes eventos não ocorrerem com uma
periodicidade suficientemente frequente para estarem permanentemente representados
na janela de observação da distribuição.
O segundo problema está associado à evidência de que as distribuições dos retornos dos
activos financeiros exibem aquilo que convencionalmente se designa por "fat tails",
característica medida pelo coeficiente de achatamento (Kurtosis) da distribuição.
Este aspecto é especialmente importante quando sabemos que o VAR procura captar o
comportamento dos retornos da carteira nas caudas da distribuição, especialmente na
cauda esquerda.
Value-at-Risk: Notas Sobre o Caso Não Linear
14
Neste contexto, qualquer aproximação baseada na hipótese de normalidade dos retornos
tenderá a subestimar a proporção dos eventos extremos da distribuição, e dessa forma, a
subavaliar o verdadeiro VAR.
Existem numerosas explicações para a evidência das "fat tails". Uma das principais
aponta para os chamados "jumps", alterações significativas inesperadas nos preços dos
activos. Uma segunda justificação centra-se na evidencia de que a volatilidade dos
retornos é estocástica, sendo que tal significa que o nível de volatilidade (σt) se altera de
forma aleatória ao longo do tempo, e com algum nível de persistência. Esta
característica de persistência está relacionada com o facto de, em períodos de
volatilidade recente elevada, as estimativas de volatilidade para o futuro próximo serem,
também elas, de nível elevado.
As tentativas de incorporar este aspecto na modelização das séries financeiras são
múltiplas. Exemplos são dados pelos denominados «jump diffusion models», pelos
«regime-switching volatility models», por modelos de volatilidade autoregressiva
(GARCH, EGARH, Cross-market GARCH), pela utilização de distribuições
alternativas para os retornos (Ex. "t de Student", Jorion, 1996), entre outras soluções.
A terceira debilidade importante da aproximação delta-normal revela-se, no contexto da
nossa análise, a mais importante. Ela está relacionada com a incapacidade que o método
tem de medir, de forma adequada, o VAR para instrumentos financeiros relacionados de
forma não linear com os factores de risco subjacente. Os exemplos já citados das opções
ilustrem bem este problema, mas outros produtos existem para os quais a dificuldade é
semelhante: obrigações com um elevado grau de convexidade, MBS's, etc.
A justificação para esta má performance da aproximação delta-normal na presença de
não linearidade é simples: mesmo admitindo que a distribuição dos retornos dos
factores de risco (taxa de juros, taxa de câmbio, cotação da acção, etc.) é normal, como
a relação entre os retornos da carteira e os factores de risco é não linear, Fd(∆P) não
pode mais ser considerada normal. Mais ainda, a não linearidade transforma os próprios
momentos de Fd(∆P).
Value-at-Risk: Notas Sobre o Caso Não Linear
15
Estas conclusões são perfeitamente claras se observarmos atentamente a figura [3]5, na
qual a relação entre o valor de uma «long call» e o preço do activo subjacente é
representada:
Figura [3]: Transladação de uma distribuição normal para o preço do activo subjacente numa
distribuição de probabilidade para o valor de uma posição longa numa opção Call
Como é sabido, o delta de uma opção é definido como a taxa de variação para o valor da
carteira em resultado de uma alteração no valor do activo subjacente. Contudo, sabemos
também que a relação entre o valor da opção e o activo subjacente é não linear e exibe
um elevado grau de curvatura. Esta curvatura é habitualmente medida pelo coeficiente
gamma, definido como a taxa de variação do delta em resultado de alterações no activo
(factor de risco) subjacente.
Em termos genéricos, para valores do gamma positivos a distribuição de ∆P tenderá a
evidenciar um elevado grau de enviesamento positivo, enquanto que para valores do
5 Esta figura segue de perto a indicada por Hull (1998), pp, 353
Valor de umaLong Call
Preço do ActivoSubjacente
Value-at-Risk: Notas Sobre o Caso Não Linear
16
gamma negativos a distribuição de ∆P afasta-se igualmente da normalidade mostrando,
neste caso, um claro enviesamento negativo.
O impacto dos graus de curvatura na simetria F(∆P) é perfeitamente ilustrado na figura
[3], em que a presença de um gamma positivo para a posição longa na call transforma
F(∆P) numa distribuição positivamente enviesada. Esta conclusão não será estranha se
nos recordarmos que o risco de perda para uma posição longa numa call é limitado, para
diminuições no preço do activo subjacente, pelo prémio pago pela opção, enquanto que
os ganhos potenciais são ilimitados.
O enviesamento da distribuição tem implicações importantes para o cálculo do VAR,
uma vez que este depende objectivamente da cauda esquerda de F(∆P). Observando
novamente a figura [3], uma distribuição de probabilidades que exibe um enviesamento
positivo terá uma cauda esquerda mais estreita do que a distribuição normal. Deste
modo, se assumirmos erradamente que F(∆P) segue uma distribuição normal,
tenderemos a obter estimativas para o VAR que excederão o verdadeiro valor em risco
da carteira. Esta última afirmação é perfeitamente retractada na figura [4], em que a
aproximação delta-normal é utilizada para obter estimativas do VAR.
Figura [4]: Enviesamento no cálculo do VAR para Opções Call, utilizando o método Delta-
Normal
Valor de umaLong Call
S0
VAR Delta-NormalVAR Real
Activo subjacente
Z(α) Desvios-Padrões
Value-at-Risk: Notas Sobre o Caso Não Linear
17
A aproximação delta-normal às funções não lineares consiste em traçar uma linha
tangente à curva no ponto correspondente ao preço spot (S0), e na perturbação do preço
do activo subjacente por um número de desvios-padrões desejado, número esse que
corresponde, designadamente, ao valor crítico da distribuição normal estandardizada -
Z(α).
Nos casos em que a função é convexa, a aproximação delta-normal introduz um claro
erro na estimação do VAR, sendo que nestes casos o método sobrestima o verdadeiro
valor em risco da posição. Este tipo de conclusão é facilmente extensível a posições
longas em opções "put", posições para as quais a relação entre o valor da posição e o
valor do factor de risco continua a ser convexa, e para as quais o método delta-normal
volta a sobrestimar o verdadeiro VAR.
A única diferença reside, obviamente, no facto de as perdas relevantes ocorrerem, neste
caso, na eventualidade de o preço do activo subjacente subir e não na eventualidade de
este descer.
No que diz respeito às posições curtas em opções "convencionais", estas evidenciam
geralmente um padrão côncavo com respeito ao activo subjacente pelo que, nestes
casos, a aproximação delta-normal produzirá estimativas que subavaliam o verdadeiro
VAR.
Para terminar, saliente-se que a utilização da aproximação delta-normal para obter
estimativas do VAR no contexto de carteiras que contém opções, baseia-se no
pressuposto de que a carteira inclui (dc/dS) unidades do activo subjacente, em que c e S
denotam, respectivamente, o preço do instrumento derivado e o preço do activo
subjacente.
Como foi possível verificar, excepto nos casos em que a aproximação é utilizada para
variações infinitesimais nos factores de risco (aproximações locais), as estimativas do
VAR obtidas pelo método delta-normal revelam um erro considerável, sendo necessário
recorrer a métodos mais sofisticados.
Value-at-Risk: Notas Sobre o Caso Não Linear
18
( ) ( ) ( ) ( ){ }σασα PPPPv ZREREZC ++−= ,
2.2.2. APROXIMAÇÃO DELTA-GAMMA
Devido à natureza não linear dos pagamentos gerados pelas opções, as carteiras de
activos que incluem este tipo de instrumentos terão uma distribuição de retornos que se
afasta consideravelmente da distribuição normal, evidenciando normalmente um
elevado coeficiente de enviesamento e de achatamento.
No contexto da metodologia standard do VAR, tal como esta foi modelizada pela
RiskMetricks, as estimativas do VAR são obtidas a partir de um intervalo de confiança
simétrico (Cv) em torno do valor esperado para o retorno da carteira - E(RP). Em termos
formais:
[13]
em que Z(α) tem a interpretação habitual e σP denota o desvio padrão dos retornos da
carteira. Tal como refere Zangari (1996a), quando os retornos da carteira estão
relacionados de forma não-linear com os factores de risco, mesmo que estes últimos
sigam uma distribuição normal a estimativa do intervalo de confiança para E(RP)
utilizando [13] será desajustada.
O enviesamento de F(∆P) invalida não apenas a aplicação da simetria introduzida pelos
factores +/- Z(α), como transforma os próprios momentos da distribuição subjacente.
Este problema despontou a necessidade de recorrer a outros métodos para estimar o
risco da carteira. O método mais adequado para lidar com o problema da não
linearidade é o método de simulação de Monte Carlo, do qual falaremos mais adiante.
Contudo, este método apresenta uma desvantagem importante uma vez que exige,
especialmente em carteiras compostas por um número elevado de activos, grandes
capacidades computacionais e de tempo.
A proposta inicial passava por utilizar termos de ordem superior na expansão em série
de Taylor, mais concretamente pela consideração do efeito gamma.
Value-at-Risk: Notas Sobre o Caso Não Linear
19
{ }( )
( ) α<
∆∆−=
RFas
RtPMaxVARR
..
,
∂∂∂
∂∂∂
∂∂∂
∂∂∂
=Γ
Γ+≈∆
SSSS
PSS
SS
P
SSSS
PSS
SS
P
RRRP
kkkk
kk
k
k
TT
2
11
2
1111
2
1111
2
..
....
..
2
1δ
2.2.2.1. MODELO GAMMA-NORMAL DE WILSON
O modelo de Wilson (1994) merece ser destacado uma vez que foi o primeiro trabalho
publicado a reflectir o problema da convexidade dos retornos da carteira no cálculo do
VAR. Wilson continua a assumir que a distribuição dos retornos dos factores de risco é
normal, mas utiliza simultaneamente o delta e o gamma para aproximar as variações no
valor da carteira.
Embora recorra a uma aproximação quadrática, o autor deriva contudo uma estatística -
"Capital-at-Risk" (CAR) - que difere ligeiramente da definição tradicional do VAR. De
facto, Wilson define o VAR como " a perda máxima possível durante um determinado
período de tempo de liquidação e dentro de um determinado intervalo de confiança". De
acordo com esta definição, o VAR não é mais do que a solução para um problema de
optimização: O VAR corresponde ao evento, i.e., à variação no valor do factor de risco
subjacente, que maximiza as perdas da carteira, sujeito à restrição de que esse evento e
todos os que geram perdas inferiores estão compreendidos num determinado intervalo
de confiança. Em termos formais:
[14]
em que α denota o nível de significância desejado. Sob a hipótese de que as variações
no valor da carteira podem ser aproximadas por uma expansão em série de Taylor de
segundo grau, com todas as derivadas de ordem superior iguais a zero, teremos, em
notação matricial:
[15]
Value-at-Risk: Notas Sobre o Caso Não Linear
20
{ }
α
δ
2..
2
1
≤Σ
Γ+−=
RRas
RRRMaxVAR
T
TT
R
[ ]αλδ 2
2
1−Σ+
Γ+−= RRRRRL TTT
[ ]
[ ] 002
21
1
≥=−Σ
≤Σ
=Σ−Γ−
−
−
λαλ
α
δλ
eRR
RR
R
T
T
[ ] δλ Σ−Γ−= − −∗ 1 1R
Em que o índice T denota a matriz transposta. Nestas condições o problema de
optimização de Wilson é equivalente a:
[16]
Trata-se de um problema tradicional de programação quadrática, que pode ser resolvido
construindo a função Lagrangeana:
[17]
em que λ representa o multiplicador de Lagrange. A interpretação de λ neste contexto
está associada ao valor do aumento que o VAR sofrerá se incrementarmos o nível de
significância desejado. Diferenciando com respeito a cada uma dos elementos que
compõem R, Wilson obtém as seguintes condições de Kuhn-Tucker:
A solução final para o problema vem então dada por:
[18]
Transformando R* na variação correspondente para o valor da carteira obtemos a
estimativa do VAR.
Apesar do mérito que se lhe reconhece pela consideração do efeito da convexidade, a
implementação do modelo de Wilson coloca na prática dificuldades importantes,
especialmente quando as carteiras estão sujeitas a um elevado número de factores de
Value-at-Risk: Notas Sobre o Caso Não Linear
21
Activo subjacente
Black-ScholesAprox. Delta-Gamma
risco. De facto, a resolução do problema de programação quadrática requer uma solução
numérica que só é possível utilizando software apropriado. O problema pode inclusive
não admitir soluções, bastando para tal que, por exemplo, as matrizes não sejam
invertíveis.
Wilson sugere algumas simplificações por forma a diminuir o número de cálculos a
efectuar (e obviamente o tempo de computação necessário !) ao assumir que a matriz
[-Γ-λΣ-1]-1 é diagonal. Contudo, estas simplificações trazem atrás de si acréscimos nos
erros de medição do VAR.
2.2.2.2. APROXIMAÇÃO DELTA-GAMMA UTILIZANDO ESTIMATIVAS DO
DELTA E DO GAMMA
Como forma de contornar os problemas suscitados pelo método de Wilson, foram
surgindo na literatura metodologias distintas que se revelaram bastante mais eficientes.
O problema continua a ser o de incorporar a convexidade (ou concavidade) que
caracteriza os retornos da carteira na presença de não linearidade. A aproximação delta-
gamma constituiu um primeiro passo nessa direcção, captando as propriedades da F(∆P)
na maioria do seu domínio.
Figura [5]: Valor de uma posição longa numa opção Call, utilizando a fórmula de Black-Scholes
e a aproximação delta-gamma
Valor de umaLong Call
Value-at-Risk: Notas Sobre o Caso Não Linear
22
[ ] ( )
( )[ ] ( )[ ]ΓΣ+Σ=−∆=
ΓΣ=∆=
22
2
1
2
12
1
1 trPE
trPE
T δδµµ
µ
Uma das metodologias sugeridas propõe-se estimar o VAR directamente a partir da
função de densidade de probabilidade (f.d.p.) da posição, pelo que a este raciocínio
continua a estar implícita a hipótese de que a f.d.p. dos factores de risco é conhecida.
Se assumirmos novamente que o vector das taxas de retorno R segue uma distribuição
normal multivariada de média µ e matriz variâncias-covariâncias Σ, i.e., R~NN (µ,Σ), e
incluirmos o termo quadrático na série de Taylor, as variações no valor da carteira
passam a ser aproximadas por [15].
Nestas condições, ∆P é aproximado por uma função quadrática de N variáveis
normalmente distribuídas. Para N=1, Britten-Jones e Schaefer (1999) provam que a
distribuição da aproximação delta-gamma a ∆P, daqui em diante designada por Fdg(∆P),
é uma distribuição de χ2 não-centrada. Para N ≥ 2, estes autores provam ainda que a
aproximação delta-gamma envolve a combinação linear de variáveis χ2 independentes,
mais propriamente a soma de variáveis χ2 não centradas.
Apesar da expressão analítica da f.d.p. de Fdg(∆P) não ser conhecida, Mathai e Provost
(1992) provam que esta distribuição é equivalente à distribuição de variáveis aleatórias
normalmente distribuídas para a qual existe uma função geradora de momentos. No
nosso caso, uma vez que conhecemos a função geradora de momentos de Fdg(∆P), dada
por [15], este resultado é fundamental. Se formos capazes de determinar os parâmetros
δ, Γ e Σ, podemos facilmente calcular os momentos da distribuição, modelizar a f.d.p.
de Fdg(∆P) e inferir o valor do VAR desejado.
Se considerarmos, por hipótese, que µ=0, temos então que R~Nn (0,Σ) e os 1º e 2º
momentos de Fdg(∆P) são dados por6:
[19]
6 Para uma análise mais detalhadas sobre o cálculo dos momentos para a aproximação delta-gamma às
variações no valor da carteira recomenda-se a consulta de Britten-Jones e Schaefer (1999)
Value-at-Risk: Notas Sobre o Caso Não Linear
23
( ) µα 2ZVAR −=
O traço da matriz ΓΣ é igual à soma dos N valores próprios de ΓΣ, e o traço de (ΓΣ)2
corresponde à soma do quadrado dos valores próprios de ΓΣ. Repare-se que em
comparação com a aproximação delta-normal em que µ1=0 e µ2=δTΣδ e Γ=0, um termo
de ajustamento é adicionado quer ao valor esperado quer à variância da aproximação.
Conhecidos o valores de δ, Γ e Σ, o VAR vem dado simplesmente por:
[20]
Neste caso, Z(α) é utilizado como uma estimativa do valor crítico da f.d.p normalizada
para Fdg(∆P). como se constata, a principal dificuldade com a implementação deste
método prende-se com a obtenção de estimativas para δ e Γ. Pelo menos três soluções
foram adiantadas para resolver este problema: uma primeira, utilizada por Jamshidian e
Zhu (1996), consiste em utilizar dados de mercado para o delta e para o gamma, tendo
os autores concluído que este método permite obter estimativas para o VAR
significativamente melhores do que as produzidas pela aproximação delta-normal.
Contudo, nos casos em que a escassez de dados históricos para as posições desejadas é
importante, o método revela-se de implementação difícil.
Nestas situações , Fallon (1996) e Britten-Jones e Schaefer (1999) propõem o recurso a
procedimentos econométricos não-lineares para estimar directamente aproximações às
variações no valor da carteira, obtendo estimativas para os parâmetros. Embora a
performance deste método supere claramente a do método delta-normal, os autores
salientam ainda assim que os resultados obtidos para opções que se encontram out-of-
money são insatisfatórios.
O último método proposto, representa uma tentativa de contornar os obstáculos que se
colocam à determinação de δ e Γ para instrumentos derivados para os quais não existe
uma solução de preço fechada. Efectivamente, quando nos afastamos das tradicionais
opções call e put europeias (para as quais a fórmula de Black-Scholes é directamente
aplicável), e entramos no domínio das chamadas opções exóticas, os valores dos deltas e
dos gammas não são conhecidos explicitamente. Nestes casos, a obtenção de
estimativas para δ e Γ implica a utilização de métodos numéricos aplicados à
Value-at-Risk: Notas Sobre o Caso Não Linear
24
r
cc
t
c
S
c
S
c
rtSSc
∂∂
=∂∂
=∂∂
=∂
∂=
∂∂
=
∆+∆+∆+∆+∆=∆
κσ
νθγδ
κσνθγδ
2
2
determinação do preço dos activos. Duffie e Pan (1997) enumeram alguns desses
métodos: método das diferenças finitas, método dos fluxos estocásticos, etc.
2.2.2.3. APROXIMAÇÕES CONSIDERANDO A EXPOSIÇÃO A RISCOS
ADICIONAIS: O EFEITO DE EXPOSIÇÃO À VOLATILIDADE (EFEITO VEGA)
Para carteiras de activos que contém opções, a consideração de termos adicionais na
expansão de Taylor é essencial, Desta forma, torna-se possível incluir a exposição dos
activos derivados a outros tipos de risco para além daquele que é representado por δ e Γ
(risco de variação no preço do activo subjacente). Consideremos, a título de exemplo, a
expansão da função de preço para uma opção call do tipo europeu:
[21]
Para além do risco de activo subjacente (medido pelo δ e pelo γ), o parâmetro θ (theta)
mede, "ceteris-paribus", a variação no valor da opção provocada pela redução do
período até à maturidade, o parâmetroν (vega) mede as alterações no valor da opção
associadas às alterações inesperadas na volatilidade do activo subjacente (volatilidade
implícita) e, por último, o parâmetro κ (habitualmente designado por rho) que mede as
variações no valor da opção em resultado de alterações na taxa de juro sem risco.
Se os efeitos de θ (parâmetro não estocástico) e κ podem ser negligenciados numa
análise de prazo relativamente curto como é a do VAR, já as de alterações na
volatilidade implícita podem provocar oscilações significativas no valor da opção. A
hipótese assumida pelo modelo de Black-Scholes (B-S) é a de que a volatilidade do
activo subjacente é constante.
Efectivamente, B-S assumem que o retorno do activo segue um passeio aleatório com
"drift" e volatilidade constante, sendo este comportamento normalmente expresso em
termos de um movimento Browniano geométrico:
Value-at-Risk: Notas Sobre o Caso Não Linear
25
dzdtS
Sσµ +=
∂[22]
em que µ denota o retorno esperado do activo, σ a sua volatilidade histórica, ∂S/S a taxa
de variação proporcional no preço do activo (o retorno), e dz refere-se a um processo de
Wiener generalizado. Em suma, o modelo B-S assume que a volatilidade implícita
corresponde, simplesmente, à volatilidade de mercado.
Aquilo que se verifica na prática é que quer a volatilidade implícita quer a volatilidade
efectiva flutuam, invalidando a utilização da fórmula de B-S para obter o vega da opção.
Ainda assim, é sabido que a utilização do modelo de B-S constitui uma boa
aproximação ao verdadeiro vega, especialmente em horizontes temporais curtos.
A volatilidade implícita é uma medida do nível geral de preços das opções. Embora
tratando-se de um conceito que está associado a um modelo particular de avaliação, a
sua interpretação é simples: a volatilidade implícita dá-nos informação sobre a
estimativa «risk neutral» do desvio-padrão dos retornos do activo subjacente, ao longo
do período de vida da opção. O risco de alterações na volatilidade implícita - «vega
risk" - pode de alguma forma ser considerado o risco idiossincrático de uma posição em
opções.
Considere-se uma carteira de opções coberta contra flutuações de curto prazo no preço
do activo subjacente, i. e, «delta-hedged». A adopção desta estratégia não evita que o
investidor continue a estar exposto a dois tipos de risco que são próprios das opções: o
risco gamma e o risco vega. O risco gamma está presente, como vimos, devido à não
linearidade. Resta-nos então a sensibilidade da carteira com respeito a σ (o risco vega).
Como o intuito de ilustrar algumas das propriedades deste tipo de risco, recorreremos à
fórmula de B-S para determinar a expressão particular de ν para uma opção call ou put
sobre um activo que gera dividendos. Teremos nesse caso7:
7 Para mais detalhes recomenda-se a leitura de , por exemplo, Hull (1998) e Malz (2000).
Value-at-Risk: Notas Sobre o Caso Não Linear
26
+−+
Φ=∂∂
= −
τσ
τσ
τσ
ν τ 2ln
2
drXS
eSc
t
dt
[23]
A volatilidade implícita é representada por σ, St representa o preço do activo subjacente,
X o preço de exercício, τ o tempo remanescente até à maturidade, r a taxa de juro sem
risco para o mesmo horizonte temporal da opção, d o dividendo, juro ou qualquer outro
cash-flow esperado para o activo e, por último, Φ denota a distribuição de probabilidade
acumulada estandardizada. A expressão [23] permite-nos enumerar algumas
propriedades do vega:
i) o valor de uma opção call ou put aumenta monotonamente com a volatilidade
implícita;
ii) O valor do vega, normalmente medido em unidades monetárias, atinge o valor
máximo para opções at-the-money;
iii) O valor do vega é tanto maior quanto mais alto for o nível inicial da volatilidade
implícita;
iv) O vega é positivo para posições longas em opções call ou put, e negativo para
posições curtas;
v) Ceteris-paribus, o vega é tanto maior quanto maior for o intervalo de tempo até à
maturidade da opção.
vi) O vega é especialmente importante na avaliação de opções cujo período até à
maturidade é longo. Para estas opções, a volatilidade é a componente mais
importante do risco uma vez que quer o gamma para estas opções é normalmente
muito baixo.
Por outro lado, é também usual encontrar no mercado opções sobre o mesmo activo
(embora com distintos preços de exercício e período até à maturidade) para as quais a
volatilidade implícita não é idêntica. Estes padrões de volatilidade deram origem ao
surgimento na literatura de dois novos conceitos: o conceito de «volatility smile» e o
conceito de estrutura temporal de volatilidade.
Value-at-Risk: Notas Sobre o Caso Não Linear
27
Preço de Exercício
VolatilidadeImplícita
O volatility smile refere-se ao padrão gráfico exibido pela relação entre a volatilidade
implícita de opções com o mesmo período até à maturidade e o seu respectivo preço de
exercício.
Figura [6]: Volatility Smile
A figura [6] ilustra algumas propriedade do smile: opções que estão out-of-money
revelam normalmente volatilidade implícita superior a opções que estão at-the-money.
O conceito de estrutura temporal de volatilidade refere-se ao padrão gráfico desenhado
pela volatilidade implícita de opções com o mesmo preço de exercício, mas com
maturidade diferente.
Num artigo recente, Malz (2000) efectua uma primeira tentativa de incluir o risco vega
no cálculo do VAR. Num primeiro momento o autor ignora as complicações suscitadas
pelo smile e assume que os níveis de volatilidade implícita seguem uma distribuição
lognormal, enquanto que as variações logarítmicas na volatilidade implícita são
normalmente distribuídas com média nula e desvio-padrão constante: lnVol ~ N(0,νvol)8.
Para calcular o VAR torna-se então necessário obter uma estimativa do desvio-padrão
da volatilidade implícita (νvol). No "jargão" financeiro, o termo "vol-of-vol" é muitas
vezes utilizado para referenciar a volatilidade da volatilidade implícita.
8 Estas hipóteses correspondem aos pressupostos base da metodologia sugerida pela RiskMetrics.
Value-at-Risk: Notas Sobre o Caso Não Linear
28
σσ
ϑ ∆×∂∂
×=c
WR
( ) ( ) ...71828,2,1 =−××××= eeZWVAR volR
νσαϑ
( ) [ ]
××−=
ννσνδ
ρρ
ννσνδαϑspot
spot
volspot
volspotspotspotZWVAR
1
1
,
,
A exposição da opção ao risco vega (ϑK) é definida pela alteração no valor da posição
se a volatilidade implícita aumentar uma unidade de volatilidade9 (∆σ), isto é:
[24]
O valor inicial da posição é representado por W. Se assumirmos, por simplificação, que
o único risco de mercado corresponde ao vega, o VAR paramétrico de uma opção é
dado por:
[25]
O VAR para uma opção exposta, simultaneamente, ao risco de activo subjacente e ao
risco veja é dado por:
[26]
Em que νspot denota a volatilidade implícita no mercado spot, e ρspot,vol representa a
correlação entre os retornos do activo subjacente e as variações logarítmicas na
volatilidade implícita.
Infelizmente, e à semelhança do risco de activo subjacente, a exposição ao risco de
volatilidade é também um risco não linear pelo que os métodos paramétricos produzem
estimativas enviesadas para o VAR. A metodologia mais eficiente é, mais uma vez, a
simulação de Monte Carlo.
A importância do efeito vega não se esgota nas alterações no nível da volatilidade
implícita. Tal como refere Malz, há ainda que levar em linha de conta as alterações na
curvatura e no enviesamento do «volatility smile», as alterações da volatilidade ao
longo do smile, as alterações na inclinação da estrutura temporal de volatilidade, e as
deslocações ao longo da estrutura à medida que a opção tende para a maturidade10.
9 As unidades de volatilidade são habitualmente chamadas de vols.
Value-at-Risk: Notas Sobre o Caso Não Linear
29
2.2.2.4. APROXIMAÇÕES BASEADAS EM MOMENTOS DE ORDEM SUPERIOR
A procura de soluções mais eficientes na estimação do VAR para posições não lineares,
conduziu os investigadores a incorporarem momentos de ordem superior da distribuição
de ∆P como aproximação ao cálculo dos percentis desejados.
Vimos atrás que para uma posição longa numa opção call, a presença de um gamma
positivo tornava a distribuição dos seus retornos assimétrica positiva. Nestes casos,
vimos que o verdadeiro VAR era inferior ao VAR sugerido pela adopção do
pressuposto de normalidade. Vimos também que o enviesamento eliminava a simetria
do intervalo de confiança.
Por outro lado, na presença de não linearidade a aproximação delta-gamma transforma
os próprios momentos da distribuição de ∆P. Esta conclusão salta à vista se repararmos
nas expressões analíticas para os 4 primeiros momentos da distribuição de Fdg(∆P), e
para o retorno do activo subjacente, expressões dadas pela tabela [1]:
Carteira Activo Subjacente
Média µ1=E(∆P)=0.5tr(ΓΣ) 0
Variância µ2=E[(∆P-µ1)2]=δ'Σδ+0.5tr(ΓΣ)2 Σ
Enviesamento µ3=E[(∆P-µ1)3]=3δ'ΣΓΣδ+tr(ΓΣ)3 0
Achatamento µ4=E[(∆P-µ1)4]=12δ'Σ(ΓΣ)2δ+3tr(ΓΣ)4+3µ2
2 3µ22
Tabela [1]: Determinação dos 4 primeiros momentos para o activo subjacente para aproximação
delta-gamma a ∆P
A observação atenta desta tabela permite-nos retirar algumas conclusões importantes:
i) Mesmo que se assuma a hipótese de normalidade e média nula para a
distribuição do activo subjacente, o valor esperado para a carteira não coincidirá,
excepto nos casos em que Γ é nulo. Mais ainda, o valor esperado da carteira
dependerá do sinal de Γ, isto é, dependerá do facto de as posições detidas serem
curtas ou longas.
10 Para uma análise mais detalhada destes efeitos veja MALZ (2000)
Value-at-Risk: Notas Sobre o Caso Não Linear
30
ii) A variância da carteira e do activo divergem por um factor de ajustamento
[δ'δ+0.5tr(Γ2Σ)];
iii) O papel desempenhado pelo sinal de Γ no tipo de enviesamento (positivo ou
negativo) é realçado. Em termos genéricos, posições curtas (longas) em opções
têm um gamma negativo (positivo), pelo que a distribuição dos retornos exibirá
um enviesamento negativo (positivo).
Numa tentativa de ultrapassar as deficiências da aproximação delta-gamma, surgiram na
literatura duas abordagens distintas. Numa primeira tentativa, Zangari (1996a) sugere a
aproximação directa do percentil de Fdg(∆P) através de um procedimento que corrigisse
as distorções pelo enviesamento e pelo achatamento no valor crítico da distribuição
normal - Z(α).
O segundo método, conhecido por «moment matching», consiste em fazer coincidir os
momentos de Fdg(∆P) com os momentos de uma distribuição conhecida. Neste domínio,
Zangari (1996b) propôs a utilização da família de distribuições Johnson para fazer
convergir os primeiros 4 momentos de Fdg(∆P). Mais tarde, Britten-Jones e Schaefer
(1999) avançam com a utilização da distribuição de χ2 para fazer o «match» dos
primeiros 3 momentos de Fdg(∆P). num artigo recente, Jahel, Perraudin e Sellin (1999)
recorrem à distribuição normal para fazer convergir os 2 primeiros momentos de
Fdg(∆P).
2.2.2.4.1. APROXIMAÇÕES BASEADAS NA CORRECÇÃO DOS MOMENTOS
A estimação directa dos percentis de Fdg(∆P) utilizando momentos de ordem superior
foi inicialmente sugerida por Zangari (1996a). Este tipo de abordagem está baseado no
princípio estatístico de que qualquer distribuição para a qual sejam conhecidos os
momentos pode ser descrita em termos dos parâmetros de outra.
O objectivo é o de substituir os valores críticos do intervalo de confiança da distribuição
normal - Z(α) -, por aproximações aos valores críticos de Fdg(∆P) que incorporem as
características de enviesamento e achatamento da distribuição. Em termos formais, o
intervalo de confiança aproximado para os retornos da carteira virá dado por:
Value-at-Risk: Notas Sobre o Caso Não Linear
31
( ) ( )
−++=
≈≈
µαµµαµ 1111 1, ZZC ajust
( ) ( ) ( )[ ] ( ) ( )[ ] ( ) ( )[ ]ρααρααρααα 23
34
33
2 5236
13
24
11
6
1zzzzzzZ −−−+−+=
≈
322
4423
2
33 −==
µ
µρ
µ
µρ
( ) µµα 12 +×=≈
ZVAR
[27]
em que µ1 e µ2 representam, respectivamente, o 1º e 2º momentos de Fdg(∆P). Z(α) e
Z(1-α) denotam as aproximações aos valores críticos da distribuição estandardizada de
∆P. O método utilizado para obter Z(α) e Z(1-α) assenta numa aproximação analítica
do percentil desejado, recorrendo à expansão de Cornish-Fisher (CF). Zangari propõe
uma aproximação utilizando os 4 primeiros momentos de Fdg(∆P), sendo que nesse caso
a fórmula de CF para o percentil desejado de (∆P-µ1)/(µ2)0.5 é dada por:
[28]
em que z(α) denota o percentil respectivo da distribuição normal estandardizada, e ρ3 e
ρ4 são medidas, respectivamente, do enviesamento e do achatamento de Fdg(∆P). Os
valores de ρ3 e ρ4 são obtidos da seguinte forma:
[29]
Calculado o percentil ajustado, o VAR é dado simplesmente por:
[30]
Este método é de fácil aplicabilidade, sendo que em termos computacionais apenas se
torna necessário estimar os momentos de Fdg(∆P) e calcular ρ3 e ρ4. Por outro lado,
saliente-se que embora Zangari tenha efectuado uma aproximação baseada apenas nos 4
primeiros momentos, a expansão de Cornish-Fisher permite a utilização de momentos
de ordem superior11.
11 A título de exemplo, Pischler e Selitsch (1999) estenderam a análise utilizando os primeiros 6momentos de Fdg(∆P).
Value-at-Risk: Notas Sobre o Caso Não Linear
32
Embora este método represente um avanço significativo na obtenção de estimativas para
o VAR (quando comparado, por exemplo, com a aproximação delta-normal), o próprio
Zangari (1996a) aponta algumas das suas fraquezas. A sua principal debilidade reside
no facto de o método se basear em estimativas dos parâmetros ρ3 e ρ4 obtidas a partir de
amostras de dados históricos e não com base nos verdadeiros parâmetros, que são
desconhecidos.
Como forma de ultrapassar estas dificuldades, o autor sugere o recurso a um
procedimento de simulação parcial.
2.2.2.4.2. APROXIMAÇÕES BASEADAS NA CONVERGÊNCIA DE MOMENTOS
Este tipo de metodologia surgiu como forma de contornar a impossibilidade de obter,
por integração, expressões analíticas fechadas para a f.d.p. de Fdg(∆P). Em termos
genéricos, a determinação do VAR não requer o conhecimento integral de Fdg(∆P)
bastando para tal que apenas algumas das suas características sejam determináveis.
Conhecidos os momentos de Fdg(∆P), este método procura fazer a sua convergência
com os momentos de uma distribuição conhecida.
Britten-Jones e Schaefer (1999) preconizam uma aproximação a Fdg(∆P) através de uma
distribuição de χ2 que faça o «matching» dos primeiros 3 momentos. Esta metodologia
revelou algumas dificuldades nos casos em que a carteira é simultaneamente côncava e
convexa com respeito ao activo subjacente. Ao incorporar apenas os 3 primeiros
momentos, esta solução ignora ainda o problema das "fat tails", normalmente medido
pelo 4º momento da distribuição.
Num artigo recente, El-Jahel, Perraudin e Sellin (1999) tentam aproximar Fdg(∆P)
através de uma distribuição normal que faça o «matching» dos primeiros 2 momentos.
A justificação para o recurso à distribuição normal é debatida inicialmente por Finger
(1997), que argumenta que embora os retornos de uma opção (considerada
individualmente) exibam não-normalidade, os retornos de uma carteira de opções
evidenciarão a desejada propriedade de normalidade, desde que os factores de risco
Value-at-Risk: Notas Sobre o Caso Não Linear
33
−
+=d
cRfbaRP
n .
( )
( )
−
+=
+<<
−+−
+=
−
−
+=
− itadaNãod
cRhsinaR
LimitadadcRcRdc
cRbaR
normald
cRbaR
Pn
P
P
Pn
Pn
lim
,)(,log.
loglog.
1
subjacente estejam não correlacionados. Trata-se, no fundo, de aplicar o Teorema do
Limite Central a uma carteira de opções.
Esta conclusão é contestada por Pischler e Selitsch (1999), que avançam com resultados
analíticos que sustentam que, mesmo nos casos em que os factores de risco são não
correlacionados, a distribuição dos retornos de uma carteira de opções não converge
para a distribuição normal. Argumentam ainda que, nalguns casos, a existência de
correlação entre os factores de risco não impede que a convergência de ∆P para a
distribuição normal seja possível.
A última metodologia avançada neste domínio é sugerida por Zangari (1996b), que
propõe a utilização de uma das distribuições de Johnson para fazer convergir os 4
primeiros de Fdg(∆P). Esta procedimento requer quer os retornos da carteira (RP) sejam
transformados em retornos de uma distribuição normal estandardizada. A transformação
geral sugerida por Johnson é a seguinte:
[31]
em que f(.) é uma função monótona e a, b c e d são parâmetros determinados pela
convergência dos momentos. Para além da distribuição normal, a família de
distribuições de Johnson engloba ainda as seguintes transformações:
[32]
A escolha da transformação apropriada depende da raiz quadrada do rácio entre os
terceiro e o quarto momentos de Fdg(∆P). As estimativas de a, b c e d são obtidas
recorrendo a algoritmos iterativos.
Value-at-Risk: Notas Sobre o Caso Não Linear
34
µµ 21 )( ×+=≈
johZVAR
( ) ( )∫ −==+∞
∞−1, idVVfeiuM iuV
( ) ( ) ( ) ( )
ΣΣΣ−ΣΓΣ−= −−− δδ uuIuuIuM T 1121
22
1exp2
( ) ( )∫=+∞
∞−
−
duiuMeVfiuV
π2
1
Determinados estes parâmetros, torna-se possível aproximar qualquer percentil da
distribuição, dado o percentil respectivo da distribuição normal estandardizada. Nestas
condições o VAR é dado simplesmente por:
[33]
2.3.7. APROXIMAÇÕES ATRAVÉS DA FUNÇÃO GERADORA DE MOMENTOS
Mina e Ulmer (1999) avançam com uma metodologia alternativa para obter uma
expressão para a f.d.p. de Fdg(∆P), metodologia esta baseada na função geradora e
momentos (f.g.m.) para a aproximação delta-gamma. Em termos genéricos, a f.g.m.,
M(u), de uma variável aleatória V qualquer está relacionada com a sua f.d.p. f(V) da
seguinte forma:
[34]
Se conhecermos a f.g.m. podemos invertê-la por forma a obter a f.d.p.. Mina e Ulmer
recorrem à Transformada de Fourier para inverter a f.g.m. e obter a f.d.p.
[35]
A f.g.m. para a aproximação delta-gamma obtida por estes autores é dada por:
[36]
Invertendo [36] por recurso à transformada de Fourier e integrando no sentido de obter a
f.d.p. acumulada, torna-se possível determinar o VAR seleccionando o percentil
desejado.
Value-at-Risk: Notas Sobre o Caso Não Linear
35
3. MÉTODOS NÃO-PARAMÉTRICOS OU DE SIMULAÇÃO
Em oposição aos denominados métodos paramétricos, que baseiam o cálculo do VAR
nos parâmetros que caracterizam a distribuição de probabilidade dos retornos da carteira
(matriz variâncias-covariâncias, delta, gamma, momentos, etc.), os métodos não-
paramétricos constituem uma alternativa na obtenção de estimativas para o VAR.
Os métodos de simulação consistem na geração de um grande número de cenários para
os factores de risco subjacente, numa tentativa de inferir a forma da f.d.p. para os
retornos da carteira.
A implementação deste tipo de métodos no cálculo obedece às seguintes etapas:
i) Geração de cenários para os factores de risco subjacente. Existem variadíssimas
metodologias para responder a este problema, sendo que no contexto do VAR é
normal agrupá-los em duas categorias principais: métodos de simulação
histórica e métodos de simulação de Monte Carlo. Existem ainda algumas
técnicas paralelas de «backtesting» como a realização de «Stress Tests»;
ii) Avaliação da carteira - para cada um dos cenários gerados em i) é necessário
avaliar a o valor da carteira resultante. Este procedimento exige, em primeiro
lugar, que se identifiquem todas as posições e todos os factores de risco a que
carteira está sujeita. Em segundo lugar, é imprescindível dispor de funções de
preço para cada um dos activos.
Por ultimo, e num claro compromisso entre a fiabilidade das estimativas e as
exigências em termos computacionais, é possível alternar entre um
procedimento de reavaliação integral e um procedimento de reavaliação baseado
numa aproximação (delta-normal, delta-gamma, etc.);
iii) Tabulação dos resultados da simulação e delimitação do VAR.
Value-at-Risk: Notas Sobre o Caso Não Linear
36
3.1. MÉTODO DE SIMULAÇÃO HISTÓRICA
3.1.1. Caracterização e Metodologia
Em alternativa à necessidade de formular hipóteses sobre a forma como os factores de
risco se distribuem, a ideia por detrás do Método de Simulação Histórica (MSH) é a de
utilizar os retornos passados dos factores de risco como forma de gerar cenários, simular
a f.d.p para os retornos da carteira, e estimar o VAR.
Trata-se, em síntese, de assumir que o investidor detém a carteira de activos actual por
um período de tempo correspondente ao da dimensão da base de dados históricos
utilizada para construir os cenários. Tal significa que se assume, implicitamente, que a
distribuição dos retornos verificada no passado constitui uma boa aproximação aquilo
que se espera venha a ser o seu comportamento no futuro.
Para aplicar esta metodologia, é necessário observar os seguintes passos:
i) Identificar os factores de risco que afectam a carteira actual;
ii) Construir a base de dados com os preços e os retornos dos factores de risco
identificados em i);
iii) Definir uma janela de observação fixa para as observações passadas a utilizar na
construção dos cenários (Ex. últimos 250 dias de transacção). A delimitação de
uma janela fixa pode todavia acarretar importantes erros de medição e enviesar
as estimativas obtidas para o VAR. A principal causa destes erros reside no
chamado «roll-off effect», efeito este que corresponde ao facto de, em cada novo
dia, ser necessário substituir a observação mais antiga pela observação mais
recente. Este procedimento aparentemente inofensivo pode significar que
cenários correspondentes a movimentos significativos (principalmente os
adversos) nos factores de risco são retirados da amostra, descaracterizando a
verdadeira distribuição de probabilidades.
Uma segunda justificação para os erros de amostragem prende-se com a
possibilidade de os cenários gerados a partir de uma janela fixa corresponderem
a cenários em que o factor de risco experimentou uma tendência líquida
ascendente ou descendente. Quando tal acontece, as estimativas dos retornos da
Value-at-Risk: Notas Sobre o Caso Não Linear
37
carteira incorporarão esta tendência, violando o pressuposta base da
normalidade.
Uma solução para este problema é sugerida por Holton (1998), Dowd (1998) e
outros e passa por utilizar os denominados «mirror cenários». Esta tecnica é
explicitada de forma sucinta na secção 3.1.4. Em alternativa à utilização da
janela fixa, é possível utilizar o procedimento de «bootstrap», método que
aprofundaremos na secção 3.1.3.;
iv) Gerar cenários para os factores de risco a partir da amostra de dados históricos;
v) Reavaliar o valor da carteira (integralmente ou de forma aproximada), obtendo
uma distribuição de hipotéticos retornos para a carteira;
vi) Transformar os retornos em ganhos e perdas para a carteira;
vii) Construir o histograma para as perdas e ganhos e, a partir dele, seleccionar o
percentil corresponde ao VAR desejado
3.1.2. PRINCIPAIS VANTAGENS E DESVANTAGENS DO MSH
O MSH apresenta um conjunto de características que o tornam especialmente atractivo e
eficaz no tratamento dos problemas suscitados pela não normalidade e pela não
linearidade. A principal vantagem deste método é a sua simplicidade de implementação,
uma vez que na prática pouco mais exige do que a compilação de uma base de dados
histórica, procedimento que a generalidade das instituições que gerem grandes carteiras
de activos já executam no âmbito, por exemplo, do «mark-to-market» diário das suas
posições.
A segunda característica apelativa deste método está relacionada como facto de este não
depender de quaisquer hipótese de partida sobre a distribuição dos retornos dos factores
de risco, ou seja, não se torna necessário especificar «ex-ante» a opção pela distribuição
normal, pela "t de Student", etc. , ou ainda de admitir que os retornos estão não
correlacionados.
Em suma, não é preciso calcular volatilidades e outros parâmetros para a distribuição
uma vez que estas características já estão reflectidas na base de dados, acomodando o
método qualquer distribuição.
Value-at-Risk: Notas Sobre o Caso Não Linear
38
Por outro lado, ao basear-se em dados reais o MSH é consistente com a presença de não
linearidades na carteira, sendo aplicável a qualquer activo. Ao contrário dos métodos
paramétricos, o MSH incorpora facilmente todo o tipo de risco: risco de activo
subjacente (delta e gamma), risco de volatilidade (vega), efeitos de diversificação do
risco, etc.
Ao permitir um reavaliação completa da carteira em cada cenário, fornecendo uma
estimativa da distribuição dos retornos da carteira, o MSH providencia outras
indicações importantes para além do próprio VAR. De facto, é possível extrair
estatísticas importantes sobre as propriedades da distribuição: coeficientes de
enviesamento e achatamento, importância relativa das "caudas", etc.
Apesar das suas múltiplas virtudes, o MSH é alvo de um conjunto importante de
críticas. Para além dos já mencionados problemas com o «roll-off-effect» e com a
existência de tendências implícitas para os factores de risco na janela de observação, o
MSH defronta, à partida, uma limitação essencial - a necessidade de dados históricos.
Para alguns activos financeiros, especialmente produtos cuja presença no mercado é
relativamente recente, podem não existir dados históricos suficientes (ou podem nem
sequer existir dados!), tornando a aplicação do método impossível.
A principal crítica apontada a este método diz respeito, todavia, aos erros de
especificação que resultam de se utilizar uma única amostra de dados históricos para
obter estimativas do VAR. Assume-se, implicitamente, que o comportamento passado
dos factores de risco é suficiente para fornecer uma estimativa correcta dos riscos
futuros.
Num contexto em que a evidência empírica dos mercados sustenta uma clara situação
de não estacionaridade, assumir que os riscos enfrentados no futuro são semelhantes aos
verificados no passado é uma hipótese bastante forte, e pode conduzir a resultados
distorcidos. Os defensores do MSH argumentam que a utilização de janelas de
observação mais alargadas (com mais dados) fará reduzir o erro de convergência.
Contudo, ao fazê-lo, correm claramente o risco de os dados antigos reflectirem de forma
deficiente as actuais condições de mercado.
Value-at-Risk: Notas Sobre o Caso Não Linear
39
O MSH revela ainda dificuldades em lidar com o problema de heterocedasticidade uma
vez que assume que os dados históricos são tratados como provindo de uma distribuição
de probabilidades que é fixa no tempo e não de uma que oscila no tempo.
Um outro aspecto criticável corresponde ao facto de o método ponderar de forma igual
todas as observações que fazem parte da janela, i.e., atribui a mesma importância a
observações recentes e a observações bastante afastadas no tempo, isto é claro, sempre
com base no pressuposto de que a f.d.p. dos factores de risco é fixa no tempo. A forma
de ultrapassar esta dificuldade passa por utilizar os chamados cenários ponderados, de
que falaremos na secção 3.1.6.
Uma outra metodologia adiantada neste domínio foi proposta por Duffie e Pan (1997),
que também explicitaremos de forma resumida.
A última debilidade importante do MSH prende-se com a incapacidade que este revela
para incorporar o risco associado a eventos específicos, eventos que não ocorreram no
passado mas que são esperados para um futuro próximo (Ex. eventos políticos,
alterações de regime cambial, monetário, etc.). Saliente-se que esta limitação é
partilhada por todos os métodos de simulação.
3.1.3. PROCEDIMENTO DE «BOOTSTRAP»
como forma de eliminar o «roll-off-effect» criado pela delimitação de uma janela fixa
de observações para os dados históricos utilizados na geração dos cenários, Duffie e Pan
(1997), Dowd (1998) e Jorion (1997) entre outros, sugerem o recurso ao chamado
procedimento de «bootstrap».
O método de «bootstrap» é também uma técnica que consiste na geração de cenários
para os factores de risco a partir dos dados históricos. Contudo, em vez de se obedecer à
ordenação histórica das observações, utiliza-se um método de amostragem aleatória
com reposição. Uma vez que a amostragem é aleatória e com reposição, o método
possibilita a construção de tantos cenários quantos os desejados, o que permite de certa
forma ultrapassar alguns problemas de dimensão da amostra nos caso em que a base de
dados é curta.
Value-at-Risk: Notas Sobre o Caso Não Linear
40
O pressuposto crítico do método de «bootstrap» é o de que os retornos dos factores de
risco são independentes (não correlacionados) ao longo do tempo, hipótese esta que
quando violada torna o procedimento de amostragem com reposição uma fonte de erro
de amostragem no cálculo do VAR.
Embora revele algumas vantagens em relação a abordagem tradicional, o método de
«bootstrap» enferma de quase todas as suas limitações do MSH.
3.1.4. UTILIZAÇÃO DE «MIRROR SCENARIOS»
Como forma de eliminar o problema da tendência implícita subjacente à utilização do
MSH no cálculo do VAR, Holton (1998) sugere a utilização dos chamados «mirror
scenarios». O procedimento é bastante simples e assenta nos seguintes passos:
i) Geram-se os cenários a partir dos dados históricos;
ii) Para cada um destes cenários, multiplica-se o retorno do factor de risco por (-1)
por forma a obter o seu simétrico ;
iii) Aplica-se este retorno fictício ao valor da posição actual, obtendo um novo
«mirror scenario»;
Esta técnica permite não apenas eliminar o problema da tendência implícita, como
duplicar o número de cenários utilizados para estimar o VAR reduzindo, desta forma, o
erro de convergência.
3.1.5. METODOLOGIA de DUFFIE e PAN
Devido à elevada presença de não-estacionaridade, Duffie e Pan (1997) propõem um
técnica que, no contexto da utilização do MSH no cálculo do VAR, permite modificar
os cenários históricos para os factores de risco por forma a que estes reflictam de
maneira adequada as actuais condições de mercado.
Utilizando notação matricial, seja Rh a matriz para os cenários históricos obtidos para
cada um dos factores de risco. A matriz de variâncias-covariâncias histórica é
Value-at-Risk: Notas Sobre o Caso Não Linear
41
RC
CR h
h
aa =
representada por Ch, mas as actuais condições de mercado diferem substancialmente,
dando lugar a uma matriz actualizada Ca, em que Ca pode ser obtida, por exemplo,
utilizado estimativas de volatilidade implícita extraídas dos preços das opções.
Neste contexto, a obtenção de cenários que reflictam as actuais condições de mercado
(Ra) a partir de cenários históricos (Rh) é conseguida mediante a seguinte transformação:
[41]
3.1.6. UTILIZAÇÃO DE CENÁRIOS PONDERADOS
Uma outra forma de conseguir que os cenários construídos a partir dos dados históricos
espelhem as actuais condições de mercado passa pela utilização do chamado método dos
cenários ponderados, descrito por Dowd (1998), Holton (1998) e outros. O objectivo é
simplesmente o de atribuir maior importância aos cenários mais recentes, descontando
fortemente os cenários mais afastados no tempo.
Tal significa que qualquer observação terá o seu efeito máximo sobre o VAR
imediatamente após a sua ocorrência, reduzindo-se a sua influência partir de então, de
forma gradual, até se desvanecer completamente. Esta técnica é aplicável quer no
contexto do MSH quer no contexto do método de simulação de Monte Carlo.
O esquema de ponderação proposto permite inclusive que se alterem as características
das distribuição dos retornos dos factores de risco, isto por forma a que esta revele as
propriedades desejadas.12
12 Para mais detalhes sobre esta técnica recomenda-se a leitura de Holton (1998).
Value-at-Risk: Notas Sobre o Caso Não Linear
42
3.2. MÉTODOS DE SIMULAÇÃO DE MONTE CARLO
A metodologia do Método de Simulação do Monte Carlo (MSMC) aplicada ao cálculo
do VAR é fundamentalmente semelhante ao MSH, sendo que a principal diferença
reside na forma como são gerados os cenários para os factores de risco. Enquanto que o
MSH constrói cenários com base nos dados históricos, o MSMC gera cenários de forma
aleatória, utilizando os dados históricos apenas para determinar os parâmetros que
caracterizam a distribuição dos factores de risco (volatilidades, correlações, etc.).
A ideia base é a de simular um grande número de vezes o processo estocástico que se
julga melhor explica o comportamento de cada um dos factores de risco, reavaliando,
em cada cenário, o valor da carteira. Repetindo este processo sucessivamente, prova-se
que a distribuição dos retornos da carteira convergirá para a sua " verdadeira
distribuição. Recorde-se, a propósito, que a verdadeira distribuição é desconhecida.
A implementação do MSMC é muito semelhante à do MSH:
i) Identificação das posições em cada um dos activos;
ii) Selecção do modelo que, se julga, melhor explica cada um dos factores de risco;
iii) Escolhido o modelo, é necessário estimar os seus parâmetros. Tal é conseguido
recorrendo aos dados históricos;
iv) Geração, através de mecanismos de produção de números aleatórios, de cenários
para os factores de risco;
v) Em cada cenário a carteira é reavaliada, sendo uma vez mais possível escolher
entre a reavaliação completa (mais exigente em termos computacionais) e a
reavaliação com base numa aproximação;
vi) A distribuição das perdas e ganhos da carteira é tabulada, sendo então possível
ler directamente o valor do VAR que corresponde ao nível de confiança
desejado.
A metodologia de simulação de Monte Carlo consiste, em resumo, na geração aleatória
de cenários para os factores de risco, cenários estes que devem, contudo, ser
consistentes com a matriz de variâncias-covariâncias histórica.
Value-at-Risk: Notas Sobre o Caso Não Linear
43
O MSMC é especialmente indicado nos casos em que a presença de não linearidade é
acentuada (Ex. Opções). Para as chamadas "opções exóticas", o MSMC é muitas vezes
o único método eficiente de obter preços e estimar os seus riscos particulares: delta,
gamma, theta, veja, rho, etc. O MSMC é ainda especialmente aconselhado quando é
necessário estimar o VAR para posições complexas nos activos subjacentes (Ex.
combinações de activos derivados), e no contexto de problemas multidimensionais em
que as carteiras estão expostas a um elevado número de factores de risco.
A sua principal limitação está relacionada com as exigências computacionais e de
tempo. Como forma de ultrapassar este problema, são sugeridas na literatura «Quasi-
Monte Carlo Approaches» (metodologias de simulação parcial), metodologias de
simulação de cenários (Jamshidian e Zhu, 1997 e Duffie e Pan, 1997), o recurso à
Análise dos Componentes Principais (Frye, 1997 e Singh, 1997).
A segunda principal fraqueza deste método diz respeito ao facto de este se basear num
determinado processo estocástico para modelizar os factores de risco, correndo-se o
risco de a verdadeira distribuição dos retornos ser imperfeitamente captada pelo modelo.
Um fonte adicional de erro de especificação reside no facto de as estimativas de
volatilidade e correlação serem obtidas a partir de uma amostra limitada de dados
históricos, encerrando obviamente erros de amostragem. Este último aspecto é deveras
importante no contexto da já mencionada situação de não estacionaridade dos mercados.
Outra debilidade apontada a este método corresponde às imperfeições introduzidas na
geração de cenários pela utilização do próprio mecanismo de produção de números
aleatórios.
Por último, a implementação do MSMC no contexto de carteiras com múltiplos activos
exige o recurso a uma decomposição do Cholesky da matriz de variâncias-covariâncias.
O problema reside no facto de esta decomposição apenas ser possível nos casos em que
a matriz é definida positiva ( não singular), o que nem sempre acontece.
Value-at-Risk: Notas Sobre o Caso Não Linear
44
4. PRINCIPAIS CONCLUSÕES
A selecção da metodologia a utilizar na obtenção de estimativas do VAR nos casos em
que os retornos da carteira estão relacionados de forma não linear com os factores de
risco subjacente representa, claramente, um compromisso entre, por um lado, a
fiabilidade dos resultados desejada e, por outro, os custos computacionais induzidos por
algumas metodologias, principalmente as metodologias de simulação.
Não nos podemos esquecer que a crescente investigação no domínio dos métodos
paramétricos só se justifica porque os métodos de simulação se revelaram mais
eficientes mas extremamente exigentes em termos computacionais. O tratamento da não
linearidade pelos métodos de simulação é teoricamente mais consistente do que o
proporcionado pelos métodos paramétricos. Apesar disto, não existe ainda evidência
suficiente que nos permita defender a superioridade de um ou de outro método.
Aquilo que se constata na realidade é que os vários métodos são utilizados em
simultâneo e são, de alguma forma complementares. A avaliação rigorosa do verdadeiro
risco de mercado requer métodos cada vez mais sofisticados. Não dispensa, em nossa
opinião, um capital de experiência por parte dos agentes de mercado na interpretação
das condições actuais e futuras do mercado.
O estimação de um valor para o VAR não deve, a nosso ver, constituir o único
referencial para o controlo e gestão dos riscos de mercado
Value-at-Risk: Notas Sobre o Caso Não Linear
45
REFERÊNCIAS
Aragonés, J. e C. Blanco e K. Dowd (2000) "Learning Curve Extreme ValueVAR",Derivatives Week, March 6
Barone-Adesi e outros (1998) "Don't Look Back", Risk, Aug. 1998
Britten-Jones, M. e S. Schaefer (1999), "Non-Linear Value-at-Risk", European FinanceReview, Vol. 2, Issue 2
Dowd, K. (1998), "Beyond Value-at-Risk: The New Science of Risk Management",Wiley Frontiers in Finance
Dowd, K. (2000), "Assessing VAR Accuracy", Derivatives Quarterly, Spring 2000
Duffie, D. e J. Pan (1997), "Na Overview of Value-at-Risk", Journal of Derivatives, 4, 3(Spring 1997), pp. 7-49
El-Jahel, L. W. Perraudin e P. Sellin (1999), " Value-at-Risk for Derivatives", Journalof Derivatives, pp. 7-26
Embrechts, P. S. Resnick e G. Samorodnitsky (1998), "Living on the Edge", Risk, Jan1998
Fallon, W. (1996), "Calculating Value-at-Risk", Wharton School financial InstitutionsCenter, Working Paper 96-49
Finger, C. (1997), " When is a portfolio of Options Normally distributed?, RiskMetricsMonitor, Third Quarter, pp. 33-41
Frye, J. (1997) "VAR: Understanding and Applying Value at Risk", London RiskPublications *
Garbade, K. (1986), " Assessing Risk and Capital Adequacy for Treasury Securities",Topics in Money And Securities Markets, Bankers Trust *
Garman, M. (1996) "Improving on VAR", Risk, vol 9 (5), May 1996
Garman, M. (1997) "Taking VAR to Pieces", Risk, vol 10 (10), October 1997
Glauber, R. (1998) " Relative Values", Risk, January 1998
Holton, G. (1997), " Coled form Value-at-Risk", G. Holton Resarch, ContingencyAnalysis
Holton, G. (1998), " Simulating Value-at-Risk", Risk, 11 (5) e The Journal ofPerformance Measurement, 3 (1), pp. 11-21
Hull, J. (1998) " Options, Futures and Other Derivatives", fourth edition, Prentice-Hall,
Value-at-Risk: Notas Sobre o Caso Não Linear
46
Hull, J. e A. White (1998) " Value at Risk when Daily Changes in Market Variables arenot Normally Distributed", Journal of Derivatives, Spring 1998
Iacomo, F. (1996) "Translating VAR using ∉T", Derivatives Week, Oct. 14 1996
J.P. Morgan (1995), "RiskMetrics Technical Manual", J.P, Morgan Bank, FourthEdition, New York
Jamshidian, F. e Y. Zhu (1996), "Scenario Simulation Model for Risk Management",Capital Market Strategies 12 (December) *
Jorin, P. (1997) "Value at Risk: The New Benchmark for Controlling Derivatives Risk",Irwin Professional, Chicago
Lüthi, H. (1997) "Factor at Risk", RiskLab: Technical Report, Jan. 1997
Malz, A. (2000), "Vega Risk and the Smile", The RiskMetrics Group, WP 99-06
Mathai, M. e S. Provost (1992), "Quadratic Forms in Random Variables: Theory andApplications, New York, Marcel Dekker *
Mina, J. e A. Ulmer (1999), " Delta-Gamma Four Ways", WP, RiskMetrics Group
Pischler, S. e K. Selitsch (1999), "A comparison of Analytical VAR Methodologies forPortfolios that Include Options", Vienna University - Department of Finance
Singh, M. (1997) "Value at Risk Using Principal Components Analysis", The Journal ofPortfolio Management, Fall 1997, pp. 101-112
Wilson, T. (1994), "Plugging the GAP", Risk, 7, 10 *
Zangari, P. (1996a), " A VAR Methodology for Portfolios that include Options",Riskmetrics Monitor, First Quarter, pp. 4-12
Zangari, P. (1996b), " How Accurate is the Delta-Gamma Methodology ", RiskmetricsMonitor, Third Quarter, pp. 20-32
Zangari, P. (1996c), " Na improved Methodology for Measuring VAR", RiskmetricsMonitor, Second Quarter, pp. 7-25
* Referências não consultadas