DESENVOLVIMENTO DE MODELO DE RISCO DE PORTFÓLIO …
Transcript of DESENVOLVIMENTO DE MODELO DE RISCO DE PORTFÓLIO …
DESENVOLVIMENTO DE MODELO
DE RISCO DE PORTFÓLIO PARA
CARTEIRAS DE CRÉDITO A
PESSOAS FÍSICAS
Fabio Wendling Muniz de Andrade
DESENVOLVIMENTO DE MODELO DE
RISCO DE PORTFÓLIO PARA CARTEIRAS
DE CRÉDITO A PESSOAS FÍSICAS
Banca examinadora:
Prof. Orientador Abraham Laredo Sicsú
Prof. João Carlos Douat
Prof. Boris Krank Alves
Prof. Heber José de Moura
Prof. Eduardo de Almeida Prado
FUNDAÇÃO GETÚLIO VARGAS
ESCOLA DE ADMINISTRAÇÃO DE EMPRESAS DE SÃO PAULO
FABIO WENDLING MUNIZ DE ANDRADE
DESENVOLVIMENTO DE MODELO DE RISCO DE PORTFÓLIO
PARA CARTEIRAS DE CRÉDITO A PESSOAS FÍSICAS
Tese apresentada ao Curso de Doutorado da
FGV/EAESP
Área de Concentração: Controle, Finanças e
Contabilidade como requisito para a obtenção do título
de doutor em Administração de Empresas.
Orientador: Prof. Abraham Laredo Sicsú
SÃO PAULO
2004
DE ANDRADE, Fabio Wendling Muniz. Desenvolvimento de Modelo de Risco de Portfólio para Carteiras de Crédito a Pessoas Físicas. São Paulo: EAESP/FGV, 2004. 196 p. (Tese de Doutorado apresentada ao Curso de Doutorado em Administração de Empresas da EAESP/FGV, Área de Concentração: Controle, Finanças e Contabilidade).
Resumo: Esta Tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.
Palavras-Chaves: Crédito ao Consumidor; Administração de Risco; Modelo de Portfólio; Perda de Crédito; Simulação de Monte Carlo; Função de Cópula; Segmentação; Bootstrap; Ajuste de Distribuições; CreditRisk+.
Agradeço à SERASA S.A. a colaboração que foi indispensável para a
conclusão deste trabalho.
Dedico o resultado deste trabalho à minha esposa Sandra e à minha filha
Victória que me apoiaram em todos os momentos.
SUMÁRIO
INTRODUÇÃO.........................................................................................................................................10
1 - MODELOS DE RISCO DE CRÉDITO ...........................................................................................15
1.1 - O CONCEITO DE RISCO DE CRÉDITO ................................................................................................15
1.2 - TAXONOMIA DE MODELOS DE RISCO DE CRÉDITO ...........................................................................18
1.3 - MODELOS DE CLASSIFICAÇÃO DE RISCO .........................................................................................19
1.4 - MODELOS ESTOCÁSTICOS DE RISCO DE CRÉDITO ............................................................................24
1.5 - MODELOS DE RISCO DE PORTFÓLIO.................................................................................................30
2 - REVISÃO BIBLIOGRÁFICA ...........................................................................................................48
2.1 - APLICAÇÃO DA TEORIA DE PORTFÓLIO PARA CARTEIRAS DE CRÉDITO ............................................49
2.2 - MODELOS PARA GERAR A DISTRIBUIÇÃO DE PERDAS OU VALOR DE CARTEIRAS .............................56
3 - ESCOPO DO MODELO PROPOSTO..............................................................................................64
3.1 - DIVISÃO DA CARTEIRA EM SEGMENTOS..........................................................................................66
3.2 - SIMULAÇÃO DA DISTRIBUIÇÃO DE PERDA NA CARTEIRA .................................................................68
3.3 - ESTIMAÇÃO DE PARÂMETROS E APLICAÇÃO DO MPCC ..................................................................70
3.4 - APLICAÇÃO DO MPCC EM INSTITUIÇÕES FINANCEIRAS .................................................................74
4 - DADOS EMPÍRICOS UTILIZADOS NA PESQUISA....................................................................75
5 - CÁLCULO DA PERDA DE CRÉDITO............................................................................................78
5.1 - DEFINIÇÃO DE PERDA DE CRÉDITO .................................................................................................78
5.2 - CONSIDERAÇÕES SOBRE PERDA DE CRÉDITO E RECUPERAÇÃO........................................................79
5.3 - PROPOSTA DE CÁLCULO DE PERDA DE CRÉDITO NO MPCC.............................................................81
6 - SEGMENTAÇÃO DA CARTEIRA DE CRÉDITO AO CONSUMIDOR ....................................86
6.1 – SEGMENTAÇÃO DAS OPERAÇÕES – AGRUPAMENTO POR CARACTERÍSTICAS DO CONSUMIDOR.......90
6.2 - SEGMENTAÇÃO DAS OPERAÇÕES – AGRUPAMENTO POR RISCO DE CRÉDITO .................................101
6.3 - FORMAÇÃO DOS SEGMENTOS FINAIS.............................................................................................109
7 - AJUSTE E SELEÇÃO DE DISTRIBUIÇÕES PARA PERDA DE CRÉDITO ..........................113
7.1 - GERAÇÃO DA AMOSTRA ...............................................................................................................113
7.2 - AJUSTES DE DISTRIBUIÇÕES..........................................................................................................120
7.3 - SELEÇÃO DE DISTRIBUIÇÕES .........................................................................................................124
8 - MODELAGEM DE DEPENDÊNCIAS ATRAVÉS DE CÓPULAS ............................................128
8.1 - FUNÇÃO DE CÓPULA .....................................................................................................................130
8.2 - APLICAÇÃO DAS FUNÇÕES DE CÓPULA NO MPCC ........................................................................135
9 - SIMULAÇÃO DA DISTRIBUIÇÃO DE PERDA DE UMA CARTEIRA DE CRÉDITO AO
CONSUMIDOR ......................................................................................................................................137
9.1 - PROCESSO DE OBTENÇÃO DA DISTRIBUIÇÃO DE PERDA DA CARTEIRA...........................................137
9.2 - ALGORITMOS DE SIMULAÇÃO .......................................................................................................140
9.3 - APLICAÇÃO DO MPCC EM PORTFÓLIOS SIMULADOS ....................................................................142
9.4 - TESTES ESTATÍSTICOS SOBRE AS DISTRIBUIÇÕES ..........................................................................146
9.5 - PERFIL DAS DISTRIBUIÇÕES OBTIDAS ............................................................................................151
9.6 - APLICAÇÃO EM CARTEIRAS PEQUENAS E COMPARAÇÃO EMPÍRICA COM O MODELO CREDITRISK+
.............................................................................................................................................................155
10 - CONCLUSÕES E SUGESTÕES PARA PESQUISA ..................................................................158
11 - REFERÊNCIAS BIBLIOGRÁFICAS...........................................................................................163
ANEXO A – DISTRIBUIÇÕES ESTATÍSTICAS TESTADAS.........................................................173
ANEXO B – RESULTADOS DOS AJUSTES DE DISTRIBUIÇÕES...............................................186
LISTA DE FIGURAS
FIGURA 1-1 – ESQUEMA DE UM MODELO DE CREDIT SCORING .......................................22
FIGURA 1-2 – CRITÉRIOS UTILIZADOS NO RATING DA MOODY’S.....................................24
FIGURA 1-3 – EXEMPLO DE MODELO ESTOCÁSTICO .......................................................25
FIGURA 1-4 – ILUSTRAÇÃO DO MODELO DE MERTON ....................................................27
FIGURA 1-5– ESTRUTURA DO MODELO CREDITMETRICS ................................................33
FIGURA 1-6 – MAPEAMENTO ENTRE RATING E DISTRIBUIÇÃO DO VALOR DAS AÇÕES .......36
FIGURA 1-7 – MODELO CREDITPORTFOLIOVIEW...........................................................43
FIGURA 3-1 – RESPRESENTAÇÃO ESQUEMÁTICA DO MPCC ...........................................73
FIGURA 5-1 – PERDA DE CRÉDITO APURADA PARA TODA A AMOSTRA DE DADOS. ............85
FIGURA 6-1 – REPRESENTAÇÃO ESQUEMÁTICA DA SEGMENTAÇÃO ADOTADA.................89
FIGURA 6-2 – ILUSTRAÇÃO DO RESULTADO...................................................................92
FIGURA 6-3 – EXEMPLO DE SÉRIES HISTÓRICAS DE PERDA DE CRÉDITO...........................99
FIGURA 6-4 – VARIÂNCIA EXPLICADA X NÚMERO DE SEGMENTOS ...............................100
FIGURA 6-5 – MODELO DE CLASSIFICAÇÃO DE RISCO ..................................................101
FIGURA 6-6 – CURVA ROC ........................................................................................107
FIGURA 6-7 – TAXA DE PERDA POR CLASSIFICAÇÃO DE RISCO ......................................109
FIGURA 6-8 – PROCESSO DE SEGMENTAÇÃO UTILIZADO NO MPCC .............................110
FIGURA 7-1 – PRINCÍPIO DO PROCESSO DE BOOTSTRAP................................................116
FIGURA 7-2 – HISTOGRAMA DE OBSERVAÇÕES MENSAIS DE PERDA DE CRÉDITO
PERCENTUAL ......................................................................................................120
FIGURA 7-3 – EXEMPLO DE AJUSTE DE DISTRIBUIÇÕES. ...............................................122
FIGURA 7-4 – SELEÇÃO DE DISTRIBUIÇÕES DE PERDA PARA OS SEGMENTOS..................127
FIGURA 8-1 – EXEMPLO DE RELAÇÕES DE DEPENDÊNCIA .............................................130
FIGURA 8-2 – APLICAÇÃO DE UMA FUNÇÃO DE CÓPULA...............................................131
FIGURA 8-3 – DISTRIBUIÇÃO BIVARIADA COM CÓPULAS NORMAL E STUDENT ..............134
FIGURA 9-1 – ESTIMAÇÃO DE PARÂMETROS E APLICAÇÃO DO MPCC. .........................139
FIGURA 9-2 – APLICAÇÃO DO MPCC NOS PORTFÓLIOS SIMULADOS E APURAÇÃO DE
VALORES HISTÓRICOS PARA VALIDAÇÃO..............................................................144
FIGURA 9-3 – DISTRIBUIÇÕES DE PERDA EMPÍRICA E SIMULADA COM CÓPULA NORMAL –
NÃO CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT.............................151
FIGURA 9-4 – DISTRIBUIÇÕES DE PERDA EMPÍRICA E SIMULADA COM CÓPULA STUDENT-2
– NÃO CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT. .........................152
FIGURA 9-5 – DISTRIBUIÇÕES SIMULADAS COM CÓPULAS NORMAL E STUDENT-2 – NÃO
CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT. ...................................152
FIGURA 9-6 – DISTRIBUIÇÕES DE PERDA EMPÍRICA E SIMULADA COM CÓPULA NORMAL –
CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT. ...................................153
FIGURA 9-7 – DISTRIBUIÇÕES DE PERDA EMPÍRICA E SIMULADA COM CÓPULA STUDENT-2
– CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT. ................................153
FIGURA 9-8 – DISTRIBUIÇÕES SIMULADAS COM CÓPULAS NORMAL E STUDENT-2 –
CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT. ...................................154
FIGURA 9-9 – DISTRIBUIÇÕES DE PERDA EMPÍRICA E PRODUZIDA PELO CREDITRISK+ –
CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT. ...................................157
FIGURA 9-10 – DISTRIBUIÇÕES DE PERDA EMPÍRICA E PRODUZIDA PELO CREDITRISK+ –
NÃO CONSIDERANDO EXPOSIÇÕES DE OPERAÇÕES EM DEFAULT.............................157
LISTA DE TABELAS
TABELA 1-1 – EXEMPLO HIPOTÉTICO DE MATRIZ DE MIGRAÇÃO.....................................35
TABELA 3-1 – EXEMPLO DE SEGMENTAÇÃO DE CARTEIRA DE CRÉDITO ..........................68
TABELA 6-1 – EXEMPLO DE CODIFICAÇÃO COM VARIÁVEIS DUMMIES.............................96
TABELA 6-2 – CATEGORIZAÇÃO TRADICIONAL E POR DUMMIES ORDENADAS .................96
TABELA 6-3 – VARIÁVEIS SELECIONADAS NO MODELO DE CLASSIFICAÇÃO DE RISCO ....105
TABELA 6-4 – TAXA DE PERDA POR CLASSIFICAÇÃO DE RISCO .....................................108
TABELA 6-5 – CATEGORIAS DE RISCO PARA A FORMAÇÃO DOS SEGMENTOS FINAIS.......112
TABELA 6-6 – DISTRIBUIÇÃO DAS OPERAÇÕES DE CRÉDITO NOS SEGMENTOS FINAIS.....112
TABELA 7-1 – ESTATÍSTICAS DE OBSERVAÇÕES MENSAIS DE PERDA DE CRÉDITO
PERCENTUAL ......................................................................................................119
TABELA 7-2– RESUMO DE RESULTADOS DE AJUSTES DE DISTRIBUIÇÕES .......................126
TABELA 9-1 – CASOS DE PERDA ACIMA DO PERCENTIL FORNECIDO PELO MPCC ..........145
TABELA 9-2 – RESULTADOS DO TESTE DE BERKOWITZ (2001) .....................................150
TABELA 9-3 – TESTE DE BERKOWITZ PARA O MODELO CREDITRISK+ ..........................156
10
INTRODUÇÃO
Mudanças no mercado financeiro global e o grande volume de perdas de
crédito geraram uma crescente preocupação com o risco de crédito. Caouette
et al. (1999) apresentam o perfil da evolução do risco de crédito nas últimas
décadas e apresentam o gerenciamento do risco de crédito como o próximo
grande desafio financeiro. No Brasil, o crédito tem assumido um papel de
crescente importância. Isso pode ser verificado pelo crescimento acentuado do
volume de crédito após a estabilização econômica. Segundo dados do Banco
Central do Brasil, o volume de crédito cresceu 266% de julho de 1994 a agosto
de 2003.
A necessidade do controle e gerenciamento eficaz do risco de crédito levaram
ao desenvolvimento de inúmeros modelos de risco de crédito por instituições
financeiras e provedores de serviços de consultoria. Também foram vistas
iniciativas de órgãos regulatórios visando reduzir o risco de crédito no sistema
financeiro. A principal delas resultou nos critérios e recomendações definidos
pelo acordo de Basiléia em 1988 (BIS, 1998). Paralelamente, o
desenvolvimento do mercado de derivativos de crédito trouxe a necessidade de
mecanismos de precificação adequados a estes instrumentos financeiros.
O movimento de melhoria de processos de quantificação e gerenciamento do
risco de crédito decorrente desse novo cenário levou as instituições financeiras
a se aprimorarem no uso de modelos quantitativos de risco de crédito, como,
por exemplo, modelos de Credit Scoring.
Esses fatores foram acompanhados de um maior interesse da comunidade
acadêmica pela questão do risco de crédito a partir da segunda metade da
década de 90. Os trabalhos acadêmicos na área e as iniciativas de firmas de
consultoria e provedores de serviços criaram um arcabouço teórico e um
ferramental prático que possibilitaram que muitas instituições financeiras
migrassem da administração tradicional e julgamental de uma carteira de
crédito para uma administração técnica apoiada em critérios quantitativos.
11
Apesar da evolução no uso de modelos de risco de crédito, a administração de
uma carteira de crédito ainda está longe de ser uma tarefa regida rigidamente
por modelos quantitativos. Critérios subjetivos e julgamentais ainda ocupam um
forte papel na administração da carteira, notadamente no Brasil. Contudo, o
papel dos modelos quantitativos de risco de crédito não é ditar todas as
decisões envolvidas na administração de uma carteira, mas sim compor um
ferramental técnico para suprir de informações os gestores de crédito. De
posse dos instrumentos e informações apropriados, esses gestores podem
tomar as decisões mais adequadas aos objetivos estratégicos de suas
instituições.
Os primeiros modelos de crédito desenvolvidos ou publicados foram modelos
voltados para a classificação do risco do devedor. Exemplos são o zeta-score
de Altman (1968) para classificar empresas e modelos de credit scoring para
crédito ao consumidor, que começaram a ser desenvolvidos na década de 50
nos Estados Unidos (Lewis, 1992).
Os movimentos que o mercado sofreu nas décadas de 80 e 90 e a
preocupação com a saúde financeira das instituições financeiras contribuíram
para que o foco das atenções na área de risco de crédito passasse a incluir
não somente como classificar o risco dos devedores, mas também como
gerenciar o risco de uma carteira. Como resultado, verificou-se o
desenvolvimento de inúmeros modelos de risco de portfólio para avaliar o risco
de crédito agregado de uma carteira.
O surgimento de um modelo regulatório para determinação de exigências
mínimas de capital em instituições financeiras através do acordo de Basiléia
(BIS, 1988) também foi uma contribuição importante para o gerenciamento de
risco. Apesar da evolução dos critérios do acordo de Basiléia (BIS, 2001), o
modelo regulatório ainda apresenta regras gerais para diversos parâmetros
importantes na determinação do risco da carteira, expresso pelo capital exigido.
A alternativa para o modelo regulatório está nos modelos internos de risco de
portfólio da instituição. Esses modelos buscam suprir as necessidades da
instituição de quantificar e gerenciar o risco de crédito da carteira com base em
uma análise quantitativa mais apurada.
12
Visando atender à demanda por modelos internos de risco de portfólio de
crédito, diversas empresas de consultoria desenvolveram e publicaram
modelos. Eles foram desenvolvidos principalmente para o mercado de crédito a
empresas. O uso de alguns desses modelos no Brasil é limitada pela falta de
disponibilidade no mercado brasileiro de informações necessárias à sua
aplicação.
São raros os trabalhos publicados abordando modelos de portfólio orientados
para crédito a pessoas físicas ou aplicações no mercado brasileiro. Nessa Tese
está sendo proposto um modelo de risco de portfólio que completa esta lacuna.
O trabalho apresenta o desenvolvimento conceitual de modelo para carteiras
de crédito ao consumidor, bem como uma aplicação empírica utilizando dados
do mercado brasileiro. No decorrer desta Tese usaremos o termo consumidor
como sinônimo de pessoas físicas.
Dados do Banco Central do Brasil indicam que o crédito ao consumidor
cresceu mais de dez vezes entre julho de 1994 e agosto de 2003 e que a taxa
de inadimplência acima de 60 dias nessa modalidade de crédito chegou a
14,4% no primeiro semestre de 2003. A crescente importância do crédito ao
consumidor no Brasil e as altas taxas de inadimplência enfrentadas neste
segmento de mercado justificam o desenvolvimento de uma ferramenta de
gestão de risco de portfólio para crédito a pessoas físicas que seja adequada
às características específicas do crédito ao consumidor e de aplicação viável
com os dados disponíveis no mercado brasileiro.
No Capítulo 1 desta Tese são apresentados os fundamentos de modelos de
risco de crédito para embasar o desenvolvimento deste trabalho. São
abordados não somente modelos de risco de portfólio, mas também modelos
de classificação de risco e modelos estocásticos de risco de crédito. Modelos
de classificação de risco atribuem uma classificação a um devedor ou operação
de crédito e modelos estocásticos de risco de crédito modelam o
comportamento ao longo do tempo de variáveis ligadas ao processo de default.
O objeto desta Tese são modelos de risco de portfólio. Entretanto, as duas
outras categorias de modelos apresentam relações com modelos de portfólio
13
que justificam sua descrição nesta Tese. Modelos de classificação de risco são
utilizados como dados de entrada na maioria dos modelos de portfólio. Já
modelos estocásticos de risco de crédito formam parte da fundamentação
teórica na qual o desenvolvimento de modelos de portfólio se apóia.
Nesse capítulo também são descritos os quatro principais modelos de risco de
portfólio existentes: CreditRisk+ (CSFP, 1997), CreditPortfolioView (Wilson,
1997a e 1997b), Creditmetrics (Gupton et al., 1997) e KMV (KMV, 1993). Estes
dois últimos podem ser aplicados apenas aos processos de gestão de crédito
de carteiras de empresas. Apesar do foco do modelo aqui proposto ser
carteiras de crédito ao consumidor, é importante analisar os modelos existentes
para empresas para obter uma visão completa da teoria sobre o tema bem
como para possibilitar comparações.
Adicionalmente, o modelo proposto pode ter seu escopo de aplicação
ampliado, podendo ser aplicado também ao crédito a pessoas jurídicas,
principalmente nos segmentos de micro e pequenas empresas, onde a
aplicação de grande parte dos modelos de portfólio existentes encontram
barreiras de disponibilidade de dados.
No Capítulo 2 é feita uma revisão dos principais trabalhos publicados sobre a
aplicação da teoria moderna de finanças em portfólios de crédito e de
desenvolvimento de modelos de risco de portfólio. Modelos de risco de portfólio
de crédito são uma aplicação da teoria moderna de finanças no sentido em que
são aplicados conceitos básicos introduzidos por Markowitz (1952), como
diversificação, por exemplo. Entretanto, eles diferem da abordagem clássica de
obtenção de portfólios eficientes.
O termo modelo de risco de portfólio de crédito é utilizado preponderantemente
para modelos cujo maior objetivo é gerar a distribuição estatística de perdas da
carteira. Esses modelos não determinam a composição de portfólios eficientes
na forma de uma fronteira eficiente. Entretanto, existem trabalhos, como por
exemplo Altman (1996) e Gollinger e Morgan (1993), que tiveram o objetivo da
aplicação do modelo clássico de Markowitz ou adaptações desse modelo para
portfólios de crédito. Esses trabalhos também são descritos nesse capítulo.
14
Nos capítulos 3 a 9 é apresentado o desenvolvimento do modelo proposto
nesta Tese. Paralelamente ao desenvolvimento teórico e conceitual do modelo
é feita a aplicação com dados empíricos brasileiros. É realizada também uma
comparação empírica entre o modelo proposto e o modelo CreditRisk+.
Por fim, no Capítulo 10 elaboramos nossas considerações finais sobre o
potencial de aplicação do modelo desenvolvido, bem como sugestões para
futuras pesquisas que dêem seqüência ao trabalho apresentado.
15
1 - MODELOS DE RISCO DE CRÉDITO
Esta seção visa apresentar conceitos e informações que fornecem suporte ao
desenvolvimento deste trabalho. São definidos conceitos básicos como risco e
modelos de risco de crédito. Uma possível forma de taxonomia de modelos de
créditos é descrita e as características e objetivos de cada categoria de
modelos são exploradas. Também são apresentados os principais modelos de
risco de portfólio encontrados na literatura. Esses modelos podem ser vistos
como padrão de comparação para o modelo aqui desenvolvido.
1.1 - O conceito de risco de crédito
De acordo com o dicionário Aurélio (Ferreira, 1986) risco pode ser definido de
duas maneiras: “a possibilidade de perda ou responsabilidade pelo dano” ou
“perigo ou a possibilidade de perigo”.
Segundo Bernstein (1997), a origem da palavra risco vem do italiano antigo
risicare, que significa “ousar”, indicando que é uma opção e não uma
fatalidade. Siqueira (2000) reforça a idéia de risco como uma opção definindo
risco financeiro como “uma conseqüência da decisão livre e consciente de
expor-se a uma situação na qual há a expectativa de ganho sabendo-se que há
a possibilidade de perda ou dano”. Para Steiner Neto (1998) o conceito de risco
implica na possibilidade de escolha.
Essas definições nos ajudam a formar um conceito de risco que está associado
a três elementos:
• Risco está associado a uma possibilidade de ocorrência de algum
evento negativo que pode levar a uma perda.
• Risco é decorrente de uma decisão. Portanto é uma opção de quem
assume o risco.
16
• Risco é assumido visando ganho.
Segundo o dicionário Aurélio (Ferreira, 1986), crédito é definido como cessão
de mercadoria, serviço ou importância em dinheiro, para pagamento futuro.
Podemos então definir inicialmente risco de crédito como possibilidade de
perda associada à incerteza no recebimento de pagamentos futuros
decorrentes de obrigações de crédito.
Entretanto, a possibilidade de perda não é algo mensurável nem gerenciável. A
evolução do conceito de risco em finanças possibilita chegarmos a uma
definição de risco que seja mais apropriada para a utilização em modelos de
risco de crédito. O conceito de risco em finanças está associado à variabilidade
sobre um resultado esperado. É o conceito utilizado por Markowitz (1952) em
seu trabalho que fundamentou o desenvolvimento moderno de finanças. O
risco de uma carteira de ativos sendo definido como a variância do retorno
esperado.
Apesar do termo risco e incerteza serem muitas vezes vistos como sinônimos
(Sassatani, 1999; Machina e Rotstchild, 1992), Knight (1965) fez a distinção
entre os dois: "A diferença prática entre as duas categorias, risco e incerteza, é
que na primeira a distribuição do resultado num grupo de casos é conhecida
(quer através do cálculo a priori, quer das estatísticas da experiência passada),
enquanto no caso da incerteza isso não ocorre, em geral devido ao fato de que
é impossível formar um grupo de casos, porque a situação que se enfrenta é,
em alto grau, singular".
Sobre essa diferença Siqueira (2000) comenta: “Dessa forma, incerteza se
refere a situações em que não se conhece a distribuição de probabilidade dos
resultados. Risco é a situação em que se podem estabelecer os possíveis
resultados e suas respectivas probabilidades de ocorrência”.
Assim, risco de crédito para uma carteira pode ser definido simplesmente como
a distribuição de probabilidade de perdas na carteira, que apresenta duas
informações básicas:
• Perda esperada;
17
• Variabilidade da perda esperada.
Esses dois elementos estão dentro de um conceito genérico de risco de crédito
e, dependendo do objetivo do modelo de crédito são utilizadas como sinônimos
de risco de crédito.
Dessa forma, um modelo de credit scoring que busca classificar o risco do
devedor utiliza o conceito de risco como perda esperada para um determinado
perfil de devedor em uma determinada operação. Por outro lado, um modelo de
portfólio visa quantificar o risco de uma carteira como a diferença entre um
percentil superior da distribuição de perda e a perda média da carteira, que é
uma medida de variabilidade da perda de crédito.
O termo risco muitas vezes é utilizado na forma composta “risco cliente” ou
“risco operação” quando se refere à classificação de risco de crédito de clientes
e operações de crédito, respectivamente. O risco cliente avalia o risco,
entendido como probabilidade média de inadimplência ou perda, do cliente
incondicionalmente às características de operações de crédito e está
relacionada com a saúde creditícia do cliente em termos gerais.
O risco operação engloba a associação do risco cliente como características
específicas de uma operação de crédito, como garantias, prazos e valores. O
risco operação pode ser visto como o risco cliente condicionado às
características de uma operação de crédito.
Outro conceito importante é o de evento de risco de crédito. O termo evento de
risco de crédito é utilizado para descrever uma alteração no risco cliente ou
operação. Esse evento é considerado grave quando envolve o não pagamento
ou pagamento parcial das obrigações do devedor. Para um evento grave de
risco de crédito, o termo utilizado nesta Tese é default.
Os termos equivalentes em português são inadimplência e insolvência.
Inadimplência refere-se ao atraso ou não pagamento de um compromisso
financeiro e é aplicável tanto a consumidores como a empresas. Já insolvência
se relaciona à falência ou concordata de uma empresa. Visando fugir da
18
questão de formalização ligada à falência e para utilizar um termo único para
empresas e consumidores o termo default será utilizado.
1.2 - Taxonomia de modelos de risco de crédito
O termo modelo de risco de crédito é genérico e pode abordar muitas
ferramentas com aplicações diferentes. A definição geral de modelo, de acordo
com o Dicionário Aurélio (Ferreira, 1986), é algo "destinado a ser reproduzido
por imitação". Entretanto, podemos também dizer ser ele a própria imitação de
algo, muitas vezes em menor escala e em menor número de detalhes. Assim,
podemos definir modelo como uma representação simplificada de algo real.
Desse modo, algoritmos, fórmulas, sistemas ou regras que busquem
representar processos ou atributos reais relacionados ao risco de crédito
podem ser considerados modelos de risco de crédito. Esta definição é bastante
abrangente mas, para o desenvolvimento desta Tese, propomos uma
classificação dos modelos de risco de crédito em três categorias, nas quais
concentramos nosso interesse:
• Modelos de classificação de risco: Nesta categoria se encontram os
modelos que visam atribuir uma medida de risco a um devedor ou a uma
operação de crédito em específico. A classificação do risco, que pode ser
expressa na forma de uma escala categórica, contínua ou mesmo
dicotômica, normalmente está relacionada à previsão da ocorrência ou não
de default.
• Modelos estocásticos de risco de crédito: São modelos que procuram
modelar o comportamento estocástico de variáveis relacionadas ao default.
Exemplos desta categoria são modelos para descrever o padrão de
comportamento do valor de uma empresa ou de taxa de default em uma
carteira ao longo do tempo. Os modelos estocásticos são utilizados na
precificação de derivativos de crédito e também fornecem uma base teórica
19
para o desenvolvimento de muitos modelos de risco de portfólio, que são
descritos no próximo item.
• Modelos de risco de portfólio: Estes os modelos não tratam operações
individualmente, mas sim a carteira de crédito como um todo. Estes
modelos buscam quantificar o risco decorrente de determinada composição
de portfólio, que é expresso na distribuição de perdas ou de valor da
carteira.
1.3 - Modelos de classificação de risco
Modelos de classificação de risco atribuem a um devedor ou a uma operação
de crédito uma medida de risco ordinal (na forma de categorias ordenadas,
como A, B, C) ou cardinal (na forma de uma escala contínua, como uma
pontuação). Estes modelos se encontram fortemente ligados ao processo
operacional de análise e concessão de crédito e são um dos principais critérios
utilizados para a decisão de aprovação de operações de crédito.
O uso de um modelo de classificação de risco no processo de aprovação em
uma instituição financeira está relacionado a dois objetivos:
• fornecer uma avaliação do risco, permitindo a rejeição de operações com
risco acima do desejado ou a atribuição de taxas de juros adequadas ao
risco;
• proporcionar eficiência operacional no processo de decisão, uma vez que o
modelo permite a automação do processo de aprovação a um baixo custo
operacional.
Dentro dessa categoria de modelos se encontram sistemas especialistas, credit
scoring e credit rating.
20
1.3.1 - Sistemas especialistas
Segundo Weber (1993), sistemas especialistas são sistemas que se propõe a
resolver problemas conforme especialistas humanos através da incorporação
de uma base de conhecimento.
Modelos de classificação de crédito baseados em sistemas especialistas são
formados por um conjunto de regras que buscam reproduzir a decisão de
especialistas em análise de crédito. Os modelos procuram representar o
processo decisório de um especialista, criando uma estrutura de decisão e
classificação baseada em regras que imitam a decisão de analistas
experientes. Estes modelos permitem que o processo decisório de um analista
seja automatizado em processos de decisão em massa.
Normalmente, a classificação de risco de crédito fornecida por um sistema
especialista é dicotômica, ou seja, inclui apenas duas alternativas: aceitável ou
não aceitável. Exemplos de aplicação de sistemas especialistas em crédito
podem ser encontradas em Weber (1993) e Rosa (1992).
1.3.2 - Modelos de credit scoring
Modelos de credit scoring são normalmente utilizados para avaliação de
consumidores (pessoas físicas). A partir de características do proponente ou do
proponente e da operação de crédito, esses modelos geram uma pontuação
(escore) que representa a expectativa de risco de default. Quando são
utilizadas características do proponente e da operação, o risco avaliado refere-
se ao risco do proponente em uma determinada operação de crédito.
Apesar da medida de risco ser normalmente fornecida em uma escala
contínua, ela pode ser categorizada para fornecer uma medida ordinal. As
características do indivíduo que geralmente são utilizadas são informações
cadastrais ou relacionadas ao comportamento de crédito. Se o escore objetiva
21
avaliar o consumidor em uma operação de crédito em específico, também são
utilizadas as características da operação como informações preditivas.
Estes modelos são geralmente baseados em técnicas de análise estatística
multivariada como modelos de regressão linear, regressão logística, análise
discriminante e AID ou em modelos de inteligência artificial como redes
neurais. Apesar dos modelos de credit scoring serem resultado de análises
estatísticas na vasta maioria dos casos, algumas instituições utilizam modelos
de credit scoring julgamentais. Nos modelos julgamentais as variáveis que
compõe o escore e seus respectivos pesos são determinados pelos gestores
da carteira com base em sua experiência.
Modelos de credit scoring também são utilizados na avaliação de risco de
pequenas empresas, onde o risco da empresa em muito se confunde com o
risco do proprietário. Algumas referências na literatura sobre modelos de credit
scoring são Thomas et al. (2001), Lewis (1992), Mays (1998), Sicsu (1998a e
1998b) e Smith (1964).
A formulação mais comum de um credit scoring é expressá-lo como a
probabilidade de default obtida de um modelo de regressão logística. O
resultado da probabilidade pode ser multiplicado por uma constante como 100
ou 1000 para ajustar a escala final da pontuação. Assim, um modelo de credit
scoring em uma escala de pontuação de 0 a 1000 é representado por:
�=
+=
−+=
n
1iiiXBAF
)Fexp(11000
S
Eq. 1-1
Onde:
• Xi são os atributos ou características do tomador de crédito;
• Bi são seus pesos das variáveis;
• n é o número de variáveis,
• A é uma constante do modelo;
• S é a pontuação.
22
Para o desenvolvimento de um modelo de credit scoring os seguintes
elementos precisam ser definidos:
• Conceito de default – É a definição do que se deseja prever. É
estabelecida de acordo com o conceito utilizado em cada instituição
financeira. Os conceitos de default mais comuns são atrasos superiores
a 30, 60 ou 90 dias.
• Período de performance – É o período no qual será avaliada a
performance de crédito do consumidor para classifica-lo como bom ou
mau pagador (com default). Este período normalmente varia de 6 a 12
meses. Entretanto, quando o escore é específico de uma operação
(utiliza características preditivas do consumidor e da operação) o
período de performance em geral é igual ao prazo da operação.
• Período de observação – É o período histórico no qual são observadas
características preditivas do consumidor, como por exemplo
comportamento de pagamento em outras operações de crédito.
Variáveis preditivas de origem cadastral são observadas no final do
período de observação, que é a data de referência para cálculo do
escore (T0).
Figura 1-1 – Esquema de um modelo de Credit Scoring
Período de
Performance
Período de
Observação
VARIÁVEIS
PREDITIVAS
BOM
PAGADOR
MAU
PAGADOR
Tempo T0 T-1 T-1 T1
23
A Figura 1-1 apresenta um esquema sobre o funcionamento de um modelo de
credit scoring e pode ser interpretado da seguinte maneira: o escore é
calculado em T0 utilizando informações preditivas do período de observação
para prever se o consumidor será bom ou mau pagador no período de
performance.
1.3.3 - Modelos de Credit Rating
Modelos de credit rating são modelos aplicados à classificação de empresas
em categorias de risco de crédito, normalmente integrando critérios
quantitativos e julgamentais. Credit ratings são tradicionalmente fornecidos por
agências de classificação de risco como a Moody’s e a Standard and Poor’s.
No Brasil a principal fornecedora de ratings de crédito é a SERASA. Estes
modelos também podem ser desenvolvidos internamente por instituições
financeiras.
Os credit ratings providos pela SERASA são baseados em modelos
estatísticos, exceto para o segmento de grandes empresas (Borges, 2001). Já
os fornecidos pelas Moody’s e a Standard and Poor’s seguem uma
metodologia de análise na qual o elemento julgamental é mais forte (Crouhy et
al.) . A Figura 1-2 ilustra os elementos considerados no rating de uma empresa
pela Moody’s, que contempla desde de aspectos macroeconômicos e de risco
soberano até uma eventual característica específica da emissão de títulos.
Para a obtenção do credit rating, são utilizados índices financeiros extraídos
das demonstrações contábeis da empresa, além de uma variedade de outras
informações como variáveis sócio-demográficas da empresa, dos sócios, do
grupo econômico e desabonos da empresa e dos sócios. Em geral, quanto
maior é o porte da empresa analisada, maior é a influência de critérios
qualitativos no rating.
Um modelo de credit rating baseado somente em critérios quantitativos é
exatamente equivalente a um modelo de credit scoring para crédito ao
24
consumidor. A diferença dos termos nesse caso é apenas uma questão de
convenção. Apesar de tecnicamente o modelo ser igual a um credit scoring,
convencionou-se chamar modelos para empresas, exceto micro-empresas, de
credit rating.
Borges (2001) fornece uma visão da aplicação de modelos de rating no Brasil e
Crouhy et al. (2001) exploram a metodologia de agências internacionais de
classificação de risco de crédito. Outra referência relevante é o trabalho de
Altman (1968), que foi um dos primeiros a aplicar análise estatística
multivariada para obter uma classificação de risco de crédito de uma empresa.
Figura 1-2 – Critérios utilizados no rating da Moody’s*
*retirado de Crouhy et al. (2001), pp.263.
1.4 - Modelos estocásticos de risco de crédito
Modelos estocásticos de risco de crédito são utilizados principalmente para a
precificação de títulos e derivativos de crédito. Esses modelos são
essencialmente multitemporais. Buscam modelar o comportamento estocástico
Estrutura da emissão
Estrutura da empresa
Posição financeira/operacional
Qualidade de gerenciamento
Tendência do setor e regulatória
Análise Macroeconômica e de risco soberano
25
de variáveis ligadas à determinação do risco de crédito, como o valor de uma
empresa ou taxa de default.
Um modelo estocástico não fornece qual será o valor da variável modelada no
futuro, mas sim fornece uma possível “realização” de como esta variável evolui
com o tempo, isto é, um possível caminho que o valor da variável pode seguir
na realidade. O modelo estabelece as relações que governam a evolução da
variável analisada no tempo. Essa evolução depende de fatores aleatórios que
introduzem incerteza no modelo.
A Figura 1-3 apresenta 4 possíveis realizações de evolução de uma variável V.
Os caminhos descritos iniciam no mesmo valor inicial de V e, apesar de serem
distintos, foram gerados pelo mesmo modelo estocástico. Através das
possíveis realizações de valor da variável analisada é possível obter
distribuições de probabilidade do valor da variável em algum período específico
no futuro.
Figura 1-3 – Exemplo de modelo estocástico
Duffee e Singleton (1999) estabeleceram uma classificação para esse tipo de
modelo que se tornou padrão, separando-os em:
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47
t
V
Distribuição de V no período t =47
26
• Modelos estruturais - Surgiram a partir do trabalho inicial de Merton
(1974) e relacionam o valor da firma com o default.
• Modelos de forma reduzida - Não avaliam explicitamente o processo de
default em uma firma. Seu foco é modelagem da intensidade de
ocorrência eventos de default, independente dos fatores que os
provocam.
Modelos estocásticos de risco de crédito são abordados em detalhes em
Bielecki e Rutkowski (2002). Giesecke (2002) apresenta um resumo de fácil
compreensão.
1.4.1 - Modelos estruturais
Modelo de Merton (1974)
O modelo de Merton se baseia na seguinte equação para o comportamento do
valor dos ativos1 de uma firma:
tt
t dWdtV
dVσ+µ= Eq. 1-1
onde:
• Vt é o valor da firma no período t;
• dVt é a variação do valor da firma no período t;
• dt é uma variação temporal;
• µ é um parâmetro de tendência;
• σ um parâmetro de volatilidade;
• dW é um termo aleatório que segue uma distribuição normal.
1 O valor dos ativos refere-se ao valor de mercado da firma, que reflete o fluxo de caixa futuro
que é esperado para a empresa. Não se trata do valor escritural do ativo da empresa.
27
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
Período
Valor dos ativos
Débito
Default
Merton (1974) considera que o capital próprio dos acionistas da empresa
funciona como uma opção de compra sobre os ativos da empresa. Os
acionistas possuem o direito, mas não o dever de “comprar” os ativos da
empresa pelo valor de exercício igual ao valor do débito da empresa. Se no
período de exercício dessa opção (data de vencimento do débito) o valor da
firma for inferior ao valor do débito, os acionistas não pagariam a dívida e
deixariam os direitos sobre os ativos da firma para os credores.
Figura 1-4 – Ilustração do Modelo de Merton
A Figura 1-4 exemplifica o conceito adotado. O comportamento do valor dos
ativos da firma é definido pela equação 1-1. O modelo considera que a firma
entra em default quando esse valor se torna inferior ao valor do débito.
Modelos de processos salto-difusão
O processo estocástico adotado no modelo de Merton (1974) é conhecido
como processo de difusão. Um problema dos modelos baseados no processo
de difusão para o valor do ativo é a preditividade dos eventos de default. Como
pelo modelo o valor da firma segue um processo contínuo onde uma grande
queda repentina do valor da firma é extremamente improvável, o evento de
28
default praticamente nunca será uma completa surpresa. Desta forma, a
probabilidade de uma firma com boa qualidade de crédito entrar em default no
curtíssimo prazo tenderia a zero e os spreads de curto prazo também
tenderiam a zero. Entretanto, evidências empíricas mostram que isto não é
constatado na realidade (Fons, 1994; Sarrig e Varga, 1989).
Os modelos de salto-difusão (Zhou, 1997) contornam este problema
acrescentando ao processo estocástico de valor da firma um componente de
salto:
( ) ( )dY1dWdtV
dV
t
t −Π+σ+λν−µ= Eq. 1-2
onde:
• Vt é o valor da firma no período t;
• dVt é a variação do valor da firma no período t;
• dt é uma variação temporal;
• dY é uma variação aleatória de Y, que segue a distribuição de Poisson
com intensidade λ ;
• Π é a amplitude de saltos com um valor esperado igual a ν+1;
• dW é um termo aleatório que segue uma distribuição normal;
• (µ - λν)dt + σdw é o componente de difusão;
• (Π-1)dY é o componente de salto;
• dW, dY e Π são mutuamente independentes.
O componente de difusão reflete a flutuação do valor da firma, devida às
mudanças graduais em condições econômicas e à chegada de nova
informação que causa mudanças marginais no valor da firma. Já o componente
de salto reflete mudanças bruscas no valor da firma devido à chegada de
informações importantes que podem ter um grande impacto.
Considera-se também que a firma entra em insolvência se o seu valor atingir
certo limite inferior. Zhou (1997) propõe uma solução utilizando simulação de
29
Monte Carlo para resolver a equação diferencial e precificar títulos e derivativos
de crédito.
1.4.2 - Modelos de forma reduzida
Uma abordagem explorada por diversos autores como Duffie e Singleton
(1999), Jarrow, Lando e Turnbull (1994) e Jarrow e Turnbull (1995) não procura
modelar a relação entre default e valor da firma. O default é considerado um
evento de Poisson com uma determinada intensidade, cujo processo
estocástico é modelado. Modelos de forma reduzida não fazem nenhuma
premissa acerca da origem ou causa de eventos de default e não utilizam ou
formulam nenhuma teoria ligando estrutura de capital ou qualquer outra
característica da firma à ocorrência de um evento específico de default.
Segundo um processo de Poison com intensidade λ constante, a probabilidade
de default entre t = 0 e t = T é:
Te1P λ−−= Eq. 1-3
A equação acima pode ser estendida para uma intensidade variável em função
do tempo levando a:
���
�
���
� �−=λ− T
0 dt)t(eE1P Eq. 1-4
Conforme Giesecke (2002), o processo estocástico da intensidade λ pode ser
modelado como um processo de salto-difusão dado por:
( ) dJdWdtbad ttt +λσ+λ−=λ Eq. 1-5
onde :
30
• λt é a intensidade de ocorrência de default no período t;
• dλt é a variação da intensidade de ocorrência de default no período t;
• dt é uma variação temporal;
• a, b e σ são parâmetros;
• dJ é a variação aleatória de J que segue uma distribuição de Poisson;
• dW é um termo aleatório que segue uma distribuição normal.
Modelos de forma reduzida tipicamente modelam o comportamento da
intensidade de ocorrência de default em um determinado grupo de devedores.
Essa característica é importante para crédito ao consumidor, onde uma carteira
de uma instituição financeira pode alcançar milhões de devedores. Aplicações
práticas de modelos estruturais em carteiras de crédito ao consumidor seriam
difíceis devido ao grande volume de cálculos que seria necessário. Por outro
lado, um único modelo de forma reduzida pode ser utilizado para descrever o
comportamento da taxa de default em uma carteira ou em um segmento de
uma carteira.
1.5 - Modelos de risco de portfólio
Modelos de risco de portfólio estão associados a dois objetivos básicos:
determinação da distribuição de perda (ou valor) do portfólio e a quantificação
de riscos marginais. A cada um destes objetivos estão associadas aplicações
que visam o controle do risco e a utilização mais eficiente da capacidade da
instituição assumir riscos.
O principal objetivo de um modelo de risco de crédito de portfólio é obter a
distribuição de perda por default ou de valor em uma carteira de crédito em um
determinado horizonte de tempo. A distribuição de perda é um elemento chave
na gestão do risco da carteira e pode ser utilizada dentro da instituição com
diversas finalidades como a determinação do VAR e cálculo do capital
econômico.
31
O modelo de risco de portfólio também permite o cálculo do risco marginal de
uma operação de crédito da carteira, bem como de uma nova operação. O
risco marginal de uma operação de crédito difere do risco absoluto por
considerar os efeitos de diversificação dentro da carteira originados da
correlação existente entre os créditos que fazem parte do portfólio. O risco
marginal tem aplicações relacionadas à identificação de concentrações na
carteira, estabelecimento de limites de crédito, precificação e avaliação de
performance.
1.5.1 - Principais modelos de risco de portfólio
Diversos modelos foram desenvolvidos na década de 90 e se tornaram
populares em função de uma ampla divulgação por parte de seus originadores,
normalmente firmas ou instituições financeiras que vendem serviços de
consultoria.
Os modelos de risco de portfólio mais difundidos no mercado são:
• Creditmetrics, criado no banco J. P. Morgan ( Gupton et al, 1997);
• CreditRisk+, criado na Credit Suisse Financial Products (CFSF, 1997);
• CreditPortfolioView, criado na McKinsey e publicado por Wilson (1997a e
1997b);
• KMV, modelo que leva o nome da empresa de consultoria que o criou
(KMV, 1993).
Análises comparativas dos modelos de risco de portfólio podem ser
encontradas em Crouhy et al. (2000), Smithson (2003) e Gordy (1998).
Mais recente e menos conhecido é o modelo comercializado pela Kamakura
Corporation baseado nos trabalhos de Jarrow (2000, 2001) e Jarrow e van
Deventer (1998a, 1998b).
32
1.5.1.1 - CreditMetrics
O Creditmetrics é um modelo baseado em valores de mercado e busca avaliar
a distribuição de valor do portfólio em um determinado horizonte de tempo. O
risco no Creditmetrics é visto como a variação do valor de mercado do portfólio
de crédito, que ocorre não somente pela ocorrência de eventos de default, mas
também pela mudança positiva (upgrade) ou negativa (downgrade) dos ratings
dos devedores.
A aplicação do Creditmetrics depende do uso de um modelo de classificação
de risco, que pode ser um rating interno da instituição ou rating provido por
uma agência de classificação de riscos. O valor de cada crédito da carteira é
avaliado de acordo com o rating da empresa devedora. Havendo uma elevação
do risco devedor, o valor do crédito relacionado a ele vai ser reduzido. De
maneira semelhante, uma diminuição no risco causa uma elevação no valor do
crédito.
A Figura 1-5 ilustra a estrutura do modelo Creditmetrics. Para melhor
compreensão do fluxo do processo de determinação da distribuição de valor da
carteira, a estrutura do modelo foi dividida em três blocos:
• geração de cenários;
• mapeamento entre valor da ação e rating para cada devedor da carteira;
• determinação do valor de cada crédito em cada cenário.
33
Figura 1-5– Estrutura do modelo Creditmetrics
Geração de cenários
Para obter a distribuição de valor da carteira, o Creditmetrics utiliza o método
de simulação de Monte Carlo, que consiste na simulação de um número muito
grande (500 mil, por exemplo) de possíveis “realizações” de valor da carteira.
Todas essas possíveis “realizações” definem a distribuição de freqüência de
possíveis valores para a carteira.
Para chegar a uma determinada “realização” de valor para uma carteira, o
Creditmetrics simula variações de preços de ações de cada devedor da
Geração de cenários
������������ ���
� ����� � � �� ��� ������ ����� � � � � �� ���� ���� ������ �
� ��� � � �������� ��� ���
� �� � ��� �� ���� � � � ������ ����
��� � � �� �� ����� � �� � � �
Mapeamento entre Valor de Ativo e Rating para cada
devedor � �� ����
�� � � � ��
� �� �� ����� ����� ��� �� �� � ������ � � � ������ ����� � � � ��
� �� �� ���� �� � � � ������ ����
� � � � ��
Determinação do valor de cada crédito em cada cenário
� � � � ������ ����� � � � ��
� � � ��� ��
� � � ! �� ��������� ������ ��� �� � ���
� ��� �� � � ������ �" ���� ���� �����
� ��#����
! �� ��$ �
N
� ��� � ����� � �� ��
�" � ���� �� �� ���� � �
% � ������� �� �� � � ��
� ��� � � �������� ��� ����
& % ������� �� �� � � �
S
34
carteira. As variações dos preços das ações são utilizadas para obter variações
simuladas dos ratings dos devedores, que são utilizadas para obter o valor da
carteira.
Deste modo, um dos blocos na aplicação do Creditmetrics é a simulação de um
número muito grande de possíveis “realizações” de variações de valor das
ações dos devedores da carteira. Uma realização de variação de valor das
ações de todos os devedores da carteira em conjunto é chamada de cenário de
variação de preços de ações. O processo de simulação de Monte Carlo
envolve a geração de muitos milhares de cenários.
O processo gera variações do valor de ações que seguem a distribuição normal
e estão correlacionados entre si por uma determinada matriz de correlações.
Apesar do uso da distribuição normal para retornos de ações ser questionável,
isso é uma das premissas do Creditmetrics.
Para simplificar a geração de cenários correlacionados, o Creditmetrics sugere
que o comportamento do preço de ações seja representado por diversos
índices de mercado relativos a setores econômicos e a países. Assim, a matriz
de correlações entre os diversos devedores da carteira pode ser obtido através
das correlações entre os índices de mercado e dos pesos da influência de cada
índice nas ações de cada devedor.
Mapeamento entre variação do valor da ação e rating para cada devedor
da carteira
A cada cenário gerado pelo processo descrito acima, o Creditmetrics determina
o rating de um devedor no final do período através da variação de valor de
suas ações que foi simulada pelo processo de Monte Carlo.
A matriz de migração dos ratings é um instrumento central nesse processo e
apresenta as probabilidades de uma empresa com um determinado rating,
migrar para outras categorias de rating no final do período de avaliação
35
(normalmente 1 ano). A Tabela 1-1 apresenta um exemplo de matriz de
migração.
Tabela 1-1 – Exemplo hipotético de matriz de migração
1 2 3 4 5 6 7 8 Default1 82,0% 9,0% 4,3% 1,8% 1,3% 0,9% 0,4% 0,2% 0,1%2 7,9% 78,9% 5,8% 2,2% 1,7% 1,3% 1,0% 0,7% 0,5%3 3,0% 9,8% 70,6% 9,1% 2,6% 1,9% 1,3% 1,0% 0,7%4 0,5% 1,5% 5,9% 69,6% 8,0% 4,5% 3,8% 3,2% 3,0%5 0,1% 0,4% 2,6% 4,8% 47,1% 15,0% 11,9% 10,1% 8,0%6 0,0% 0,1% 1,3% 3,2% 11,3% 34,3% 19,0% 16,3% 14,5%7 0,0% 0,0% 0,3% 2,6% 4,0% 16,0% 35,2% 23,0% 18,9%8 0,0% 0,0% 0,1% 0,2% 0,7% 4,9% 22,0% 34,7% 37,4%
Rating FinalRating Inicial
Para chegar aos ratings de cada devedor no final do período de avaliação o
Creditmetrics estabelece uma relação de conversão entre as categorias de
rating e o valor das ações das firmas devedoras. Assim, uma determinada
variação do valor de ação passa a ser diretamente equivalente a uma variação
do rating da firma. Este processo é chamado de mapeamento e se baseia na
abordagem de Merton (1974), que é extrapolada para adotar não somente um
limite para o caso de default, mas vários entre os diversos estados de saúde
creditícia representadas pelas categorias do rating.
No Creditmetrics a variação do valor das ações da firma é utilizada como proxy
da variação do valor dos ativos da firma utilizado por Merton, uma vez que este
não é diretamente observável. O modelo pressupõe que a variação do valor
das ações de uma empresa segue a distribuição normal, apesar de retornos
sobre ativos financeiros normalmente apresentarem uma distribuição
assimétrica com uma cauda acentuada à direita.
O processo de mapeamento é exemplificado através da Figura 1-6 para uma
firma com rating inicial 5. Cada faixa da distribuição representa um certo estado
de rating ou default e existem pontos na distribuição que definem as fronteiras
entre cada estado. Se a variação do valor da ação no período se enquadrar
dentro da faixa da distribuição referente ao estado de default, considera-se que
a empresa estará em default no final do período. Este raciocínio funciona para
todas as possíveis transições de rating.
36
Figura 1-6 – Mapeamento entre rating e distribuição do valor das ações
Default 8 7 6 5 4 3 2 1
Variação de valor de ativo
Os valores dos pontos de corte entre cada categoria de rating são definidos
através das probabilidades da matriz de transição. Por exemplo, supondo que a
probabilidade de transição de uma empresa do estado atual para o estado de
default seja 10%, o ponto de corte para o estado de default é o ponto da
distribuição para o qual há uma probabilidade de 10% que a variação do valor
da ação seja inferior a ele. De maneira similar, se a probabilidade da empresa
migrar para o rating imediatamente superior ao estado de default for 15%, o
ponto de corte para este estado será o ponto da distribuição para o qual há
uma probabilidade de 25% (10% + 15%) que a variação do valor da ação seja
inferior a ele.
Determinação do valor de cada crédito em cada cenário
O Creditmetrics precifica cada crédito no final do período de avaliação em cada
cenário gerado. A realização deste processo para um número muito grande de
cenários (500 mil, por exemplo) gera valores que permitem a construção da
distribuição da variação de valor da carteira.
Variação de valor da ação
37
O Creditmetrics faz a precificação dos créditos pela obtenção do valor presente
dos pagamentos futuros descontados utilizando taxas extraídas da curva a
termo de spreads para títulos com o mesmo rating. As curvas fornecem as
taxas de spread de títulos zero-coupom com diferentes vencimentos, que
funcionam como taxas de desconto ajustadas ao risco do devedor e ao prazo
de vencimento da obrigação. Cada pagamento de um crédito é considerado
como um título de zero-coupom, com seu valor calculado pelo valor presente
do pagamento descontado na taxa referente ao prazo do pagamento.
A soma dos valores presentes de cada pagamento fornece o valor de mercado
do crédito. No caso de default, o valor do crédito é definido pela taxa de
recuperação. Na formulação do modelo considera-se que a taxa de
recuperação segue uma distribuição beta, cujos parâmetros (média e desvio
padrão) são obtidos a partir de dados históricos. No processo de simulação, se
a categoria do rating no final do período de um devedor é o estado de default, é
simulada uma realização de taxa de recuperação que é utilizada para avaliar o
valor do crédito.
A aplicação integral do Creditmetrics no Brasil não é possível devido à
ausência de dados de mercado sobre spreads de títulos de empresas. Seria
necessário um mercado secundário de títulos de crédito líquido para que esses
dados pudessem ser gerados. Mesmo que este tipo de dado existisse no
mercado brasileiro, a aplicação do Creditmetrics no Brasil ainda seria limitada
pelo número relativamente pequeno de empresas com ações negociadas em
bolsa.
1.5.1.2 - CreditRisk+
O modelo CreditRisk+ (CSFP, 1997) estima a distribuição de perdas utilizando
técnicas estatísticas desenvolvidas no setor segurador. Diferente do
Creditmetrics, que é um modelo marcado a mercado (reflete variações de valor
de mercado devido a variação nos níveis de risco de cada devedor), o
38
CreditRisk+ é um modelo de modo de default, ou seja, ele considera apenas a
ocorrência ou não de default e não alterações de valor do portfólio decorrentes
de alteração da qualidade de crédito dos devedores da carteira. A migração de
créditos não é modelada explicitamente e um determinado devedor só pode
assumir dois estados: default ou não. O modelo trata a taxa de ocorrência de
default como uma variável aleatória contínua.
O CreditRisk+ é um modelo de concepção simples. Nenhuma premissa foi feita
acerca das causas de default, o que levou a um modelo que pode ser expresso
analiticamente e que mantém a necessidade de dados requeridos para sua
aplicação em um nível mínimo. A premissa fundamental é que o default é um
evento raro, podendo a distribuição do número de eventos de default em uma
carteira ser aproximado pela distribuição de Poison.
Por requerer dados de entrada relativamente simples, o CreditRisk+ é um
modelo com forte apelo no mercado brasileiro. Entretanto, a premissa de baixa
taxa de default não condiz com a realidade brasileira e pode gerar distorções
nos resultados.
A formulação do modelo define primeiramente a distribuição de eventos de
default para, a partir dela, gerar a distribuição de perdas do portfólio. Para
conseguir fazer esta transição, o modelo utiliza uma simplificação adicional que
é considerar os valores em exposição como valores inteiros múltiplos de uma
unidade de valor.
O modelo considera a existência de fatores que influenciam o movimento de
ocorrência dos eventos de default e os tornam correlacionados, ainda que não
exista uma relação causal entre os eventos de default. Esses fatores estão
relacionados à economia e são responsáveis pela ocorrência de default ser, em
média, maior ou menor em diferentes períodos. No modelo, a média e a
volatilidade da taxa de default de cada devedor podem ser influenciados de
forma diferente pelos diversos fatores de risco.
Na aplicação do modelo é necessário definir como os fatores de risco
influenciam cada devedor da carteira. Assim, é possível aplicar o CreditRisk+
com diferentes níveis de complexidade, citados a seguir:
39
• Todos os devedores da carteira são influenciados por um único fator de
risco.
• A carteira está subdividida em diversos grupos de devedores e que cada
grupo é influenciado apenas por um fator.
• Cada devedor é influenciado por diversos fatores de risco.
O CreditRisk+ caracteriza cada fator de risco através de uma taxa de default e
uma volatilidade desta taxa. O modelo assume que a distribuição da taxa de
default característica de um fator de risco segue a distribuição Gamma. A
premissa de distribuição Gamma para fatores de risco insere no CreditRisk+
mais uma aproximação que pode ser questionada. Contudo, a distribuição
Gamma é capaz de incorporar no modelo a assimetria que é esperada para os
fatores de risco e sua utilização é condição necessária para a obtenção de uma
solução analítica para a distribuição de perda da carteira.
O CreditRisk+ não modela as taxas de recuperação, que são consideradas
como variáveis exógenas ao modelo. As exposições utilizadas para aplicar o
modelo já são valores descontados da taxa de recuperação esperada. Assim,
se há uma exposição de R$ 100 mil, com uma taxa de recuperação esperada
de 25%, no modelo é considerada uma exposição de R$ 75 mil.
O modelo CreditRisk+ não deriva diretamente a probabilidade de perda na
carteira, mas utiliza a função de geração de probabilidade (fgp) para atingir o
alvo de gerar uma solução analítica para a distribuição. A solução analítica na
forma de uma fórmula de recorrência é tida como a grande vantagem da
abordagem do CreditRisk+ pois permite o cálculo rápido da distribuição de
perdas, o que não ocorre nos métodos baseados em simulação.
Entretanto a solução analítica depende fortemente da premissa que o default é
um evento raro. A utilização do escopo geral do modelo CreditRisk+, mas com
um método de solução baseado em simulação de Monte Carlo permite o
relaxamento tanto da premissa de default como evento raro quanto da
utilização da distribuição Gamma para as taxas de default características dos
fatores de risco.
40
1.5.1.3 - CreditPortfolioView
O modelo CreditPortfolioView utiliza simulação de Monte Carlo e modelagem
econométrica para gerar a distribuição de perda do portfólio e possui um apelo
intuitivo forte.
De acordo com o modelo os devedores são agrupados em segmentos
definidos por setor econômico, país e rating. Carteiras de varejo também
podem ser avaliadas na determinação da distribuição das perdas da instituição,
sendo agrupadas por tipo de produto, cada qual constituindo um segmento
adicional.
Para cada segmento é construído um modelo econométrico que visa explicar e
determinar a taxa de default do segmento a partir de índices macroeconômicos.
A construção destes modelos exige uma série longa de observações da taxa
de default de cada segmento bem como dos índices macroeconômicos. Para
gerar uma expectativa futura de taxa de default, o CreditPortfolioView utiliza
modelos de séries temporais auto-regressivos de segunda ordem para gerar
estimativas futuras dos índices macroeconômicos. Estes valores são utilizados
nos modelos econométricos de cada segmento para gerar uma expectativa de
taxa média de default.
O modelo econométrico de um segmento é definido por:
jtYjte1
1P
−+= j = 1, 2, ..., J; t = 0, 1, ..., T Eq. 1-6
Onde jtP é a probabilidade de default no segmento j no período t e Yjt é uma
função linear definida por:
jt
m
1iitji0jjt XY ν+β+β= �
= j = 1, 2, ..., J; t = 0, 1, ..., T Eq. 1-7
41
onde β0 é uma constante, itX e jiβ são o índice macroeconômico “i” e seu
coeficiente para o segmento “j” e jtν é o termo de erro, com distribuição
N(0,σj), para todo j e t.
Podemos notar que as equações acima são equivalentes às de uma regressão
logística. Entretanto, a variável resposta não é dicotômica, mas sim uma taxa
de default entre 0 e 100%.
Todos os índices macro-econômicos são modelados por modelos
autoregressivos de segunda ordem, independente de ser verificado
empiricamente se este tipo de modelo é adequado ou não para cada índice. O
índice macro-econômico “i” pode ser representado por:
it)2t(i)2t(i)1t(i)1t(i0iit XXX ε+γ+γ+γ= −−−− Eq. 1-8
j = 1, 2, ..., J; t = 0, 1, ..., T
onde o valor do índice em um período é uma função linear dos valores dos dois
períodos anteriores, adicionado de termos de erro εit independentes entre si e
com distribuição N(0,σεi).
Temos então diferentes modelos: um modelo para cada segmento e um para
cada índice econômico. O processo de estimação de parâmetros para cada um
desses modelos gera uma série temporal de termos de erro, para a qual se
assume uma distribuição normal com média zero. A partir das séries temporais
de erros de cada um dos segmentos (νjt) e dos índices (εit) é construída uma
matriz de correlação de termos de erro que é utilizada no processo de
simulação de Monte Carlo.
Note que a matriz de correlações não se refere aos valores da taxa de default
em cada segmento ou aos índices macro-econômicos, mas sim aos erros.
Desse modo, a matriz de correlações correlaciona as porções das séries de
taxa de default dos segmentos e dos índices que não são explicadas pelos
seus respectivos modelos.
42
A aplicação do modelo consiste em simular cenários de termos de erro e
utilizá-los junto com os modelos de previsão de taxa de default e de índices
macroeconômicos para gerar cenários de taxa de default por segmento. Em
cada cenário também é simulada uma taxa de recuperação em caso de default
em cada segmento, que, em conjunto com a taxa de default, gera valores de
perdas para cada segmento em cada cenário.
Um número muito grande de cenários leva à obtenção de distribuições
conjuntas de perda para cada segmento. A ponderação das taxas de perda dos
diversos segmentos pela exposição da carteira em cada um deles permite
obter a distribuição de perda da carteira. A Figura 1-7 apresenta um esquema
do processo utilizado para gerar a distribuição de perda para a carteira.
O modelo assume que a taxa de recuperação tem um comportamento
estocástico com uma distribuição de valores para cada segmento analisado. No
entanto, não é especificada que distribuição deve ser utilizada para modelar as
taxas de recuperação. Uma possível alternativa é utilizar a distribuição beta,
como é feito no Creditmetrics.
O CreditPortfolioView permite também a avaliação da variação do valor da
carteira por marcação a mercado. Nesta abordagem, para cada cenário gerado
na simulação é também é necessário simular a migração dos créditos para
outras categorias de rating utilizando as probabilidades da matriz de migração.
A precificação dos créditos é realizada pelo mesmo processo utilizado pelo
Creditmetrics.
43
Figura 1-7 – Modelo CreditPortfolioView
Cenários simulados de termos de erro
Previsões de taxas médias de default
para cada segmento
Previsões de índices
macroeconômicos
Simulação de Monte Carlo
Cenários simulados de índices macroeconômicos
Cenários simulados de taxas de default por segmento
Termos de erro dos modelos e matriz de correlações dos
termos de erro
Modelos autoregressivos para
índices
Modelos econométricos para taxa de default em
segmentos
Simulação de taxa de recuperação para cada
segmento em cada cenário
Cenários simulados de perda por segmento Distribuição conjunta de perda nos segmentos
Distribuição de perda para a carteira
44
O modelo não considera, como o Creditmetrics, que a matriz de migração é
estacionária, mas que é afetada por ambientes de recessão ou expansão
econômica. O CreditPortfolioView propõe a utilização de um operador na matriz
de migração não condicional (obtida historicamente abrangendo um período
que engloba diversos ciclos econômicos) para a obtenção de matrizes de
migração condicionais a uma determinada situação econômica. A função do
operador é elevar as probabilidades de downgrade ou upgrade em ambientes
recessivos ou de expansão econômica respectivamente.
A aplicação do modelo CreditPortfolioView no Brasil enfrenta dificuldades para
o levantamento de séries históricas longas de índices macroeconômicos. O
histórico relativamente curto de estabilidade econômica no Brasil impõe uma
limitação ao uso de dados anteriores a 1995, pois representam uma realidade
econômica muito diferente da atual.
1.5.1.4 - KMV
O KMV é baseado no modelo de estrutura de capital da firma proposto por
Merton (1974) onde uma empresa é considerada em default quando o valor de
seus ativos é inferior ao de seus passivos. A magnitude da diferença entre o
valor de mercado do ativo e o valor escritural do passivo determina a
probabilidade de default do tomador. Note que estamos tratando do valor dos
ativos no sentido de valor de mercado da firma e não valor escritural do ativo.
A primeira questão a ser resolvida para a formulação do modelo é a
determinação do valor de mercado do ativo da firma, que não é diretamente
observável. Considerando o capital próprio (Patrimônio Líquido) da firma como
uma opção de compra sobre os ativos da firma, pode ser estabelecida uma
relação entre os dados de mercado observáveis relacionados às ações da
empresa com os valores não observáveis de valor de ativo e sua volatilidade.
O KMV adota um modelo proprietário, que estende a abordagem de Black-
Scholes de precificação de opções para produzir um modelo de probabilidade
45
de default baseado em opções. Este modelo é utilizado para gerar a
probabilidade de default que é chamada de EDF (Expected Default Frequency).
Os passos para determinar o EDF de uma empresa são:
• Estimativa do valor de mercado e volatilidade da empresa a partir do valor e
volatilidade do valor de suas ações e no valor escritural de seu passivo.
• Cálculo do ponto de default da empresa que é calculado a partir do valor do
ativo, de sua volatilidade e do valor escritural do passivo.
• Determinação da distância entre o valor atual dos ativos da empresa e seu
ponto de default.
• Mapeamento entre distância ao default e a taxa de default com base na
experiência histórica de default contida em uma ampla base de dados de
empresas com diferentes valores de distância ao default.
O modelo de determinação do valor do ativo, considera o capital próprio da
empresa como uma opção de compra sobre os ativos da firma na qual o preço
de exercício é o valor escritural do passivo. Os acionistas têm o direito, mas
não o dever de pagar os credores e ficar com os ativos restantes da firma. O
modelo estabelece as seguintes relações:
Valor das Ações = f(valor do ativo, volatilidade do ativo,
estrutura de capital, taxa de juros)
Volatilidade das Ações = g(valor do ativo, volatilidade do ativo,
estrutura de capital, taxa de juros)
Onde f e g são funções derivadas de um modelo de opções. Nestas duas
relações as duas únicas variáveis que não são observáveis são o valor do ativo
e sua volatilidade, cujos valores implícitos podem ser extraídos utilizando
métodos numéricos de resolução das equações acima. É um processo similar
46
ao de extrair a volatilidade implícita de ações através do modelo de Black-
Scholes (1973).
Pelo modelo de opções, uma firma entraria em default quando o valor de seu
ativo ficasse inferior ao de seu passivo. Entretanto, através da observação de
um grande número de empresas, a KMV verificou que a firma entra em default
quando o valor do seu ativo atinge algum ponto entre o valor total do passivo e
o valor do passivo de curto prazo. Em função desta observação empírica, o
modelo KMV adota como o ponto de default para o valor do ativo, o valor do
passivo de longo prazo mais metade do valor do passivo de longo prazo.
A distância ao default é a diferença entre o valor esperado da firma no final do
período de avaliação e o ponto de default, expressa em termos de número de
desvios-padrão do valor do ativo.
O KMV estabelece um mapeamento entre valores de distância ao default e a
probabilidade de default através de um processo derivado da análise do
histórico de milhares de empresas, proporcionando a conversão da distância
ao default para expectativa de taxa de default, expressa na forma de basis
points como o EDF. Resultados empíricos indicaram que a relação de
conversão entre a distância e o EDF é constante em relação a setor da
economia, tamanho e região geográfica.
O modelo KMV utiliza um modelo de fatores para derivar a matriz de correlação
entre os ativos. O modelo está estruturado em 3 níveis:
• Primeiro nível: representa o retorno do ativo de uma firma como função de
um fator sistemático e um fator específico da firma.
• Segundo nível: estabelece o fator sistemático de cada firma como função de
fatores relacionados a países e a tipo de atividade econômica.
• Terceiro nível: estabelece cada fator de país e de atividade econômica
como uma função de fatores relacionados a efeito econômico global,
regional, setorial e específico da atividade econômica ou país.
47
A matriz de correlações entre as empresas do portfólio pode ser determinada
através da estrutura de dependência estabelecida acima, utilizando os pesos
de cada fator em cada empresa, a variância dos fatores e a matriz de
correlação entre os fatores.
O modelo KMV avalia o valor do portfólio de crédito utilizando um modelo de
precificação baseado na abordagem de risk neutral valuation e determina a
distribuição de perda da carteira, definida como a diferença entre o valor de
mercado do portfólio e o valor do portfólio descontado na situação de
inexistência de default.
Para gerar a distribuição de perda do portfólio, sob fortes premissas
simplificadoras, pode ser utilizada uma solução analítica. Pode ser
demonstrado que para portfólios amplamente diversificados a distribuição limite
é uma normal inversa. Entretanto, em sua aplicação comercial, o software KMV
Portfolio Manager, o modelo deriva a distribuição de perdas através de
simulação de Monte Carlo.
A aplicação do modelo KMV no Brasil enfrenta dificuldades semelhantes a do
Creditmetrics. Poucas empresas negociadas em bolsa e falta de liquidez
inviabilizam a aplicação de forma abrangente do KMV em carteiras de crédito
no Brasil.
48
2 - REVISÃO BIBLIOGRÁFICA
Podemos dividir a literatura existente sobre modelos de portfólio de risco de
crédito em dois grupos:
- Desenvolvimento, comparações e testes de modelos de risco de portfólio de
crédito, compreendidos no sentido descrito no Capítulo 1, ou seja, modelos
que visam determinar a distribuição de perda ou valor da carteira.
- Aplicações da teoria moderna de portfólio em carteiras de crédito visando
otimizar a relação risco/retorno da carteira.
A primeira abordagem, apesar de utilizar os conceitos básicos da teoria
moderna de finanças como, por exemplo, o efeito da diversificação, tem um
caráter essencialmente descritivo da situação de uma carteira. Não obstante, a
determinação da distribuição de perdas da carteira e de como novos créditos
impactam esta distribuição terem evidentes aplicações na administração ativa
da carteira, a principal aplicação deste tipo de modelo, que é a determinação
do capital econômico, possui mais caráter reativo e preventivo que pró-ativo.
Por outro lado, as tentativas da aplicação direta da teoria de portfólio de
Markowitz (1952) apresentam formas de estabelecer um alvo de composição
da carteira que, para um dado nível de risco, maximiza o retorno do portfólio.
Desta forma esta abordagem assume um caráter de administração
predominantemente pró-ativa da carteira uma vez que estabelece uma situação
ótima que deve ser perseguida.
As duas abordagens não são conflitantes mas, pelo contrário, se
complementam na administração da carteira e podem ser construídas sobre
uma mesma abordagem conceitual. Nesta seção serão descritos os trabalhos
mais relevantes nestas duas linhas de desenvolvimento.
49
2.1 - Aplicação da teoria de portfólio para carteiras de crédito
A teoria de portfólio estabeleceu as bases da atual teoria de finanças. O tema
foi introduzido por Markowitz (1952), trazendo como principal contribuição a
metodologia de tratamento de risco e retorno dentro do contexto de média-
variância, com a introdução de conceitos como diversificação, portfólio
eficiente, risco sistemático e risco assistemático. Markowitz definiu risco em
função da variação dos retornos de ativos, representada pelo desvio padrão ou
pela variância.
O trabalho de Markowitz foi prosseguido por diversos outros teóricos em
finanças e constituiu o fundamento sobre o qual foram desenvolvidas as teorias
de precificação de ativos, como o CAPM e o APT e a teoria de opções.
Conforme Douat (1994), a teoria de portfólio de Markowitz pode ser sumarizada
nos seguintes itens:
1 – As características relevantes do portfólio são o retorno e o risco.
2 – Investidores racionais manterão carteiras eficientes, maximizando o retorno
para dado risco ou minimizando o risco para dado retorno.
3 – É teoricamente possível identificar portfólios eficientes, analisando o retorno
e a variância do retorno de cada ativo e a relação entre os retornos dos ativos,
ou seja, sua correlação.
4 – Existem meios computacionais que permitem a determinação dos portfólios
eficientes.
O conjunto de portfólios que definem a fronteira eficiente tem como
característica a diversificação eficiente do risco. O risco total de um portfólio
pode ser dividido em risco diversificável e risco sistemático (ou não
diversificável). A porção sistemática do risco é aquela referente à variabilidade
das taxas de retorno devido a movimentos do mercado e a parte diversificável
é aquela devida à peculiaridades dos ativos que compõe o portfólio em questão
e pode ser minimizada através de uma diversificação eficiente.
50
Markowitz (1952) verificou que, se investidores forem maximizadores de uma
função de utilidade, a análise de média-variância será válida se a função
utilidade for quadrática ou se a distribuição dos retornos dos ativos for
multivariada normal.
Douat (1994) e Caouette et al. (1999) apresentam uma série de dificuldades na
aplicação da teoria de portfólios em uma carteira de crédito. Existem problemas
tanto de ordem teórica quanto prática na aplicação da teoria moderna de
portfólio em uma carteira de crédito. A primeira questão de ordem prática diz
respeito a como calcular o retorno esperado e a variância deste retorno para
cada elemento da carteira. O retorno esperado de um empréstimo pode ser
calculado a partir do nível de risco estimado para a operação de crédito.
Entretanto, quando falamos de variância, enfrentamos uma grande dificuldade
devido ao desconhecimento da distribuição do retorno de cada empréstimo.
Adicionalmente, existe a necessidade de cálculo de correlações entre os
empréstimos. Estes requisitos de dados levam a uma grande barreira para a
aplicação direta da abordagem de média-variância.
A outra questão se refere a um problema computacional. Em uma carteira de
milhares de empréstimos seria necessário calcular milhões de correlações e
mesmo com o poder computacional hoje disponível, isto é uma barreira
operacional impeditiva para esta abordagem.
Atenção especial deve ser dada à questão da correlação, pois além da
dificuldade prática em medi-la, há também problemas relacionados à
estabilidade destas medidas. Se a correlação foi medida em um período
suficientemente grande para abranger diversos ciclos econômicos, as
estimativas serão incondicionais, ou seja, não serão condicionadas a nenhum
cenário econômico em específico. Entretanto a aplicação do modelo vai utilizar
estas estimativas incondicionais em um período condicionado a certas
condições macroeconômicas que podem ter grande influência sobre os valores
das correlações.
Este problema fica ainda mais grave se a estimativa de correlações não for
realizada em um período grande suficiente, pois teremos uma medida
51
condicional a uma determinada situação econômica aplicada em outra
condição econômica. Entretanto, se a medida e a aplicação forem realizadas
dentro de um mesmo ciclo, não há este problema, mas surge outro relacionado
à utilização de um número muito pequeno de observações para calcular a
correlação, o que pode levar a pouca precisão na medida das correlações.
Outra questão com relação às correlações é que, na concepção da teoria
moderna de portfólio, elas devem ser calculadas sobre os retornos dos ativos.
Entretanto, muitas vezes é difícil medir o retorno e freqüentemente são
utilizadas alternativas para correlações entre ativos de crédito como
correlações entre variáveis relacionadas à qualidade de crédito do devedor,
entre probabilidades de perda ou inadimplência ou mesmo entre categorias de
classificação de risco do devedor.
Uma questão determinante do ponto de vista prático é a dificuldade na
obtenção de dados para aplicação da abordagem. Normalmente é muito difícil
ou mesmo impossível obter históricos longos de preços ou retornos de
classificação de risco e de default para todos os tipos de ativos de crédito que
podem fazer parte da carteira de uma instituição. Isto somente seria possível
em com um mercado secundário de títulos de crédito muito desenvolvido e com
alta liquidez.
Do ponto de vista teórico, a maior dificuldade para a aplicação da teoria
moderna de portfólio a carteiras de crédito é a distribuição dos retornos de
ativos de crédito, que não é normal. A distribuição de retornos sobre ativos de
crédito é assimétrica, o que inflige uma das premissas básicas da abordagem
de média-variância.
Outros problemas de ordem teórica são originados pela não compatibilidade
com as premissas adotadas na elaboração da teoria de Markowitz, como:
- Custos de transação e falta de liquidez podem impedir na prática que se
atinja o portfólio ótimo.
- Restrições de ordem regulatória de concentração da carteira podem levar a
uma fronteira que não é eficiente.
52
No desenvolvimento desta pesquisa não foi encontrado nenhum trabalho
acadêmico na linha de aplicação da abordagem clássica de Markowitz
especificamente a crédito ao consumidor. Do ponto de vista de sua utilização
prática por parte das instituições financeiras, também não foi encontrado
registro de grandes avanços. O relatório “The Customer Value Imperative”,
publicado em 1999 pela Robert Morriz Associates, apresenta resultados de
uma pesquisa de melhores práticas no mercado de crédito ao consumidor em
38 bancos americanos. A pesquisa constatou que a gestão de portfólio no
contexto da aplicação da moderna teoria de portfólio não estava sendo
praticada no setor bancário norte americano em crédito ao consumidor.
Entretanto, três trabalhos na linha de aplicação de princípios da teoria moderna
de portfólio a carteiras de crédito merecem destaque e são resumidos a seguir.
O primeiro não é uma aplicação direta da abordagem de Markowitz, mas
introduz a utilização em carteiras de crédito de alguns conceitos básicos da
teoria moderna de finanças. Os outros dois são aplicações da teoria de média-
variância para obter fronteiras eficientes para portfólios de crédito.
O trabalho de Bennet (1984)
O primeiro trabalho que fez uma tentativa de gerar uma medida que represente
o risco de uma carteira de crédito foi o de Bennet (1984). Apesar de ele não
buscar gerar uma distribuição de risco ou uma medida de dispersão como o
desvio padrão, ele cria uma medida de risco baseada na variação dos ratings
dos devedores de uma carteira em função de impactos de variações fatores
macroeconômicos como crescimento econômico, câmbio, preços, etc.
O trabalho de Bennet não foi uma tentativa de aplicação do escopo tradicional
de média-variância de Markowitz, mas foi o primeiro trabalho publicado que
tentou utilizar em carteiras de crédito alguns conceitos básicos introduzidos por
Markowitz, como diversificação e risco sistemático.
53
Na abordagem de Bennet, um choque em um fator macroeconômico como, por
exemplo, aumento de 10% no preço do dólar, pode levar uma empresa ao
downgrade de dois níveis de seu rating e uma outra empresa ao upgrade de
um nível. Desta forma o efeito do impacto é medido em níveis de mudança de
ratings e depende das características da empresa, principalmente do setor de
atividade.
A metodologia permite a avaliação do impacto de cenários econômicos.
Através da consolidação dos impactos das condições de um determinado
cenário econômico nos ratings das empresas de uma carteira de crédito, é
obtida a mudança na distribuição de qualidade de crédito na carteira que este
cenário pode trazer. As variações da participação na carteira das diversas
categorias de rating são utilizadas para gerar uma medida do impacto do
cenário analisado no risco da carteira.
O efeito das correlações é incorporado através do reconhecimento do efeito
dos fatores econômicos nos diversos créditos de uma carteira. Bennet também
introduz um conceito importante na gestão de portfólios de crédito que é o risco
marginal de um devedor, o que traz a avaliação do efeito de diversificação. O
risco marginal é definido como a variação absoluta da medida de risco
resultante do aumento da exposição de um devedor e é denominado de índice
de contribuição no portfólio. Bennet sugere a utilização deste índice como um
parâmetro para precificação.
Diversas críticas podem ser feitas ao trabalho de Bennet:
• A medida proposta é específica para um cenário econômico esperado e não
é apresentada nenhuma forma para consolidar as expectativas dos diversos
possíveis cenários futuros.
• O impacto do choque de um fator macroeconômico no risco de um devedor
é medido em unidades de variação das categorias do rating. Entretanto, a
alteração de um rating 1 para um 2 e de um 4 para um 5 podem significar
alterações de qualidade de crédito muito diferentes.
54
• Bennet também considera que o efeito dos impactos dos diversos fatores
são independentes e aditivos o que é uma grande simplificação.
• O modelo proposto depende fundamentalmente de critérios julgamentais
para definir qual será o cenário analisado, quais serão os impactos e quais
serão os pesos utilizados na ponderação.
O trabalho de Gollinger e Morgan (1993)
Gollinger e Morgan (1993) fizeram uma aplicação da teoria de portfólio de
Markowitz tratando setores de atividade econômica como ativos individuais.
Como retorno em cada setor, eles utilizaram o ROA (retorno sobre ativos) de
um empréstimo padrão no setor de atividade em questão. O empréstimo
padrão era uma operação de US$ 30 milhões com 3 anos de prazo para uma
empresa de US$ 300 milhões de vendas anuais. Para calcular o ROA foram
utilizadas informações fornecidas por uma empresa provedora de dados sobre
precificação de empréstimos.
Para analisar o risco, Gollinger e Morgan utilizaram a variância da série
histórica da média dos Zetas scores do setor de atividade. O Zeta score,
desenvolvido por Altman (1968), é uma medida de classificação de risco
baseada em índices financeiros de empresas.
Com base nos dados de ROA e variância do Zeta score médio de cada setor
de atividade, Gollinger e Morgan utilizaram um programa de otimização para
gerar a fronteira eficiente em duas situações: sem restrição na participação de
um ramo e limitando a participação de um ramo em 10%. Em ambos os casos,
a aplicação do método permitiu encontrar a composição mais eficiente do
portfólio para dado nível de risco.
A aplicação de Gollinger e Morgan apresenta algumas limitações em relação à
abordagem tradicional de Markowitz. O retorno utilizado foi baseado em um
empréstimo padrão, não representando a diversidade de perfis de operações
de crédito que podem compor uma carteira. Outra questão é que a medida de
55
risco não se baseia na distribuição dos retornos, mas em uma medida
alternativa de variabilidade de qualidade de crédito. O uso desta medida
alternativa de risco afasta esta aplicação da teoria original de Markowitz (1952)
e leva a portfólios que podem não ser realmente eficientes no critério da teoria
moderna de finanças.
Apesar dessas limitações oriundas da limitação em termos de dados
disponíveis, o trabalho de Gollinger e Morgan foi o primeiro a demonstrar que a
abordagem de otimização para obtenção da fronteira eficiente é viável para
uma carteira de crédito, ainda que tenham que ser utilizadas medidas
substitutas ao retorno médio e variância do retorno, propostos por Markowitz.
O trabalho de Altman (1996)
Altman (1996) fez a aplicação da análise tradicional de média-variância para
carteiras de títulos de renda fixa e empréstimos. Para a calcular o retorno
Altman utilizou a diferença entre a taxa de retorno prometida para o título de
crédito, dada pela yield-to-maturity (taxa de juros implícita no título), e a perda
esperada de crédito. Altman reconhece a possibilidade de ganhos ou perdas
por variações na estrutura de taxas de juros que não seriam considerados na
forma utilizada de cálculo de retorno. Entretanto, ele considera estes efeitos
aleatórios e que o resultado de ganho esperado devido a eles é nulo.
As taxas esperadas de perdas foram obtidas a partir de tabelas de taxas de
mortalidade em função do rating inicial do título. Estas tabelas foram
produzidas por Altman em trabalhos anteriores (Altman, 1988 e 1989).
Com base em dados de retornos trimestrais de 10 títulos no período de 1991 a
1995, Altman aplicou a abordagem clássica de média-variância construindo
uma fronteira eficiente. Entretanto, devido à insuficiência de dados disponíveis
no mercado e a questões de ordem teórica, como a não normalidade da
distribuição de retornos, Altman julga inapropriado o uso da variância dos
56
retornos como medida de risco em aplicações da teoria de portfólio em
carteiras de crédito.
Altman sugere uma abordagem que utiliza perdas inesperadas como medida
de risco. O conceito de perda inesperada está ligado à variabilidade ou
dispersão dos possíveis resultados de perda. Altman utilizou o modelo Z’-Score
(Altman et al., 1995) calculado em cada período para cada empresa, para
estimar a perda esperada dos títulos analisados ao longo do tempo. A medida
de perda inesperada utilizada por Altman foi a variância da perda esperada de
um título. Altman obteve a fronteira eficiente com esta nova abordagem para o
mesmo conjunto de títulos que utilizou na abordagem tradicional, obtendo
portfólios eficientes com composições bastante parecidas em ambas as
metodologias, indicando uma sensibilidade pequena dos resultados ao conceito
de risco utilizado.
Apesar da perda inesperada ser uma medida de risco útil para avaliação do
risco de crédito, Altman se desvia do contexto teórico da abordagem de
Markowitz (1952) ao substituir a variância dos retornos pela perda inesperada.
Na medida em que a variância dos retornos não é mais utilizada não podemos
afirmar que os portfólios obtidos na fronteira eficiente são realmente eficientes
no sentido estabelecido por Markowitz.
2.2 - Modelos para gerar a distribuição de perdas ou valor de carteiras
O trabalho de Chirinko e Guill (1991)
O primeiro trabalho a propor um método que possibilita gerar a distribuição de
perdas de uma carteira foi o de Chirinko e Guill (1991). Eles propuseram uma
abordagem econométrica para a obtenção da distribuição das perdas de uma
carteira de crédito. Sua proposta relaciona a perda de crédito em um
determinado setor com variáveis macroeconômicas e variáveis específicas do
setor. A distribuição de perdas de crédito é construída a partir de diferentes
57
premissas acerca de possíveis estados da natureza, que podem ser vistos
como possíveis conjuntos ou cenários de condições econômicas. Eles
estabelecem que:
[ ] is,is,i I3,..., 2, 1,i S2,..., 1,s I ==ε+Λ= y Eq. 2-1
onde:
• li,s é a perda de crédito no setor i no estado da natureza s;
• yi,s é um vetor de variáveis que influenciam a rentabilidade no setor;
• Λ[⋅] é uma função que é estimada econometricamente;
• εi é um fator específico do setor.
Os determinantes da perda em um setor (yi,s) são considerados função de
fatores macroeconômicos como, por exemplo, taxa de juros e crescimento do
PIB:
( ) I3,..., 2, 1,i S2,..., 1,s , NJxSs,i ==ψ= ZXy Eq. 2-2
onde:
• XJxS é uma matriz contendo os J fatores macroeconômicos que variam
em função do estado da natureza s;
• ZN e um vetor de N fatores macroeconômicos que permanecem fixos em
todos os estado da natureza;
• ψ é uma função estimada por meios econométricos.
Para cada fator macroeconômico que compõe XJxS é especificado um conjunto
de possíveis resultados com suas respectivas probabilidades. A permutação
entre os possíveis resultados dos fatores dá origem ao conjunto de possíveis
estados da natureza. A probabilidade de ocorrência de cada estado da
natureza é obtida através das probabilidades de ocorrência de cada um dos
resultados dos fatores macroeconômicos considerados.
58
Um determinado estado da natureza é representado por um cenário de valores
das J variáveis macroeconômicas descritas acima, ou seja, por uma coluna da
matriz XJxS. A probabilidade de ocorrência dos estados da natureza é
representada no vetor de probabilidades ΠΠΠΠSx1 , cuja soma dos elementos
totaliza 1.
A matriz XJxS é utilizada para gerar a perda de crédito em um determinado setor
condicionada ao estado da natureza s. Os valores de perda de cada setor em
um determinado estado da natureza são ponderados pela participação de cada
setor na carteira para gerar a perda da carteira no estado da natureza s, que,
em conjunção com o vetor de probabilidades ΠΠΠΠSx1, geram a distribuição de
perda da carteira.
O trabalho de Jacobson e Roszbach (2003)
Na pesquisa realizada nesta Tese a única referência encontrada na literatura
de um modelo de risco de portfólio aplicado ao crédito a consumidores foi
Jacobson e Roszbach (2003), que apresentam uma aplicação de cálculo do
VAR de crédito no mercado sueco. Eles utilizaram uma base de dados de
13.338 propostas de empréstimos com informações sócio-demográficas, valor
dos empréstimos, performance dos empréstimos (bom ou mau). Esta base foi
enriquecida com informações de comportamento de crédito provenientes de um
bureau de crédito sueco. Em função dos dados disponíveis o horizonte médio
de previsão utilizado na nesta aplicação foi de 619 dias. Não foi feita distinção
entre os conceitos de default e perda utilizados. Ambos foram definidos como o
evento da operação de crédito ser enviada para uma agência de cobrança.
Jacobson e Roszbach (2003) construíram um modelo que consiste de duas
equações simultâneas, uma para a decisão de conceder ou não o empréstimo
e outro para prever o resultado de ocorrência ou não de default nos créditos
concedidos. Para a formulação do modelo, eles estabeleceram duas variáveis
não observadas y*1i e y*2i:
59
N ,2, 1, i para xy
xy
i22i2*
i2
i11i1*i1
�=ε+α=
ε+α=
Eq. 2-3
Onde:
- i é o índice que representa uma proposta de crédito;
- x1i e x2i são vetores de variáveis explicativas;
- αααα1 e αααα2 são vetores de coeficientes (parâmetros);
- ε1i e ε2i são termos de erro com distribuição bivariada normal com média
zero, variâncias unitárias e correlação ρ.
A variável de aceitação ou não da proposta, y1i, é definida como:
y1i = 0 se a proposta não for aceita (y*1i < 0)
y1i = 1 se a proposta não for aceita (y*1i ≥ 0)
A variável de performance do empréstimo, y2i, é definida como:
y2i = 0 se houver default (y*2i < 0)
y2i = 1 se não houver default (y*2i ≥ 0)
Os parâmetros do modelo são obtidos por método de máxima verossimilhança.
A distribuição de perda para a carteira é obtida por simulação de Monte Carlo
da seguinte forma:
1. Para cada operação aprovada da base de dados utilizada é gerada uma
realização do termo de erro do modelo de previsão de default.
2. Utilizando o valor simulado acima, calcula-se a probabilidade esperada de
default, E[pi].
3. A perda na carteira é calculada sumarizando os resultados para todas as
operações aprovadas:
[ ]� ×=i
ii qpEPerda
onde E[pi] é o valor esperado da probabilidade de default e qi é o valor do
empréstimo.
60
4. Os passos anteriores são repetidos milhares de vezes para obter milhares
de realizações de perda na carteira que representam a distribuição de
perda.
A deficiência do método proposto por Jacobson e Roszbach (2003) é que não
são consideradas as relações de dependência entre as perdas nas diversas
operações, o que pode levar a resultados subavaliados para o VAR de crédito
da carteira. A metodologia de simulação de Monte Carlo para obter
distribuições de perda ou de inadimplência a partir dos erros de modelos
econométricos também foi adotada na formulação do modelo
CreditPortfolioView, vista anteriormente, e por Andrade (2003).
Outros trabalhos
A linha de pesquisa em modelos para determinação de distribuição de perdas
ou valor de uma carteira de crédito obteve a maior parte de seu crescimento
inicial fora da academia, em uma série de iniciativas de empresas de
consultoria e instituições financeiras. Desta forma surgiram os 4 modelos de
risco de portfólio descritos no Capítulo 1 desta Tese (CreditMetrics,
CreditRisk+, CreditPortfolioview e KMV).
As instituições que desenvolveram estes modelos os divulgaram largamente, o
que levou a uma série de trabalhos publicados que buscam analisar, comparar,
aplicar e estabelecer extensões aos modelos citados acima. Esses modelos se
tornaram uma referência para todos os trabalhos desenvolvidos posteriormente
e, mesmo em outros modelos propostos, seus autores buscam freqüentemente
encaixar esses modelos como casos especiais do novo modelo desenvolvido.
Descrições adicionais sobre esses quatro modelos podem ser encontradas em
Caouette et al. (1999), Saunders (1999) e Smithson (2003).
Koyluoglu e Hickman (1998) formularam uma estrutura geral para modelos de
risco de portfólio na qual os modelos Creditmetrics, KMV, CreditRisk+ e
61
CreditPortfolioview podem ser encaixados. A estrutura proposta por Koyluoglu
e Hickman (1998) é formada por três elementos:
• Comportamento conjunto de default – Definição de como movimentos
conjuntos de alta ou baixa de ocorrência de defaults estão
explicitamente ou implicitamente relacionados com fatores sistêmicos.
• Distribuição condicional da taxa de default do portfólio - Refere-se à
definição da distribuição que, condicionada a um determinado cenário de
fatores sistêmicos, governa a ocorrência de default em grupos
homogêneos de devedores. Condicionalmente a um determinado
cenário de fatores sistêmicos, a ocorrência de defaults em um grupo
homogêneo de devedores é considerada independente.
• Covolução/agregação – Junção das distribuições condicionais dos
grupos homogêneos de devedores que compõe a carteira. Para obter a
distribuição incondicional de default no portfólio, as distribuições
condicionais de cada grupo são agregadas em cada cenário de fatores
sistêmicos e ponderadas conforme a probabilidade de ocorrência de
cada cenário.
Gordy (2000) faz uma comparação entre os modelos Creditmetrics e
CreditRisk+. Para tornar a comparação mais fácil, Gordy utilizou uma versão do
Creditmetrics com apenas 2 estados de situação de crédito: em default ou não.
Apesar das diferenças entre as premissas de distribuição e formas funcionais,
Gordy verificou que o Creditmetrics pode ser colocado na estrutura do
CreditRisk+ e vice-versa. Gordy realizou simulações dos dois modelos com
portfólios hipotéticos e concluiu que os resultados foram muito similares
quando a volatilidade da taxa de default é baixa.
Crouhy, Galai e Mark (2000) também realizaram um estudo comparativo entre
modelos de risco de portfólio, incluindo além do Creditmetrics e do CreditRisk+
também o KMV e o CreditPortfolioView. O trabalho apresenta um resumo de
cada metodologia e breves comparações conceituais.
62
Kern e Rudolph (2001) realizaram outro estudo comparativo de modelos com
aplicação em portfólios de empréstimos na Alemanha. Eles analisaram o
Creditmetrics, o CreditRisk+ e o CreditPortfolioView e concluíram que as
diferenças em resultados são decorrentes principalmente das diferenças nas
abordagens de aproximação das correlações.
Koyluoglu et al. (1999) analisaram a diferença entre resultados obtidos com
diferentes modelos e concluíram que, apesar de apresentarem resultados
semelhantes quando os parâmetros de entrada dos modelos estão
harmonizados2 entre si, é encontrada inconsistência nos resultados quando
são utilizados os parâmetros e fontes de dados originais dos modelos. Essas
inconsistências são potencialmente derivadas de diferentes sistemas para
estimar a probabilidade de default, diferentes considerações sobre taxas de
recuperação e diferenças no tratamento dos valores de exposição de das
correlações.
Giese (2002) propõe uma nova fórmula de recursão para gerar a solução
analítica no CreditRisk+. A formula proposta é mais rápida que a recursão de
Panjer (1981) utilizada originalmente no CreditRisk+, e é numericamente
estável e precisa, mesmo para portfólios muito grandes e com muitos fatores
de risco, situação em a formulação tradicional do CreditRisk+ apresenta
instabilidade (Gordy, 2002) .
Schönbucher (2000) defende a utilização de modelos de fatores para que a
obtenção da distribuição de perdas de uma carteira possa ter um tratamento
analítico. Modelos de fatores, também conhecidos como modelos de risco de
crédito condicionalmente independentes, estabelecem que a dependência
entre a ocorrência individual de defaults é devida a um número pequeno de
fatores sistemáticos. Condicionalmente a valores destes fatores os defaults são
independentes. Devido às dificuldades de obtenção de dados para cálculo de
correlações, Schönbucher afirma que é preciso um modelo teórico para as
correlações que permita o uso das fontes de dados disponíveis. Ele apresenta
2 Koyluoglu e Hickman (1998) fornecem equações de harmonização dos parâmetros.
63
duas soluções para um modelo de risco de crédito: utilizando um fator único e
múltiplos fatores.
Nickel et al. (2001) fizeram testes de modelos de risco de portfólio de crédito
em carteiras de Eurobonds. Foram utilizados um modelo baseado em ratings
(semelhante ao Creditmetrics) e um modelo baseado na teoria de opções
(semelhante ao KMV). As conclusões indicaram que os modelos subavaliaram
o risco real dos portfólios analisados de Eurobonds, principalmente de
empresas não norte-americanas.
No contexto brasileiro Schechtman et al. (2003) realizaram a aplicação do
CreditRisk+ em carteiras de bancos brasileiros, comparando níveis de
exigência de capital utilizando a abordagem de ratings internos (IRB) (BIS,
2001) com resultados do CreditRisk+ utilizando uma ampla faixa de valores de
volatilidade da taxa de default. Eles concluíram que, para maioria dos casos
analisados as exigências de capital utilizando o CreditRisk+ foram inferiores.
Apenas quando a volatilidade utilizada é muito alta o CreditRisk+ fornece
resultados com exigências superiores à abordagem do IRB. Trabalho
semelhante foi realizado por Balzaroti et al. (2002) na Argentina, onde verificou-
se que os resultados da aplicação do CreditRisk+ foram muito sensíveis ao
parâmetro de volatilidade utilizado. Outro trabalho realizado no mercado
brasileiro foi o de Prado et al. (2001), que apresentaram um exemplo de cálculo
de capital econômico para uma carteira de um banco.
Paralelamente aos artigos publicados sobre desenvolvimento, comparação e
aplicação de modelos de risco de portfólio, dois trabalhos de pesquisa sobre
práticas de mercado merecem citação. O comitê de Basiléia de supervisão
bancária publicou em 1999 o relatório “Credit Rik Modelling: Current Practies
and Applications” que incluiu o envolvimento de 20 grandes bancos
internacionais em 10 diferentes países. Este trabalho inclui uma descrição das
práticas correntes em modelagem de crédito e discussões sobre aplicações e
limitações dos modelos existentes para propósitos regulatórios e de
supervisão. A RMA publicou, também em 1999, o relatório “The Customer
Value Imperative”, abordando resultados de uma pesquisa com 38 bancos
americanos sobre práticas de gestão de carteira em crédito ao consumidor.
64
3 - ESCOPO DO MODELO PROPOSTO
O modelo proposto, de agora em diante denominado MPCC (Modelo de
Portfólio de Crédito ao Consumidor), visa ser um instrumento para previsão da
distribuição de perdas de crédito ao consumidor no mercado brasileiro. Desta
forma, o modelo desenvolvido deve possuir características que não só sejam
consistentes em relação à sua aplicação a carteiras de crédito ao consumidor,
mas também que sejam adequadas à disponibilidade de dados de crédito ao
consumidor no Brasil.
O primeiro ponto a destacar quando falamos de modelos aplicáveis ao crédito
ao consumidor é a grande dificuldade de uma abordagem estrutural da mesma
forma como é feita para modelos direcionados ao crédito corporativo. A
abordagem estrutural envolveria a formulação de uma teoria microeconômica
sobre o processo de default no crédito ao consumidor. A aplicação do modelo
formulado necessitaria da realização de simulações para cada elemento da
carteira, o que demandaria um poder computacional muito grande em carteiras
de crédito ao consumidor, que normalmente possuem um número muito grande
de operações.
Desta forma, ficamos limitados à utilização dos modelos chamados de forma
reduzida, cuja base conceitual são modelos estocásticos que visam modelar a
intensidade de ocorrência de default. O Capítulo 1 apresentou detalhes sobre
este tipo de modelo.
Outro ponto que diferencia o modelo proposto dos modelos aplicados ao
crédito corporativo em mercados maduros, como nos EUA, é o período de
avaliação utilizado. Ao invés de trabalharmos com o período de um ano,
tradicionalmente utilizado em modelos de risco de portfólio de crédito,
utilizamos um período de avaliação de um mês. Esta escolha foi devida às
características do crédito ao consumidor no mercado nacional, constituído em
grande parte de operações de CDC e crédito pessoal de prazo inferior a um
ano, e à disponibilidade de informações históricas, que não abrangia um
período muito longo. Conforme se adota um período de avaliação mais longo
65
torna-se necessário um histórico de dados para estimar os parâmetros do
modelo também mais longo.
Desta forma o modelo proposto nesta Tese pretende prever a distribuição de
perda relacionada aos recebíveis do mês subseqüente. Entretanto, se existir a
necessidade de obtenção da distribuição de perda de crédito para períodos de
avaliação maiores e houver disponibilidade de um histórico longo de dados
para estimação dos parâmetros do modelo, nada impede a sua utilização com
tais períodos.
Os modelos de risco de portfólio existentes atualmente não modelam
diretamente a recuperação de crédito ou assumem uma premissa de
independência ao modelar a recuperação de crédito. No MPCC o default e a
recuperação não são tratadas separadamente. Busca-se modelar diretamente
a perda de crédito. Esta abordagem simplifica o processo de obtenção da
distribuição de perda e torna desnecessário utilizar uma premissa de
independência entre ocorrência de default e recuperação, pois esta relação de
dependência já está internalizada na avaliação direta da perda de crédito.
A formulação do MPCC objetiva a simplicidade conceitual e caracteriza-se pela
obtenção da distribuição de perda de crédito de uma carteira por simulação de
Monte Carlo. De uma maneira geral o modelo proposto pode ser dividido em
duas etapas principais:
- Divisão da carteira em segmentos
Nesta etapa busca-se separar as operações de crédito de uma carteira em
grupos que possam ser considerados, segundo os objetivos de nosso
modelo, como homogêneos. Cada segmento caracterizará um determinado
tipo ou perfil de operação de crédito. Para um deles determinaremos uma
distribuição estatística de perda característica.
Com o processo de segmentação da carteira, um número muito grande de
elementos de uma carteira passa a ser representado por um número
pequeno de segmentos. A etapa posterior de simulação utilizará os
segmentos ao invés dos elementos individuais da carteira, simplificando o
66
processo de obtenção da distribuição de perda da carteira e reduzindo o
poder computacional necessário para a aplicação do modelo.
- Simulação da distribuição de perda da carteira
O processo de segmentação gera valores simulados de perda de crédito em
cada segmento da carteira de acordo com a distribuição estatística que
historicamente caracteriza cada segmento. Estes valores seguem
conjuntamente uma distribuição estatística multivariada na qual as perdas
de crédito dos diversos segmentos da carteira estão correlacionadas entre
si. A simulação gera valores de perda nos segmentos de acordo com uma
matriz de correlações que é obtida a partir de dados históricos.
Obtendo a média ponderada das perdas simuladas conjuntamente nos
segmentos chega-se a valores simulados de perda na carteira. A
ponderação é baseada na representatividade de cada segmento na carteira.
Milhares de valores simulados de perda na carteira representam a
distribuição de perda de crédito para a carteira.
3.1 - Divisão da Carteira em segmentos
Para solucionar a questão de qual o critério de segmentação a ser utilizado,
propomos a utilização de duas dimensões para segmentar as operações de
crédito de uma carteira:
- Características do consumidor;
- Classificação de risco da operação.
A seguir é realizada uma breve descrição dos processos utilizados na
segmentação, que serão estudados em maior detalhe no capítulo 6.
67
3.1.1 - Segmentação por características do consumidor
Nosso objetivo final nesta segmentação é obter grupos de consumidores com
um comportamento homogêneo de perda de crédito. No processo de
segmentação proposto consideramos que dois consumidores são homogêneos
quando existe uma alta correlação entre as séries históricas de perda de
crédito apuradas para o perfil de cada um dos dois consumidores.
Para atingir o objetivo proposto, o processo de segmentação dos consumidores
é realizado em duas etapas:
• Definição de segmentos iniciais (solução inicial) utilizando variáveis
sócio-demográficas e comportamentais dos consumidores. Essas
últimas são baseadas no histórico de busca, utilização e pagamento
de crédito dos consumidores.
• Agrupamento dos segmentos iniciais com base no comportamento de
perda verificado nas operações de crédito dos consumidores desses
segmentos.
A etapa inicial de segmentação é necessária porque apenas é possível
construir séries históricas de perda de crédito para grupos de consumidores e
não consumidores individuais. Desta forma, inicia-se pela divisão dos
consumidores da carteira em grupos com características cadastrais e
comportamentais homogêneas. Em seguida, esses grupos iniciais sofrem um
segundo agrupamento conforme seu comportamento histórico de perda de
crédito.
3.1.2 - Segmentação por risco da operação
A dimensão do risco da operação é caracterizada através de um modelo que
permite prever a perda em uma operação de crédito no horizonte de um
68
período. Esse modelo utiliza como variáveis preditivas características do
consumidor e da própria operação. O resultado deste modelo é fornecido na
forma de uma pontuação que pode ser categorizada em classes de risco. Este
modelo pode ser, por exemplo, um modelo de credit scoring ou behavior
scoring da instituição.
3.1.3 - Definição dos segmentos finais
De acordo com os processos descritos acima, as operações de crédito que
compõe uma carteira podem ser agrupadas tanto segundo o perfil do
consumidor e quanto em função do risco da operação. Os segmentos finais
que serão utilizados na fase de simulação são obtidos pelo cruzamento entre
estas duas dimensões. A Tabela 3-1 ilustra a obtenção dos segmentos finais
para o caso simples de 2 segmentos em cada dimensão.
Tabela 3-1 – Exemplo de segmentação de carteira de crédito
Risco da operação
Baixo Risco Alto Risco
Consumidor
Tipo 1 Segmento A Segmento B
Características
do consumidor Consumidor
Tipo 2 Segmento C Segmento D
3.2 - Simulação da distribuição de perda na carteira
Após a definição final dos segmentos, no MPCC utilizamos simulação de Monte
Carlo para gerar a distribuição conjunta de perda nos segmentos da carteira,
que é posteriormente utilizada para deduzir a distribuição de perda na carteira.
O processo engloba duas etapas:
69
• Seleção de distribuições estatísticas teóricas para modelar perda de
crédito em cada segmento da carteira.
• Modelagem da dependência entre a perda de crédito nos diversos segmentos da carteira e simulação de Monte Carlo.
3.2.1 - Seleção de distribuições estatísticas para modelar perda em cada
segmento da carteira
A abordagem nesta etapa é a determinação empírica da distribuição estatística
mais adequada aos dados históricos de perda em um determinado segmento.
A metodologia proposta envolve o teste de diversas distribuições teóricas e a
avaliação da melhor opção através da estatística de Anderson-Darling (1952),
que é uma medida de avaliação de ajuste de distribuições. Esta medida foi
escolhida por ser muito sensível ao ajuste das caudas da distribuição, que
possuem especial importância na avaliação do risco de crédito. O teste de
distribuições envolve a estimação de parâmetros para as diversas distribuições
testadas.
A estimação de parâmetros de distribuições foi realizada utilizando técnicas de
regressão não linear e de otimização de função de máxima verossimilhança e
está descrita em detalhe no capítulo 7.
Um problema para o processo de ajustes de distribuições é a existência de
poucas observações mensais de perda. Para ter um número grande de
observações o período de abrangência dos dados deve ser muito grande, o
que normalmente não está disponível. No escopo do MPCC é proposto um
método de reamostragem (Politis et al., 2001) para gerar um grande número de
observações mensais de perda para o processo de ajuste de distribuições.
70
3.2.2 - Modelagem de dependência e simulação de Monte Carlo
No MPCC a relação de dependência entre a perda de crédito de dois
segmentos é definida por um valor de correlação e uma função de cópula
(Nelsen, 1999). A função de cópula é o mecanismo adotado para gerar a
distribuição conjunta de perda de crédito nos diversos segmentos da carteira
(distribuição multivariada) a partir das distribuições marginais de cada
segmento (distribuições univariadas) e da matriz de correlações entre as
perdas nos segmentos. Para a aplicação do MPCC é necessário selecionar
que tipo de função de cópula será utilizado. A aplicação de funções de cópula
no MPCC será discutida em maior detalhe no capítulo 8.
Através da aplicação da função de cópula, a simulação gera milhares de
realizações conjuntas de perda nos diversos segmentos, cada qual seguindo a
sua respectiva distribuição estatística marginal. A ponderação destas
realizações pela exposição de cada segmento na carteira gera uma realização
simulada de perda na carteira. Milhares dessas realizações definem a
distribuição de perda para a carteira.
3.3 - Estimação de parâmetros e aplicação do MPCC
Após esta introdução inicial acerca do MPCC, para facilitar a compreensão
acerca da formulação e do funcionamento do modelo é interessante
realizarmos a separação entre dois processos:
• Estimação de parâmetros do MPCC.
• Aplicação do MPCC.
O primeiro processo diz respeito à utilização de uma base de dados contendo
informações históricas de operações de crédito contendo dados de
pagamentos para estimar os parâmetros que serão posteriormente utilizados
para realizar previsões da distribuição de perda de crédito da carteira em
71
períodos futuros. A realização destas previsões é o que chamamos de
aplicação do MPCC.
O conceito de parâmetros do MPCC deve ser compreendido de maneira ampla,
englobando não somente grandezas numéricas, mas também as distribuições,
funções de cópula e segmentação da carteira que serão utilizadas na aplicação
do modelo. Seguindo este conceito, podemos listar os seguintes parâmetros a
serem definidos ou estimados para possibilitar a futura aplicação do MPCC a
uma carteira de crédito:
• A segmentação da carteira que será utilizada. Isto se traduz em um
algoritmo que possibilita a alocação de uma exposição a um dos
segmentos.
• Distribuições marginais de perda de crédito que serão utilizadas em
cada segmento.
• Parâmetros das distribuições marginais escolhidas.
• Função de cópula que será utilizada.
• Matriz de correlações entre a perda de crédito nos diversos segmentos
da carteira.
Para o processo de estimação de parâmetros do MPCC para uma carteira de
crédito precisamos utilizar uma base de dados contendo:
• Informações históricas de operações de crédito – utilizadas para avaliar
historicamente o padrão de ocorrência de perda de crédito na carteira.
• Informações cadastrais e comportamentais dos consumidores
devedores das operações citadas acima – utilizadas para estabelecer o
processo de segmentação da carteira.
Para a o processo de aplicação do MPCC em uma carteira de crédito
precisamos precisa utilizar uma base de dados contendo:
72
• Exposição de cada operação de crédito da carteira no período –
expressa pelo valor dos pagamentos previstos no horizonte de previsão
de um período.
• Informações cadastrais e comportamentais dos consumidores
devedores das operações citadas acima – utilizadas para alocar a
operação em um dos segmentos definidos na etapa de estimação dos
parâmetros.
A Figura 3-1 é uma representação esquemática do MPCC e auxiliará ao leitor
na compreensão dos processos de estimação de parâmetros e aplicação do
modelo. As setas vermelhas representam os inputs e outputs dos processos. A
estimação de parâmetros e a aplicação do modelo são apresentadas de forma
paralela, sendo identificadas em cada processo as etapas relacionadas à
segmentação da carteira e à simulação da distribuição de perdas.
No decorrer dos próximos capítulos estaremos explorando em maior detalhe
cada aspecto relevante dos processos descritos na Figura 3-1. Paralelamente à
discussão da metodologia e dos conceitos adotados estaremos também
apresentando resultados relativos à estimação de parâmetros e aplicação do
MPCC a uma base de dados de crédito ao consumidor.
Para assegurar resultados consistentes com a utilização do modelo o processo
de estimação de parâmetros deve ser validado através da aplicação do MPCC
em diversos períodos históricos para os quais é possível comparar a
distribuição de perda simulada com a distribuição de perda empírica
(observada). O trabalho empírico realizado nesta Tese segue esta linha e é
composto pela estimação de parâmetros do modelo e validação do modelo
pela aplicação em uma base histórica de dados.
73
Figura 3-1 – Respresentação esquemática do MPCC
APLICAÇÃO DO MODELO
ESTIMAÇÃO DE PARÂMETROS
�������������������������� ��������� ������- '� ���� � � �� �� � � � � ���
� ��� �� ��� � ���� �� �� � ������� �
- ! ��� �( � ) �� �� ������ �� � � �� ����� �" ����� ���� ���� � � �� ����� � ��� ��
� �� ��� � � ��� ���� ��� �� ��� ��
����� " ��� ����� ��� �
� �� ��� � � ��
����� �� �� ���� ��� �� ��� ��
� �� � ��� � ������ " ��� �( � ) �� � ��
���� ��� ����� �" ���
� � � � �� � � ������� � ��� � �
�� �� � � �� �
� �� ��� �� �� �� ��� ����� �" ����� �� �������� ��� � � ��� �� �
� �� ��� ��
� ���� � ��� � ��� �� �� � �� �
� �� � � ����� ��� �� ����� �� ��� ��
* � � ��( �� ���� � � �����
�� ) � �� �
� � �� ����� �� �� ����� ����� � � �� ��
�� ���� �� ��� �� ���
� ���� � � � ������ �� ����������� �� ������ �����
� � � ������� � �� �������� ����� ������� ���� � ��+
�
�
, ��� � � ��� � ��� �� � � �� ����
� �" ���� �� �� �� ��� �� �
� ��� �� � � ��� �� ��� -�
� �� � � � ����� �� �� ��� ��
� ��� � � ������ ��� �� �� ��
� �� ��� �� �
�
� �� ��� � � ��� �� ��% � �� � � ��
�
� ���� � � ��������������� � ����
� ��� ������ ��� ��� �� ������ ��
�� ���
����������������������� � ������! " # # ��- '� ���� � � �� �� � � � � ���
� ��� �� ��� � ���� �� �� � �������
- * % � �� � � �� ����� � ��� �� � � ��� ��� ��#���
SE
GM
EN
TAÇ
ÃO
S
IMU
LAÇ
ÃO
74
3.4 - Aplicação do MPCC em instituições financeiras
O MPCC foi desenvolvido utilizando informações de um Bureau de crédito, mas
pode ter seu desenvolvimento inteiramente replicado em uma instituição com
uma grande carteira de crédito ao consumidor. A necessidade de uma base de
dados com grande número de consumidores é a principal restrição à aplicação
do modelo, pois os métodos utilizados para segmentar e selecionar a
distribuição de perda de cada segmento necessitam de uma massa de dados
expressiva. Estimamos que o método possa ser aplicado em carteiras com
mais de 10 mil operações ativas sem trazer prejuízos para o processo proposto
de segmentação.
Em instituições ou carteiras muito pequenas, a utilização dados de um bureau
de crédito que contenha informações de diversas instituições do mercado
possibilitaria a aplicação do MPCC. Neste caso, alguns dos critérios utilizado
no modelo seriam definidos utilizando a base de dados do bureau de crédito.
Por exemplo, em uma situação de poucos dados e recursos para o
desenvolvimento do modelo internamente, uma instituição pode realizar a
simulação de perda para a sua carteira utilizando os segmentos, distribuições
marginais e a matriz de correlações obtidos em um contexto genérico de um
bureau de crédito.
75
4 - DADOS EMPÍRICOS UTILIZADOS NA PESQUISA
O trabalho empírico utilizou informações de operações de crédito nas
modalidades crédito pessoal e financiamento de bens realizadas por dois
milhões de consumidores. Os dados foram fornecidos pela SERASA S.A., que
é a maior empresa de informações de crédito no Brasil. Os consumidores
foram selecionados aleatoriamente a partir da base de pessoas físicas com
informações no CREDIT BUREAU SERASA, que é o serviço de Bureau de
Crédito oferecido pela SERASA.
No desenvolvimento do modelo foram utilizados dados de comportamento de
pagamento de operações de crédito janeiro de 1999 até janeiro de 2002. Não
foi estabelecida nenhuma restrição quanto à data de concessão de crédito.
Assim temos operações iniciadas tanto antes quanto depois de janeiro de
1999.
Os dados disponíveis de comportamento de crédito possuíam alto grau de
detalhamento, com a informação de valores de cada parcela dos
financiamentos, como suas datas de vencimento, pagamento e valores pagos.
Além das informações de pagamentos previstos e realizados, a amostra
continha características cadastrais e comportamentais dos consumidores.
Adicionalmente, foram disponibilizadas para os consumidores desta amostra
resultados de produtos comerciais de classificação de risco e segmentação
comercializados pela SERASA, que também foram utilizados como
características dos consumidores.
As informações disponíveis para o desenvolvimento do trabalho foram:
• Anotações negativas - registros de não pagamento de dívidas, incluindo:
• Protestos;
• Ações judiciais;
• Cheques sem fundo;
76
• Registros de dívidas vencidas e não pagas enviadas para à
SERASA por seus clientes.
• Informações cadastrais:
• Sexo;
• Idade;
• Renda;
• Profissão;
• Natureza da ocupação (se empregado, funcionário público,
profissional liberal, etc.) ;
• CEP residencial.
• Consultas realizadas por clientes da SERASA aos consumidores:
• Consultas de cheques;
• Consultas para aprovação de crédito.
• Credit Bureau Scoring – modelo de credit scoring genérico
comercializado pela SERASA. É um sistema composto de 5 diferentes
modelos de regressão logística, cada qual voltado para segmentos
específicos da população. O Credit Bureau Scoring é fornecido na forma
de uma pontuação entre 0 (maior risco) e 1000 (menor risco) que está
associada à probabilidade do consumidor apresentar informações
negativas em um prazo de 12 meses. Os modelos se baseiam no
histórico comportamental do consumidor registrado na SERASA e em
seu perfil sócio-demográfico. Foram fornecidos os valores do score de
cada consumidor em cada mês do período analisado.
• Credit Target – modelo de segmentação comercializado pela SERASA
que é baseado nos últimos 2 anos de comportamento de busca e
consumo de crédito do consumidor. No modelo são analisadas as
dimensões de nível de atividade de crédito, tempo de atividade de
crédito registrada e tendência de evolução da atividade de crédito. Um
consumidor pode ser alocado em um dos seguintes segmentos:
• Atividade de crédito alta e entrada recente no mercado;
• Atividade de crédito alta com tendência crescente de atividade;
77
• Atividade de crédito alta com tendência decrescente de
atividade;
• Atividade de crédito média e entrada recente no mercado;
• Atividade de crédito média com tendência crescente de
atividade;
• Atividade de crédito média com tendência decrescente de
atividade;
• Baixa atividade de crédito;
• Inativos em crédito, mas ativos em cheques;
• Inativos em crédito e em cheques.
Esta variável foi fornecida para cada consumidor em cada mês do
período analisado.
• Dados de compromissos financeiros assumidos – contendo informação
sobre:
• Data de realização das operações;
• Prazo das operações;
• Valor das operações.
• Dados de pagamentos previstos e realizados:
• Valor devido;
• Valor pago;
• Data de vencimento;
• Data de pagamento.
Todas as informações fornecidas permitiam identificar em uma determinada
data no passado quais eram as informações vigentes para o consumidor
naquele exato momento. Isto é de vital importância para a construção dos
modelos, pois é necessário reproduzir a situação exata do consumidor em cada
mês do período analisado.
78
5 - CÁLCULO DA PERDA DE CRÉDITO
5.1 - Definição de Perda de crédito
Na medida em que o objetivo principal de um modelo de risco de portfólio é
determinar a distribuição de perda de crédito na carteira, a definição da perda
de crédito é um ponto de importância central no desenvolvimento do modelo.
Seu impacto dá-se no modo como a perda de crédito é calculada e como ela é
tratada na formulação do modelo.
A abordagem mais comum em modelos de risco de crédito é a modelagem da
distribuição de eventos de default ou da taxa de inadimplência. A perda de
crédito é obtida multiplicando a taxa de inadimplência por (1 - taxa de
recuperação). Nesses modelos considera-se a recuperação de créditos em
default como uma variável aleatória independente da inadimplência ou mesmo
como uma variável exógena ao modelo. Esse tratamento simplificado da taxa
de recuperação advém tanto da dificuldade de modelar a recuperação como de
levantar e controlar informações de valores de recuperação no mercado de
crédito corporativo.
A recuperação é freqüentemente representada na forma da medida “perda
dada inadimplência” (traduzido do termo inglês Loss Given Default), onde:
Perda dada inadimplência = 1 – Taxa de recuperação Eq. 5-1
Os valores envolvidos na perda dada a inadimplência, ou PDI, se referem à
perda do principal do empréstimo, do custo de carregamento (juros devidos) e
dos custos de execução e cobrança.
No desenvolvimento do MPCC não foi feita a separação entre taxa de
inadimplência e recuperação. Procurou-se modelar diretamente a perda de
crédito, que é definida genericamente no Quadro 5-1.
79
Quadro 5-1 – Definição de perda de crédito adotada no MPCC
dívida da Valorrealizados pagamentos dos presente Valor
1crédito de Perda −=
Seja, por exemplo, uma exposição de R$ 1.000 cujo vencimento foi em
01/01/2001 e cujo devedor realizou em atraso dois pagamentos de R$ 500
cada, um em 01/03/2001 e outro em 01/06/2001. Supondo que a taxa de
desconto utilizada seja 2% a.m., o valor presente dos dois pagamentos em
01/01/2001 (vencimento da exposição) é R$ 915,15. A perda de crédito
apurada para esta exposição seria então igual a (1 - 915,15/1.000), ou seja,
8,5%.
Por simplicidade e conveniência, assumiu-se que os custos de cobrança ou
recuperação são desprezíveis. Apesar desta premissa ser questionável, ela foi
adotado em função da não disponibilidade deste tipo de informação na base de
dados utilizada. Entretanto, havendo disponibilidade deste tipo de informação
para a aplicação do MPCC por uma instituição financeira, ela deve ser
considerada.
5.2 - Considerações sobre perda de crédito e recuperação
Diversos trabalhos estimaram taxas de recuperação ou de PDI como, por
exemplo, Gupton et al. (2000). Esses trabalhos descrevem o histórico de taxas
de recuperação, mas não buscam desenvolver um modelo para estimá-las. A
maioria dos trabalhos nesta linha avalia a perda dada inadimplência através de
dados de mercado, ficando restritos a títulos ou empréstimos negociados no
mercado financeiro. Utilizando dados que incluíam a experiência no Brasil,
destaca-se um estudo realizado pelo CityBank (Hurt e Felsovalyi, 1998) que
avaliou a perda dada inadimplência em empréstimos bancários na América
Latina. Outras iniciativas buscaram desenvolver modelos para taxa de
80
recuperação como o LossCalc da Moody’s (Gupton e Stein, 2002). No
segmento de crédito à pessoas físicas, Eales e Bosworth (1998) fizeram um
estudo sobre a severidade de perdas envolvendo grandes empréstimos a
pessoas físicas e a pequenos negócios.
De acordo com Schuermann (2003), a recuperação ou equivalentemente a
perda dada inadimplência pode ser medida de três maneiras distintas:
• Baseada em dados explícitos de mercado – aplicável a títulos e
empréstimos que são negociados no mercado. A PDI pode ser medida
através de preços de mercado após o evento de default, que refletem a
expectativa geral dos investidores na recuperação do crédito. A relação
entre os preços de mercado do título após e antes do evento de default
fornece a expectativa que o mercado tem de recuperação para o título e,
por conseqüência, a PDI.
• Baseada em dados implícitos de mercado – utiliza informações de
spreads de títulos de risco e deriva a perda dada inadimplência a partir
de um modelo teórico de precificação de ativos. Modelos descritos por
Bakshi et al. (2001) e Unal et al. (2001) identificam as contribuições
devidas ao prêmio de risco e ao prêmio de liquidez no spread de títulos,
possibilitando a obtenção da perda esperada implícita no spread. Como
a perda esperada é:
Perda esperada = Probabilidade de inadimplência x PDI Eq. 5-2
para uma dada probabilidade de inadimplência a PDI implícita no spread
é obtida facilmente.
• Baseada no fluxo de caixa do processo de execução ou cobrança – o
fluxo de caixa resultante do processo de cobrança, incluindo pagamento
de principal, juros, multas bem como as despesas incorridas na
cobrança são apropriadamente descontadas para obter o valor da
recuperação.
A maneira mais simples de avaliar a recuperação é a utilização de dados de
mercado, o que é aplicável a títulos no mercado norte-americano. Entretanto,
81
quando nos voltamos para o objeto de nossa pesquisa, crédito ao consumidor
no Brasil, enfrentamos a total ausência de informações de mercado para utilizar
esta alternativa. A avaliação baseada no fluxo de caixa pode ser uma opção
difícil do ponto de vista de empréstimos corporativos dada a necessidade de
identificar todos os elementos do fluxo de caixa relativos aos empréstimos, mas
atraente quando se trata de crédito ao consumidor.
Em comparação ao crédito corporativo, informalmente sabemos que o crédito
ao consumidor apresenta uma situação mais favorável em função de diversos
fatores:
• Processos de recuperação mais rápidos.
• Geralmente os processos de cobrança no crédito ao consumidor não
são resolvidos judicialmente.
• Não há complicações ligadas à subordinação de créditos.
• Em crédito pessoal e crédito direto ao consumidor normalmente não são
utilizadas garantias, ou seja, o que se recupera é apenas o que é pago.
Desta forma, a maior simplicidade do processo de cobrança no crédito ao
consumidor permite o levantamento das informações necessárias para
construir o fluxo de caixa do processo de recuperação com maior facilidade.
5.3 - Proposta de cálculo de perda de crédito no MPCC
Dada a inexistência de dados que permitam a utilização de outros métodos, a
avaliação do fluxo de caixa foi a alternativa escolhida para calcular perda de
crédito na formulação do MPCC. Adicionalmente, visando a simplicidade do
processo de modelagem, propomos que a taxa de default e a perda dada
inadimplência não sejam modeladas separadamente, mas sim que o modelo
trabalhe diretamente com a perda de crédito.
82
Essa abordagem é inédita na formulação de modelos de portfólio e só é
possível na medida em que há disponibilidade de dados que incluam toda a
história da “vida” das operações de crédito da carteira alvo, desde a originação
até a eventual efetivação da perda de crédito após os procedimentos de
cobrança visando a recuperação de créditos inadimplentes. Essa abordagem
para crédito corporativo seria difícil, em função da maior dificuldade de
obtenção desses dados. Entretanto, os bureaus de crédito voltados ao crédito
ao consumidor propiciam um repositório de dados organizado e que possui
todos os elementos de informação referentes a operações individuais de
crédito que são necessárias para modelar diretamente a perda de crédito.
Devido à maior simplicidade do processo de crédito ligado a pessoas físicas é
mais fácil o levantamento dos dados necessários dentro de uma instituição
financeira, mesmo sem a utilização de bureaus de crédito.
Essa abordagem leva à simplificação da modelagem do risco, pois a
inadimplência e a recuperação não precisam ser tratadas separadamente.
Adicionalmente, não é necessário assumir a premissa de independência entre
inadimplência e recuperação, que pode gerar imprecisão nos resultados. Tão
pouco é necessário adicionar qualquer tipo de tratamento da relação de
dependência entre inadimplência e recuperação dentro do modelo, pois a
relação entre estas duas variáveis passa a ser internalizada na variável perda
de crédito.
Para estimar os parâmetros do MPCC é necessário calcular a perda de crédito
decorrente de cada operação a cada período, ou seja, em nosso caso
mensalmente. Para tal, cada parcela mensal de uma determinada operação de
crédito é avaliada como um elemento individual para o qual é calculado seu
respectivo valor de perda de crédito.
Dada uma operação de crédito “n”, a perda de crédito na i-ésima parcela da
operação n será calculada como:
83
realizado for pagamento o se VD
)r1(
VP
1
realizado for não pagamento o se 1
P
i
inin
ii
n
30)dtvencdtpag(nn
�
�
+−
=−
Eq. 5-3
onde:
• inP é a perda de crédito da i-ésima parcela da operação n;
• inVD é o valor devido da i-ésima parcela da operação n;
• inVP é o valor efetivamente pago da i-ésima parcela da operação n;
• indtpag é a data de pagamento da i-ésima parcela da operação n;
• indtvenc é a data de vencimento da i-ésima parcela da operação n;
• r é uma taxa mensal de desconto.
Analisando a equação acima, verificamos que o conceito de perda adotado
compara o valor devido com o valor presente dos pagamentos (à data de
vencimento).
De forma semelhante, a perda de crédito da operação n é:
VD
)r1(
VP
1P
iin
i30)indtvencindtpag(
in
n�
� −+−= Eq. 5-4
onde nP é a perda de crédito da operação n e os outros termos estão descritos
acima. A fórmula acima também pode ser utilizada para calcular a perda de
crédito em um portfólio, bastando aplicar os somatórios às parcelas de todas as
operações da carteira.
A média da perda em cada parcela de uma determinada operação de crédito
ponderada pelo respectivo valor de cada parcela também leva à perda de
crédito da operação:
84
( ) VDPVD1
Pi
nn
in
n ii
i
�
���
� ×= ��
Eq. 5-5
onde:
• nP é a perda de crédito da operação n;
• inP é a perda de crédito da i-ésima parcela da operação n;
• inVD é o valor devido da i-ésima parcela da operação n.
Para o desenvolvimento do modelo, é necessário obter valores de perda de
crédito de um portfólio em um determinado período. Isso é obtido de forma
similar ao cálculo da perda de uma operação. Através da média ponderada da
perda relacionada às parcelas das operações de crédito de um portfólio com
data de vencimento em um determinado período obtém-se a perda de crédito
do portfólio no período:
( ) VDPVD1
Pn
nn
nn
j jj
j
�
���
� ×= ��
Eq. 5-6
onde:
• jP é a perda de crédito da carteira no período j;
• jnP é a perda de crédito da operação n no período j;
• jnVD é o valor devido da parcela da operação n no período j.
A taxa de desconto r deve refletir o custo de oportunidade da instituição. Foram
identificadas duas alternativas para a taxa: CDI ou taxa média de captação
para operações de crédito ao consumidor (fornecida pelo Banco Central do
Brasil, www.bcb.gov.br). Dados sobre a taxa média de captação só existem a
partir de janeiro de 2000, que é uma data posterior ao do início do período
considerado nos dados deste trabalho. Entretanto, tanto a taxa média do CDI
entre jan/99 e fev/2002 quanto a taxa média de captação para operações de
crédito ao consumidor entre jan/00 e fev/02 foram 1,5% a.m., sendo este o
valor escolhido para a taxa de desconto r. Por simplicidade, optou-se pela
85
utilização do valor médio da taxa no período ao invés do valor da taxa em cada
mês.
De acordo com definição de taxa de perda utilizada, podemos identificar
situações atípicas, onde a taxa de perda poderá ser negativa:
• Se houver um pagamento em atraso (recuperação) com valor pago com
encargos superiores a r.
• Se houver um pagamento antecipado sem desconto.
Estas situações fazem parte da realidade econômica de operações de crédito
ao consumidor, mas, trabalhando com agregados de operações, é esperado
que estes casos se diluam, não ocorrendo taxas agregadas negativas.
Os resultados para o cálculo da perda de crédito para toda a amostra de dados
disponível estão apresentados na Figura 5-1.
Figura 5-1 – Perda de crédito apurada para toda a amostra de dados.
2%
3%
4%
5%
6%
7%
8%
9%
10%
11%
jan/
99fe
v/99
mar
/99
abr/
99m
ai/9
9ju
n/99
jul/9
9ag
o/99
set/9
9ou
t/99
nov/
99de
z/99
jan/
00fe
v/00
mar
/00
abr/
00m
ai/0
0ju
n/00
jul/0
0ag
o/00
set/0
0ou
t/00
nov/
00de
z/00
jan/
01fe
v/01
mar
/01
abr/
01m
ai/0
1ju
n/01
jul/0
1ag
o/01
set/0
1ou
t/01
nov/
01de
z/01
jan/
02
Taxa
de
Per
da
86
6 - SEGMENTAÇÃO DA CARTEIRA DE CRÉDITO AO
CONSUMIDOR
Uma das principais características do MPCC é o processo de segmentação da
carteira de crédito ao consumidor, que possibilita que a distribuição de perda
da carteira seja simulada sem a necessidade de simular resultados para cada
elemento da carteira e que possam ser incorporadas na modelagem as
variações da composição da carteira ao longo do tempo. No decorrer deste
capítulo utilizaremos os termos segmentos, agrupamentos, grupos ou clusters
como sinônimos para designar subconjuntos de operações de crédito da
carteira.
Com o objetivo de simular a distribuição de perda da carteira, podem ser
adotadas três estratégias distintas:
• Avaliar a carteira como um todo, simulando diretamente a perda de
crédito no portfólio utilizando uma distribuição teórica que se ajuste
aos dados históricos da carteira.
• Avaliar cada elemento da carteira individualmente, para chegar à
perda da carteira agregando os resultados simulados de cada crédito
individual.
• Dividir a carteira em segmentos, realizar a simulação de perda para
cada segmento e obter a resultado para a carteira agregando os
resultados para cada segmento.
A primeira alternativa certamente é a mais simples, mas traz em sua realização
a premissa de que as características da carteira de crédito se mantém
constantes ao longo do tempo. Se, por exemplo, houver uma mudança no perfil
dos clientes ou das operações que compõe a carteira devido a uma alteração
estratégia de aquisição de novas contas, é esperado que ocorram variações na
taxa de perda que não serão capturadas pela modelagem. A administração de
uma carteira de crédito ao consumidor é dinâmica e implica em diferentes
estratégias em diferentes momentos com relação a características da operação
87
(entrada, prazo, tipo de bem financiado etc), perfil do cliente necessário para
aprovação, pontos de venda e campanhas promocionais. Todos estes aspectos
que podem influenciar o perfil da carteira. Na medida em que reconhecemos a
dinâmica existente na composição de uma carteira, verificamos que considerar
uma carteira de crédito, sem analisar como ela é composta é uma simplificação
muito forte.
Esse tipo de problema não ocorre se a opção adotada for modelar cada
elemento da carteira individualmente. Entretanto, passa-se a enfrentar duas
dificuldades adicionais. A primeira se refere à como modelar individualmente
uma operação de crédito ao consumidor. Para essa tarefa é necessário
estabelecer um modelo estrutural que faça a ligação entre os fenômenos
microeconômicos relacionados a um consumidor e a ocorrência de default e
perda. É adicionada a essa alternativa a dificuldade de obter dados
microeconômicos em nível de consumidores individuais e de conceber a
estrutura do modelo estrutural para o consumidor.
O segundo problema dessa abordagem está ligado à capacidade
computacional necessária para simular individualmente todos os elementos de
uma carteira de crédito ao consumidor, que pode ter dezenas de milhares de
operações. Para obter a distribuição de perda da carteira seria necessário
realizar dezenas de milhares de interações, cada uma envolvendo dezenas de
milhares de simulações individuais, mas que devem ser correlacionadas entre
si. Mesmo com poder computacional disponível hoje, realizar esta tarefa em
tempo razoável poderia ter custos proibitivos.
A terceira alternativa para obter a simulação da perda de crédito na carteira é a
adotada na formulação do MPCC, que divide a carteira em segmentos que,
para a finalidade de modelagem de risco de crédito, são considerados
homogêneos. Assim, é adotada a premissa de que as operações de uma
carteira que estão em um mesmo segmento possuem o mesmo padrão de
comportamento com relação à perda de crédito.
Isto, além de ser extremamente coerente, simplifica muito o processo de
simulação, que passa a ser realizado para cada segmento da carteira ao invés
88
de para cada elemento dela. A perda de crédito é simulada para cada
segmento obedecendo à estrutura de dependência entre a perda de crédito nos
segmentos que é descrita no capítulo 8. Por fim, os resultados de perda de
cada segmento são agregados para chegar à perda na carteira.
Nessa abordagem as mudanças no perfil da carteira que naturalmente ocorrem
no decorrer do tempo são modeladas como variações na participação de cada
segmento na composição da carteira. Por exemplo, suponha que condições de
mercado ou mesmo de estratégia mercadológica da instituição financeira cause
uma maior concentração de suas exposições em um determinado segmento. O
impacto desta alteração do perfil da carteira na avaliação da perda de crédito
será incorporado ao modelo através do aumento da participação deste
segmento na exposição da carteira.
Adicionalmente, o poder computacional necessário para realizar a simulação
não é proibitivo, podendo a simulação de uma carteira de milhões de
consumidores ser realizada em um microcomputador. A abordagem também
possibilita a regulagem do esforço computacional necessário ao deixar flexível
a escolha do número de segmentos que compõe a carteira.
No processo de segmentação são consideradas duas dimensões fundamentais
que influenciam a modelagem do risco de portfólio:
1. Características do consumidor: é analisada a influência das
características dos consumidores nas relações de dependência entre
os diversos segmentos formados. Diferentes perfis de consumidores
são influenciados de diferentes maneiras pelos fatores econômicos
que fazem com que as taxas de perda sejam em geral mais altas ou
mais baixas. Isso reflete em como valores de perda de crédito nos
diferentes segmentos de consumidores estão correlacionados entre
si.
2. Classificação de risco das operações: caracteriza a perda esperada
para uma operação individual. Influencia diretamente o risco da
carteira elevando ou diminuindo o patamar de perda de crédito
esperada para a carteira em função do risco associado às operações.
89
O processo de formação dos segmentos finais de operações de crédito que
serão utilizados na aplicação do MPCC segue o seguinte procedimento:
1. Formação de grupos de operações de crédito segundo as características
dos consumidores, discutida na seção 6.1.
2. Formação de grupos de operações de crédito segundo o risco de crédito
das operações, discutida na seção 6.2.
3. Formação dos segmentos finais pelo cruzamento entre os grupos
formados nas etapas anteriores, discutida na seção 6.3.
A Figura 6-1 apresenta esquematicamente a formação de segmentos de uma
carteira de crédito ao consumidor a partir das duas dimensões citadas
anteriormente. Neste exemplo, são formados 3 grupos de operações de crédito
pelas características dos consumidores (A, B e C) e 3 grupos pelo risco de
crédito das operações (A’, B’ e C’). O cruzamento das duas dimensões
analisadas resulta em 9 segmentos finais. Por exemplo, o segmento AA’ é
formado por operações que fazem parte do grupo A segundo as características
dos consumidores e do grupo A’ segundo o risco de crédito da operação.
Figura 6-1 – Representação esquemática da segmentação adotada
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Classificação de risco da operação
Car
acte
rístic
as d
o co
nsum
idor
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Classificação de risco da operação
Car
acte
rístic
as d
o co
nsum
idor
Para a aplicação da metodologia proposta são necessários dados históricos da
carteira contendo diversos meses (ou períodos) de informações de pagamento
das operações de crédito e de variáveis cadastrais e comportamentais de seus
respectivos devedores. Neste capítulo são descritas as variáveis utilizadas para
AA’ AB’ AC’
BA’
CA’
BB’
CB’ CC’
BC’
90
a segmentação nesta Tese. Esta lista não pretende ser completa nem conter
todas as variáveis que devem ser utilizadas. Ela reflete a disponibilidade de
dados que havia nas bases de dados utilizadas para definir um perfil do
consumidor. Na aplicação da metodologia proposta de segmentação em
qualquer outra carteira, é necessária a definição das variáveis que serão
utilizadas como características dos consumidores em função da disponibilidade
de informações para a carteira analisada.
Como a metodologia de segmentação envolve a correlação entre séries
temporais de perda de crédito é interessante trabalhar com um número grande
de períodos para possibilitar maior precisão na estimativa das correlações. Na
aplicação do método, foram utilizados 37 meses (períodos) de informações de
pagamentos. Este número foi definido em função da disponibilidade de
informações na base de dados utilizada. Não estabelecemos nesta Tese um
número teórico mínimo de períodos a ser utilizado.
6.1 – Segmentação das operações – Agrupamento por características do
consumidor
Nesta seção será proposta uma metodologia para segmentar consumidores
segundo suas características. Esta segmentação visa obter grupos de
consumidores que possam ser considerados homogêneos com relação ao
comportamento da variável perda de crédito nas operações nas quais eles
figuram como devedores. Para alcançar este objetivo, o processo é realizado
em duas etapas:
• Segmentação inicial baseada em variáveis sócio-demográficas e
comportamentais.
• Agrupamento dos segmentos iniciais pelo comportamento de perda
de crédito.
91
6.1.1 - Segmentação Sócio-demográfica e Comportamental Inicial
Esta é uma etapa preliminar da segmentação de consumidores e objetiva a
formação de grupos de consumidores que possuam características cadastrais
e comportamentais homogêneas. Esses grupos iniciais serão posteriormente
agrupados em segmentos finais na segunda etapa.
Para realizar a etapa final da segmentação por características dos
consumidores é necessário obter séries históricas de perda de crédito. Uma
vez que estas séries não podem ser obtidas para um consumidor individual, é
preciso obter inicialmente grupos de consumidores para os quais seja possível
construir séries históricas de perda. Esta é a razão da segmentação preliminar.
Algumas características são desejáveis nesta etapa preliminar:
• Geração de grupos com consumidores homogêneos, de forma que
possamos atribuir um determinado comportamento histórico de perda
de crédito a um perfil específico de consumidor.
• Formação um número relativamente grande de grupos, possibilitando
um processo posterior de agrupamento pelo comportamento de
perda de crédito mais efetivo. Se forem formados poucos grupos,
haverá pouco espaço para o agrupamento final. Adicionalmente,
quanto maior for o número de clusters formados nesta etapa, mais
homogêneo será cada um deles, pois os elementos agrupados em
cada cluster tenderão a estar mais próximos.
• Formação de grupos com um número de elementos suficiente para
construir séries históricas de perda de crédito3. Com poucos
elementos pode não ser possível construir séries históricas que
representem precisamente o perfil de comportamento de perda de
crédito do segmento.
3 Detalhes acerca do cálculo de perda de crédito para a construção de séries históricas se
encontram no capítulo 5.
92
Nesta Tese não estabelecemos regras nem teorias que definam um número
mínimo de grupos que devem ser formados nem um número mínimo de
consumidores em cada segmento. Entretanto, procuramos nesta etapa da
segmentação ter pelo menos 1.000 consumidores em cada grupo formado e
formar um número de grupos superior a 300. Estes valores foram definidos de
forma arbitrária para atender as necessidades acima descritas.
Não podemos afirmar que estes números devam ser adotados como padrão
para qualquer carteira. Eles dependerão, entre outras coisas, do tamanho e do
perfil da carteira. De uma maneira geral podemos afirmar que a utilização de
uma amostra de dados grande é desejável para possibilitar a geração de um
número grande de clusters com muitos elementos.
O método estatístico utilizado para obter este agrupamento foi o de K-means
(MacQuenn, 1967). O método K-means não fornece como resultado o número
de clusters (grupos) que devem ser formados, mas divide os elementos
analisados em um número de clusters pré-determinado. Desta forma, é
necessário definir a priori qual é o número de clusters desejado.
Os clusters são formados procurando agrupar os elementos que são mais
próximos entre si. A Figura 6-2 ilustra um exemplo de resultado de formação de
clusters pelo método K-means em 3 dimensões. Os elementos agrupados
neste exemplo são representados por pontos com cores e formatos diferentes
no espaço onde cada dimensão representa uma variável utilizada no processo
de segmentação.
Figura 6-2 – Ilustração do resultado
de formação de clusters pelo método
K-means.
93
De maneira simplificada, o algoritmo do método K-means é composto das
seguintes etapas:
1. Definição do número desejado de clusters.
2. Definição de um igual número de elementos que serão as sementes do
processo de formação de clusters. As sementes são os núcleos iniciais
de cada cluster e cada elemento é agrupado inicialmente a uma delas.
Dillon e Goldstein (1984) citam diversas metodologias para definir as
sementes, como por exemplo:
• escolha aleatória das sementes a partir da amostra de dados;
• escolha dos elementos com maior distância euclidiana entre si;
• escolha das sementes baseada no conhecimento do analista.
A metodologia utilizada neste trabalho foi a seleção aleatória de casos.
3. Na primeira iteração do processo utilizamos as sementes como os
núcleos iniciais de cada cluster. Cada elemento é agrupado ao cluster
cujo núcleo estiver mais próximo. Para calcular a distância entre um
elemento e um núcleo é utilizada a medida de distância euclideana:
[ ]2
1p
1j
2)j,l(X)j,i(X)l,i(D
�
�
���
�
�−= �
=
Eq. 6-1
onde:
• D(i,l) é a distância euclideana entre os elementos i e o cluster l;
• X(i,j) é o valor da variável j para o elemento i;
• )j,l(X é a média da variável j no cluster l4;
• P é o número de variáveis consideradas.
4. Após a primeira iteração, centróides de cada cluster são calculados
através da média das variáveis dos elementos que compõe o cluster.
4 Na primeira iteração ao invés dessa média é utilizado o valor da variável na semente.
94
5. Os elementos são redistribuídos pelos clusters cujo centróide é mais
próximo e são calculados novos centróides. O processo continua até
não haver mais variação na alocação dos elementos ou se atingir um
número predeterminado de iterações.
Por simplificação computacional, a base de dados de 2 milhões de
consumidores foi dividida em duas de 1 milhão cada para obter o algoritmo de
alocação dos devedores nos clusters. O algoritmo de classificação nos clusters
foi desenvolvido utilizando 1 milhão de consumidores. Os 1 milhão de
consumidores restantes foram então alocados aos clusters formados para que
toda a amostra de dados fosse classificada. Cada consumidor foi alocado ao
cluster com o qual possuía menor distância euclidiana em relação ao centróide
do cluster.
A aplicação da metodologia de segmentação K-means foi aplicada no
desenvolvimento empírico desta Tese em duas etapas. Inicialmente o processo
do K-means foi utilizado para obter 500 clusters. Entretanto verificou-se que
diversos clusters obtidos possuíam um pequeno número de elementos
(consumidores), o que poderia afetar a precisão da série histórica de perda de
crédito que teria que ser construída para o cluster. Para solucionar esta
questão, foram excluídos os clusters que possuíam menos que mil elementos,
restando 308. A escolha deste corte foi arbitrária. Foi realizado novamente o
processo de análise de clusters por K-means utilizando os centróides dos 308
clusters restantes como sementes, realocando assim os elementos da amostra
de dados.
Na aplicação da metodologia K-means nesta Tese as variáveis utilizadas foram
as seguintes:
• Sexo
• Idade
• Renda
• Profissão
95
• Natureza da ocupação (empregado de empresa privada, funcionário
público, profissional liberal, vive de renda, aposentado e outro tipo de
atividade)
• CEP (área delimitada pelos 2 primeiros dígitos)
• Consultas de cheques realizadas nos últimos 6 meses na SERASA
• Consultas de crédito realizadas nos últimos 6 meses na SERASA
• Número de anotações negativas.
• Credit Bureau Scoring
• Credit Target
O Credit Bureau Scoring é um credit score fornecido pela SERASA e considera
o histórico comportamental de crédito do consumidor. O Credit Target é outro
modelo fornecido pela SERASA que classifica um consumidor em 9 diferentes
segmentos conforme as características de sua atividade pregressa de
utilização de crédito. Estas duas variáveis são descritas em maior detalhe no
capítulo 4.
Algumas das variáveis são específicas da base de dados utilizada que tem
como origem um bureau de crédito. Na aplicação da metodologia em uma
carteira de uma instituição financeira, podem ser utilizadas as informações
cadastrais disponíveis para os consumidores e informações comportamentais
relacionadas à experiência de crédito do consumidor na instituição em um
determinado período de tempo como, por exemplo, 1 ano. Em uma instituição
financeira poderiam ser utilizadas variáveis como: quantidade de operações
realizadas com a instituição, quantidade de pagamentos realizados em dia,
quantidade de pagamentos realizados em atraso, utilização máxima do limite
de crédito e saldo devedor na instituição.
Na aplicação da segmentação pelo método K-means nesta Tese, todas as
variáveis foram tratadas na forma de dummies, isto é, codificadas como
variáveis com valores 0 ou 1. A Tabela 6-1 apresenta um exemplo de
codificação com variáveis dummies para uma variável categórica. Com esse
processo de codificação damos um tratamento homogêneo para todas as
96
variáveis utilizadas e contornamos possíveis problemas com diferenças de
escala entre as variáveis.
As variáveis contínuas como idade e renda, por exemplo, foram categorizadas.
Na existência de uma estrutura de ordem para a variável, foi utilizada
categorização por dummies ordenadas para manter a estrutura. A Tabela 6-2
compara o processo de categorização por dummies tradicional e o através de
dummies ordenadas através de um exemplo. Este processo é realizado para
que a distância calculada no processo de clusterização seja superior em
categorias não adjacentes que em categorias adjacentes, o que é um ponto
importante neste processo de segmentação.
Tabela 6-1 – Exemplo de codificação com variáveis dummies
Categoria Dummy 1
Dummy 2
Dummy 3
Dummy 4
Dummy 5
Funcionário público 0 1 0 0 0 Empregado privado 1 0 0 0 0 Profissional liberal 0 0 1 0 0 Vive de renda 0 0 0 1 0 Aposentado 0 0 0 0 1 Outras atividades 0 0 0 0 0
Tabela 6-2 – Categorização tradicional e por Dummies ordenadas
Dummies Simples Dummies Ordenadas Idade
d1 d2 d3 d4 d5 d1 d2 d3 d4 d5
< 21 1 0 0 0 0 1 1 1 1 1
[21,30] 0 1 0 0 0 0 1 1 1 1
[31,40] 0 0 1 0 0 0 0 1 1 1
[41,50] 0 0 0 1 0 0 0 0 1 1
> 50 0 0 0 0 1 0 0 0 0 1
A utilização de um processo de segmentação como o K-means normalmente
tem o objetivo de formação de clusters que auxiliem o entendimento da base
de dados, gerando uma visão de agrupamento dos elementos estudados que
tenham uma interpretação e uma validação sob a ótica de negócios ou da
aplicação dos resultados obtidos na segmentação. Entretanto, este não é o
97
caso da aplicação do método dentro da formulação do MPCC. Aqui o método
este processo preliminar de segmentação pelo método K-means não objetiva
obter clusters que tenham algum sentido do ponto de vista de negócios ou
mesmo de risco. O algoritmo é utilizado nesta etapa de segmentação preliminar
apenas como um método numérico para gerar agrupamentos homogêneos que
serão alimentados na segunda etapa da segmentação.
6.1.2 - Agrupamento dos segmentos iniciais pelo comportamento de
perda de crédito.
A etapa final de formação de segmentos pelo perfil do consumidor é a
aplicação de um segundo método de análise de clusters que utiliza os grupos
formados na primeira etapa como elementos que serão agrupados para formar
os segmentos finais.
Cada cluster formado na primeira etapa representa um determinado perfil de
consumidor, definido através das variáveis utilizadas na segmentação
preliminar pelo método K-means. O objetivo desta etapa final é agrupar estes
perfis segundo o comportamento da série histórica de perda de crédito
calculada para cada perfil. Assim, obtém-se um número relativamente pequeno
de segmentos cujos consumidores apresentam padrões semelhantes de
comportamento de perda de crédito.
Esta segmentação final é importante para reduzir a dimensionalidade da matriz
de correlações que será utilizada na aplicação do MPCC, o que tem impacto
direto nos recursos computacionais e tempo necessários para a aplicação do
modelo de risco de portfólio de crédito.
Para cada um dos clusters resultantes da análise pelo método de K-means é
calculada uma série histórica de perda de crédito utilizando a metodologia
descrita no capítulo 5. Assim, a construção da série histórica de perda de
crédito para um cluster de consumidores n segue o seguinte procedimento:
98
1. Selecionar todas as parcelas das operações de crédito dos
consumidores do cluster n cuja data de vencimento esteja dentro do
período t.
2. Aplicar a equação 5.2 calculando a perda de crédito no período t no
cluster n.
3. Repetir o procedimento para todos os períodos obtendo uma série
histórica de perda de crédito para o cluster n.
O procedimento realizado nesta segunda etapa de segmentação de
consumidores é um processo de redução de variáveis no qual buscamos
representar um número grande de variáveis (as séries históricas de perda de
crédito em cada cluster formado na etapa preliminar da segmentação) por um
número pequeno de novas variáveis (as séries históricas de perda em cada
segmento final), que sejam capazes de explicar pela maior parte do
comportamento das variáveis originais.
Quanto maior for o número de segmentos finais, maior será a carga
computacional necessária para aplicar no modelo de risco de portfólio, pois
maior será a matriz de correlações entre os segmentos que deverá ser
utilizada. Por outro lado, junto com a redução do número de variáveis, o
processo de agrupamento gera perda de conteúdo informacional. Quanto
menor o número de segmentos finais obtidos, menor será a parcela do
comportamento das séries históricas de perda dos clusters iniciais que será
explicada pelo comportamento das séries de perda dos segmentos finais. Em
termos menos técnicos poderíamos dizer que os segmentos finais não
representariam tão bem o comportamento dos consumidores.
Para uma melhor compreensão de como funciona esta etapa final da
segmentação de consumidores apresentamos o exemplo da Figura 6-3, onde
vemos duas séries históricas de perda de crédito para dois perfis diferentes de
consumidores. Como um perfil de consumidor entenda-se um dos clusters
iniciais formados pela metodologia K-means. Estas duas séries de perda de
crédito, ainda que com patamares de perda distintos, apresentam um
comportamento das séries muito semelhante. O cálculo da correlação entre as
99
duas séries de perda forneceria um resultado muito próximo de 1. A
metodologia aplicada nesta etapa agrupa os clusters iniciais cujas séries
históricas de perda apresentam este tipo de similaridade (alta correlação).
Figura 6-3 – Exemplo de séries históricas de perda de crédito
0%
1%
2%
3%
4%
5%
6%
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
Período
Pro
babi
lidad
e de
inad
impl
ênci
a
Consumidor tipo 1 Consumidor tipo 2
O algoritmo matemático utilizado é o presente no procedimento VARCLUS do
software SAS (SAS Institute, 1990), que pode ser resumido pelas seguintes
etapas:
1. Todas as variáveis (em nosso caso séries históricas de perda) são
agrupadas em um único grupo.
2. É realizada uma análise de componentes principais nas variáveis destes
grupos para obter as duas primeiras componentes principais deste grupo
de variáveis. O primeiro componente principal é a combinação linear das
variáveis que possui o maior grau de explicação da variação das
variáveis analisadas:
CP1 = V1P1 + V2P2 + ... + VnPn Eq. 6-2
Per
da d
e C
rédi
to
100
Onde:
• CP1 é a primeira componente principal;
• V1, V2, ..., Vn são as variáveis analisadas;
• P1, P2, ..., Pn são seus respectivos pesos.
A segunda componente principal é a combinação linear das variáveis
que possui correlação nula com a primeira componente principal e que
possui o maior grau de explicação da variação das variáveis analisadas
que não foi explicada pela primeira componente principal.
3. O grupo inicial é dividido em dois novos grupos alocando cada variável
(séries de perda de crédito em nosso caso) à componente principal com
que apresenta maior correlação.
4. Cada grupo formado é dividido em dois novos grupos pelo mesmo
processo.
5. O processo é repetido para cada novo grupo formado até se obter o
número desejado de grupos.
A Figura 6-4 apresenta a relação entre número final de segmentos e percentual
da variância total das séries de perda dos clusters iniciais explicada pelos
segmentos finais. O gráfico apresenta resultados para a amostra de dados
utilizada no desenvolvimento do MPCC, com a formação de até 36 diferentes
segmentos.
Figura 6-4 – Variância explicada x Número de segmentos
20%
30%
40%
50%
60%
70%
80%
0 5 10 15 20 25 30 35 40
Número de Segmentos
Pro
porç
ão d
a va
riaç
ão e
xplic
ada
101
6.2 - Segmentação das operações – Agrupamento por risco de crédito
Para agrupar operações segundo seu risco de crédito é necessário
desenvolver uma medida de risco de crédito que possa ser utilizada para
avaliar as operações. Essa medida é gerada a partir de um modelo de
classificação de risco obtido por técnicas de regressão.
No escopo de nosso trabalho, queremos analisar a perda proveniente de uma
operação de crédito um período à frente. Desta forma, o modelo analisa as
características do consumidor e o histórico de pagamento da operação para
prever a perda de crédito que ocorrerá um período à frente.
Figura 6-5 – Modelo de classificação de risco
A Figura 6-5 apresenta um esquema ilustrando o modelo de classificação de
risco. O risco de uma operação é definido como a perda de crédito prevista no
período subseqüente. Dada uma operação de crédito iniciada no período T0 e
avaliada no período Tn, o modelo gera uma pontuação relacionada à perda de
T0
Histórico de comportamento na
operação e características da operação
Tn Tn+1
Horizonte de Previsão de
Perda
Histórico de comportamento de crédito do consumidor
Informações Cadastrais
102
crédito no período Tn+1. Para realizar a previsão são utilizados 3 tipos de
variáveis preditivas:
• Informações cadastrais, referentes ao consumidor no período Tn.
• Informações da operação de crédito, inclusive o comportamento do
consumidor no seu pagamento entre os períodos T0 e Tn.
• Outras informações de comportamento do consumidor. Essas
informações são originadas de operações de crédito anteriores que o
consumidor realizou na instituição e/ou informações de comportamento
de crédito registradas em um bureau de crédito.
Esse modelo difere dos modelos de classificação de risco utilizados para a
aceitação das operações de crédito, que seriam utilizados no período inicial da
operação (T0). Entretanto, nosso objetivo não é avaliar o risco que uma
operação teria se fosse aceita, mas sim avaliar o risco de uma operação que já
está na carteira da instituição. O modelo é utilizado no período Tn onde Tn ≥ T0,
ou seja, em operações já iniciadas.
Duas técnicas de regressão tipicamente utilizadas em modelos de classificação
de risco de crédito de consumidores são a regressão linear e a regressão
logística. A principal diferença entre as duas técnicas é que a regressão linear
é aplicada a variáveis dependentes contínuas e a regressão logística a
variáveis dependentes dicotômicas. A variável dependente é aquilo que
queremos prever, ou seja, o que consideramos como conceito de risco para
uma operação de crédito no modelo. Uma variável dependente dicotômica
assume apenas dois valores como por exemplo, com ocorrência de default ou
sem ocorrência de default.
Em nosso modelo estamos utilizando a perda de crédito no horizonte de um
período como variável dependente. Esta variável é contínua e indicaria o uso
da regressão linear para o desenvolvimento do modelo. Entretanto,
características dos dados utilizados trariam problemas com a utilização da
regressão linear. Apesar da variável dependente ser contínua os dados
indicavam o seguinte padrão:
103
• A maior parte das observações possuía perda nula ou perda de 100%.
• Os valores intermediários em geral se concentravam próximos a esses
dois extremos.
Na amostra de dados, 74,9% das operações possuíam perda de crédito nula,
11,6% perda de crédito de 100% e apenas 13,4% perda entre 0 e 100%. Este
padrão de dados próximo da situação de variável dicotômica leva a resultados
na regressão linear em que os erros da regressão não possuem distribuição
normal. Ocorrência de erros normais é uma das principais premissas do
modelo tradicional de regressão linear (Dillon e Goldstein, 1984).
A segunda alternativa de metodologia é a regressão logística, que foi a
utilizada nesta Tese. Os algoritmos de estimação de parâmetros para a
regressão logística permitem a utilização de dados em dois padrões (SAS
Institute, 1984):
• Quando a variável resposta é utilizada na forma dicotômica e cada
experimento representa uma observação isolada, como observar se uma
operação de crédito entrou ou não em default.
• Quando a variável resposta é utilizada na forma de uma proporção e
cada experimento representa um grupo de observações, como a
proporção de mortes em diversos grupos de doentes ou proporção de
peças defeituosas em diversos lotes de fabricação.
O problema de trabalhar com uma variável dependente que não é dicotômica,
mas que pode ser expressa na forma de uma proporção entre 0 e 1 pode ser
contornado utilizando a segunda alternativa apresentada acima. Neste caso,
consideramos a perda de crédito na forma de uma proporção sobre o valor da
exposição. Para os casos atípicos descritos no capítulo 5, que podem gerar
valores de perda negativa, utilizamos na regressão um valor de perda igual a
zero.
Ressaltamos que o modelo de classificação de risco não vai ser utilizado no
MPCC com o intuito de gerar diretamente um valor de previsão de perda, mas
104
apenas para ranquear as operações por risco, de modo que operações de
crédito com risco semelhante possam ser agrupadas.
A regressão logística estima parâmetros para uma equação do tipo:
fe11)x(Y −+
= Eq. 6-1
onde:
• f = ao + a1X1 + ... + anXn
• Y é a variável dependente ou resposta (no nosso caso perda de crédito
expressa como uma proporção entre 0 e 1);
• X1 a Xn são as variáveis independentes ou preditivas;
• a0 é o intercepto e a1 a an são os pesos ou parâmetros do modelo.
Diferentemente da regressão linear, cujos pesos são estimados pelo método
dos mínimos quadrados, a regressão logística utiliza o método de máxima
verossimilhança, que leva a parâmetros que maximizam a probabilidade dos
dados observados na amostra serem obtidos pela equação (Hosmer e
Lemeshow, 2000).
O resultado da equação obtida no modelo é uma proporção entre 0 e 1, que é
posteriormente multiplicada por um fator de 1000 apenas para tornar o
resultado em uma pontuação com escala entre 0 e 1000, onde quanto maior for
a pontuação, maior é a perda esperada para a observação. Para desenvolver o
modelo de classificação de risco da operação de crédito foi utilizada uma
amostra selecionada aleatoriamente de 100 mil observações, cada qual
referente a uma operação de crédito avaliada no horizonte de um período.
105
Tabela 6-3 – Variáveis selecionadas no modelo de classificação de risco
Tipo Variáveis
Cadastrais • Renda;
• Tempo de emprego;
• Natureza da ocupação do consumidor (empregado em empresa privada, funcionário público, empresário, autônomo, profisional liberal ou aposentado);
• Nível de escolaridade;
• Sexo;
• Idade.
Características e comportamento de pagamento na operação avaliada
• Tipo da operação (CDC, crédito com cheques pré-datados, crédito pessoal ou crédito de veículos);
• Maturidade (relação entre número de parcelas vencidas e o número total de parcelas da operação);
• Número de parcelas pagas da operação;
• Número de parcelas não pagas da operação;
• Número máximo de dias de atraso na operação;
• Número de parcelas da operação;
• Comprometimento de renda (como percentual) que é gerado pelo valor da parcela da operação.
Outras variáveis de comportamento
• Quantidade de cheques prédatados vencidos e à vencer;
• Consultas para crédito e para cheques realizadas à SERASA sobre consumidor;
• Quantidade de empresas que consultaram o consumidor na SERASA;
• Quantidade de cheques com oposição ao pagamento;
• Quantidade de registros de pagamento em dia em compromissos financeiros;
• Quantidade de registros de pagamento com atraso em compromissos financeiros;
• Quantidade de informações negativas (registros de não pagamento de em compromissos financeiros, protestos, cheques sem fundo e ações judiciais);
• Tempo decorrido desde a última ocorrência de informação negativa;
• Valor total das informações negativas;
• Valor da última ocorrência de informação negativa
A Tabela 6-3 apresenta as variáveis que foram selecionadas no processo de
desenvolvimento do modelo através do método de seleção stepwise (Hosmer e
Lemeshow, 2000). O método de seleção stepwise acrescenta as variáveis
independentes passo a passo, iniciando pela mais significativa e, em passos
106
posteriores, acrescentando ou retirando variáveis conforme critérios de
significância mínima para entrada e permanência de variáveis independentes
no modelo obtido. Os critérios utilizados foram de 5% de significância para
entrada de variáveis e 10% para saída de variáveis. Todas as variáveis foram
codificadas como variáveis dummy para o desenvolvimento. A codificação de
variáveis contínuas ou discretas em variáveis dummy permite modelar não
linearidades presentes na relação entre estas variáveis independentes e a
variável dependente.
A lista apresentada inclui diversas variáveis comportamentais específicas da
base de dados utilizada nesta Tese (proveniente de um bureau de crédito). Na
aplicação da metodologia apresentada por uma instituição financeira, os dados
provenientes do bureau de crédito podem ser substituídos por variáveis
relativas ao comportamento do consumidor na instituição.
Os resultados obtidos na regressão mostraram um forte poder preditivo do
modelo, indicando, de acordo com a analogia utilizada para aplicar a regressão
logística, que o modelo está discriminando bem entre unidades monetárias com
e sem perda. A medida de avaliação do ajuste da regressão logística utilizada
para avaliar o modelo foi a área sob a curva ROC (Oliveira e Andrade, 2002). A
curva ROC é construída utilizando-se dois conceitos:
• Sensitividade: proporção de acerto na previsão da ocorrência de um
evento nos casos em que ele realmente ocorre.
• Especificidade: proporção de acerto na previsão de que um evento não
vai ocorrer nos casos em que ele realmente não ocorre.
A sensibilidade e especificidade são calculadas para cada observação da
amostra de dados. Para realizar este cálculo, é prevista para as demais
observações com pontuação inferior ou superior à da observação em questão
perda total e perda nula, respectivamente. Os resultados obtidos são
registrados em um gráfico de (1-especificidade) X sensitividade para obter a
curva apresentada na Figura 6-6. A área sob a curva é a medida de avaliação
que estamos utilizando, isto é, a área sob a curva ROC.
107
Hosmer e Lemeshow (2000) descrevem em maior detalhe a utilização desta
medida de avaliação e apresentam uma regra geral de avaliação do resultado
da área sob a curva ROC:
• Igual a 0,5 – nenhuma discriminação;
• No intervalo [0,7;0,8[ – discriminação aceitável;
• No intervalo [0,8;0,9[ – excelente discriminação;
• Acima de 0,9 – excepcional discriminação;
• Igual a 1 – discriminação perfeita.
Para o modelo desenvolvido o valor da área sob a curva ROC foi de 0,942, o
que pode ser considerado um resultado excepcional do modelo de regressão
logística.
Figura 6-6 – Curva ROC
A Tabela 6-4 e a Figura 6-7 apresentam a distribuição das observações pelas
diferentes faixas de valores da pontuação do modelo de classificação de risco,
bem como a perda de crédito média calculada para as observações referentes
a cada faixa.
Área sob a curva ROC
0
0,2
0,4
0,6
0,8
1
0 0,2 0,4 0,6 0,8 1
1 - especificidade
sens
ibili
dade
108
Tabela 6-4 – Taxa de perda por classificação de risco
Faixa de Pontuação Freqüência Participação Taxa de perda
0 - 10 34.077 34,1% 0,7%
10 <- 20 20.164 20,2% 1,6%
20 <- 30 13.584 13,6% 2,2%
30 <- 40 7.071 7,1% 3,2%
40 <- 50 4.689 4,7% 4,5%
50 <- 100 8.917 8,9% 6,2%
100 <- 150 1.887 1,9% 10,8%
150 <- 200 822 0,8% 14,3%
200 <- 300 687 0,7% 19,7%
300 <- 400 289 0,3% 34,7%
400 <- 500 240 0,2% 40,2%
500 <- 600 259 0,3% 49,9%
600 <- 700 364 0,4% 67,5%
700 <- 800 544 0,5% 75,8%
800 <- 900 632 0,6% 85,7%
900 <- 950 671 0,7% 91,7%
950 <- 975 706 0,7% 92,6%
975 <- 999 3.301 3,3% 99,1%
1000 1.096 1,1% 100,0%
Podemos notar que há duas concentrações principais dos valores da
pontuação: uma preponderante em valores baixos da pontuação e outra menor
no extremo oposto da escala. Os valores médios são relativamente mais raros.
Nas faixas inferiores da pontuação se encontram as observações cujas
operações no período de referência da observação não se encontram em
estado de atraso. Essas observações, como esperado, apresentam uma perda
de crédito relativamente pequena. A concentração menor em valores altos da
pontuação incorpora predominantemente as observações de operações que,
no período de referência da observação já se encontram em atraso.
109
Figura 6-7 – Taxa de perda por classificação de risco
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
0 -
10
10 <
- 2
0
20 <
- 3
0
30 <
- 4
0
40 <
- 5
0
50 <
- 1
00
100
<- 1
50
150
<- 2
00
200
<- 3
00
300
<- 4
00
400
<- 5
00
500
<- 6
00
600
<- 7
00
700
<- 8
00
800
<- 9
00
900
<- 9
50
950
<- 9
75
975
<- 9
99
1000
Faixa de Pontuação
Tax
a d
e P
erd
a
A partir do modelo de classificação de risco, a formação de segmentos em
função do risco é realizada estabelecendo-se cortes na escala da pontuação do
modelo. Por exemplo, pode ser formado um grupo de baixo risco e um grupo
de alto risco a partir da escolha de uma pontuação que seria o limite entre os
dois grupos. Utilizando procedimento similar é possível criar qualquer outro
número desejado de grupos.
6.3 - Formação dos segmentos finais
A Figura 6-8 apresenta esquematicamente o processo de formação dos
segmentos que serão utilizados no MPCC. Neste exemplo temos a formação
de 9 segmentos nomeados de A a I.
Já descrevemos anteriormente como os segmentos finais são obtidos pelo
cruzamento entre segmentos por características dos consumidores e por risco
da operação. Entretanto, para efetuar este processo é necessário realizar uma
escolha sobre a granularidade que será adotada. A granularidade da
segmentação é o número de segmentos finais que se deseja obter. Ele é a
multiplicação do número de grupos formados pela segmentação por
110
características do consumidor pelo número de grupos obtido pela segmentação
por risco.
Figura 6-8 – Processo de segmentação utilizado no MPCC
Para escolher o número de grupos a ser formado deve-se considerar que,
quanto maior for o número de segmentos, mais homogêneas serão as
operações de crédito que fazem parte de um determinado segmento. Veremos
no capítulo seguinte que, para cada segmento será estimada a distribuição
estatística de perda que é característica do perfil de operações de crédito do
segmento. Na medida em que o segmento for mais homogêneo, podemos
afirmar com mais segurança que a distribuição de perda de uma determinada
operação de crédito é adequadamente representada pela distribuição de perda
do segmento do qual a operação faz parte.
Por outro lado, um maior número de segmentos demanda um maior custo de
aplicação do MPCC, expresso em tempo de estimação de parâmetros e
recursos computacionais e tempo necessários para a aplicação do modelo
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Classificação de risco da operação
Car
acte
rístic
as d
o co
nsum
idor
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Classificação de risco da operação
Car
acte
rístic
as d
o co
nsum
idor
Segm
entação sócio-dem
ográfica e com
portamental
Clusters Iniciais de consum
idores
Segm
entação pelo com
portamento
de perda de cr’editoS
egmentos por
caracter’isticas dos consum
idores
Modelo de regressão
Score de risco de crédito
Categorização do score em classes de risco
Segmentos por risco da operação
Operações de crédito
Consum
idores
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Classificação de risco da operação
Car
acte
rístic
as d
o co
nsum
idor
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Segmento
A
Segmento
B
Segmento
C
Segmento
D
Segmento
E
Segmento
F
Segmento
G
Segmento
H
Segmento
I
Classificação de risco da operação
Car
acte
rístic
as d
o co
nsum
idor
Segm
entação sócio-dem
ográfica e com
portamental
Clusters Iniciais de consum
idores
Segm
entação pelo com
portamento
de perda de cr’editoS
egmentos por
caracter’isticas dos consum
idores
Modelo de regressão
Score de risco de crédito
Categorização do score em classes de risco
Segmentos por risco da operação
Operações de crédito
Consum
idores
Segm
entos por características dos
consumidores
111
desenvolvido. A escolha da granularidade da segmentação deve levar em
consideração o impacto destes dois efeitos.
Adicionalmente, deve-se atentar para a restrição existente no tamanho da base
de dados disponível para a aplicação do MPCC, uma vez que, se a base de
dados for pequena, pode não ser possível trabalhar com um número muito
grande de segmentos.
Dada a limitação de recursos computacionais, optou-se por trabalhar com um
número reduzido de segmentos no desenvolvimento dessa Tese. Assim,
formando 4 grupos na dimensão características do consumidor e 4 na
dimensão risco da operação obteve-se 16 segmentos finais para a modelagem
de risco de portfólio.
A formação de 4 categorias na análise de clusters sobre características do
consumidor é um resultado direto da aplicação do algoritmo, bastando limitar o
número de clusters a 4. Já na classificação de risco das operações deve-se
decidir quais serão os pontos de corte na pontuação que serão os limites entre
as quatro categorias de risco. Essa escolha foi realizada de forma julgamental
a partir dos resultados apresentados na Tabela 6-4 e está refletida na Tabela 6-
5. Procurou-se formar dois grupos de mais baixo risco com aproximadamente a
mesma participação (cerca de 35% cada). Os 30% de participação restantes
foram divididos dos outros grupos de maior risco.
Uma determinada operação de crédito classificada em um dos segmentos em
um determinado período pode ser classificada em outro segmento no período
seguinte em função de alteração do risco da operação (ocorrência de um
atraso, por exemplo) ou de características do consumidor (variação no padrão
de utilização de crédito, por exemplo). A Tabela 6-6 apresenta a distribuição
dos dados pelos 16 segmentos. Deve-se notar que cada operação de crédito
foi classificada em um dos segmentos a cada período. Assim, uma operação
de 12 meses, foi classificada 12 vezes não necessariamente no mesmo
segmento e está sendo contabilizada 12 vezes para o cálculo da freqüência
apresentada.
112
Tabela 6-5 – Categorias de risco para a formação dos segmentos finais
Categoria de risco
da operação
Faixa de pontuação do modelo
de classificação de risco
1 (risco mais baixo) [0;10]
2 ]10;30]
3 ]30;500]
4 (risco mais alto) ]500;1000]
Tabela 6-6 – Distribuição das operações de crédito nos segmentos finais
Legenda:Código do segmentoFreqüênciaParticipação
1 2 3 411 12 13 14
1.761.027 1.351.634 980.752 251.752 16,6% 12,7% 9,2% 2,4%
21 22 23 24473.916 560.866 502.611 204.633
4,5% 5,3% 4,7% 1,9%31 32 33 34
209.483 196.112 194.269 83.401 2,0% 1,8% 1,8% 0,8%
41 42 43 441.112.717 1.489.179 1.008.912 260.548
10,5% 14,0% 9,5% 2,5%Car
acte
ríst
icas
do
Con
sum
idor
Risco da Operação
1
2
3
4
113
7 - AJUSTE E SELEÇÃO DE DISTRIBUIÇÕES PARA PERDA DE
CRÉDITO
Na formulação do MPCC não é feita nenhuma premissa acerca de quais
distribuições devem ser utilizadas para a perda de crédito. A abordagem
utilizada no modelo busca determinar empiricamente, caso a caso, quais
distribuições mais se adequam aos segmentos de uma carteira de crédito ao
consumidor. Esse processo é realizado em três etapas: geração da amostra,
ajustes de distribuições e seleção de distribuições.
7.1 - Geração da amostra
O processo para gerar uma amostra de observações de perda para o ajuste de
distribuições utilizando diretamente a partir da base de dados disponível seria a
construção de uma série histórica de perda de crédito. As observações de cada
período seriam utilizadas no processo de ajuste de distribuições. Entretanto,
mesmo que o período utilizado fosse mensal e o histórico abranjesse diversos
anos, o número de observações de perda não seria muito expressivo. Isso
prejudica o processo de ajuste, principalmente em relação às caudas da
distribuição, que possuem importância fundamental em modelos de risco.
Valores extremos de perda ocorrem na cauda superior da distribuição, que
ocorrem com baixa freqüência a não ser que exista um número muito grande
de observações. Por exemplo, para que ocorram 20 observações em média
acima do percentil 99% da distribuição é preciso 2.000 observações de perda,
o que significaria aproximadamente 167 anos de observações mensais de
perda de crédito.
114
Para contornar esse problema, que também está presente no processo de
back-test5 de modelos de risco de crédito, é recomendável a utilização de um
processo de reamostragem ou bootstrap.
A idéia do processo é gerar um número muito grande de observações a partir
da amostra original de dados e implica na extração de diversas amostras
aleatórias a partir da amostra de dados original. O método de bootstrap foi
introduzido por Efron (1979) e é utilizado hoje em diversas aplicações,
principalmente na definição de intervalos de confiança de estatísticas
calculadas sobre amostras de dados (Efron e Tibshirani, 1993).
A teoria estatística trata de três questões básicas:
• Como coletar dados?
• Como analisar e sumarizar os dados coletados através de medidas
estatísticas?
• Qual é a acurácia das medidas estatísticas geradas?
A terceira questão constitui parte do processo chamado de inferência
estatística. O bootstrap é um método de simulação de dados criado
originalmente para realizar alguns tipos de inferência estatística. O termo
bootstrap deriva da frase “to pull oneself up by one’s bootstrap” , que é
baseada no livro Barão de Munchausen, escrito no século 18 por Rudolph Erich
Raspe, onde o Barão cai em um lago e salva a si mesmo puxando-se para fora
do lago pelo cordão de suas botas (bootstrap).
O bootstrap funciona gerando novas amostras de dados a partir de uma
amostra original. Suponha, por exemplo, que se deseja realizar uma inferência
estatística acerca da correlação entre duas variáveis e que para tal seja
utilizada uma amostra de 20 pares de dados das duas variáveis, ou seja, 20
observações. Com essas 20 observações é possível calcular um valor de
correlação, mas não avaliar precisamente qual é o intervalo de confiança desta
5 O processo de backtest consiste na aplicação do modelo em bases de dados históricas para
verificar se os resultados previstos de perda de crédito são consistentes com os
historicamente realizados.
115
medida. O método de bootstrap clássico gera diversas novas amostras de 20
observações cada uma a partir da amostra original. Esse processo é chamado
de reamostragem. As amostras são chamadas de amostras de bootstrap e são
geradas amostrando com reposição a partir da amostra original de 20
observações. Para cada amostra bootstrap é possível calcular um valor de
correlação, chamado de replicação. Supondo que, por exemplo, sejam
formadas 1000 amostras de bootstrap, é possível calcular 1000 replicações da
correlação, que definem uma distribuição estatística para a correlação. Com
essa distribuição é possível calcular intervalos de confiança para a correlação.
A idéia do método de bootstrap é que, na ausência de qualquer outra
informação sobre uma distribuição, uma amostra de observações contém toda
a informação disponível sobre a distribuição da população e, portanto,
reamostrar a amostra é o mais próximo que se pode chegar do resultado que
seria obtido extraindo amostras diretamente a partir da população.
Sejam:
• X uma variável aleatória que segue uma distribuição estatística não
conhecida, que é definida como P;
• L uma amostra aleatória contendo n observações de x;
• α̂ a estatística de interesse, que é calculada sobre a amostra L através
de uma determinada função g;
• G a distribuição estatística não conhecida de α̂ .
Se desejamos determinar a distribuição G, duas alternativas poderiam ser
utilizadas:
• Retirar um número grande de amostras L a partir da população e
calcular α̂ para cada amostra para obter sua distribuição empírica.
• Gerar um número grande de amostras L a partir da distribuição P e
calcular α̂ para cada amostra para obter sua distribuição empírica.
116
Entretanto, não temos disponível a população inteira para extrairmos diversas
amostras nem conhecemos a distribuição P. Como apenas temos disponível
uma amostra de dados L para determinar a distribuição G, as duas abordagens
colocadas acima são invalidadas. O bootstrap é utilizado para resolver este
problema utilizando a distribuição empírica de X, denominada P*, obtida a partir
da amostra de dados disponível.
A Figura 7-1 compara os processos de obtenção de uma distribuição amostral
a partir de uma distribuição conhecida para a variável aleatória X a partir da
distribuição empírica P*.
Figura 7-1 – Princípio do processo de Bootstrap
G )L(gˆ )L,,L(L P n1 →=α→=→ �
Distribuição Amostra aleatória Estatística Distribuição
desconhecida observada de interesse de α̂
*G *)L(gˆ )L,,L(L *P *n
*1
** →=α→=→ �
Distribuição Amostra de Estatística Distribuição
empírica bootstrap de interesse de α̂ *
Na distribuição empírica P* admite-se a probabilidade 1/n em cada observação
da amostra de n observações. Isto significa que, se um determinado valor
representa 10% da amostra, a distribuição empírica alocará probabilidade de
ocorrência igual a 0,1 a esse valor. Segundo Efron e Tibshirani (1993), pode
ser provado que a distribuição empírica P* é uma estatística suficiente da
distribuição real P. Isto significa que toda a informação de P contida na amostra
L também esta contida em P*.
117
Desta forma, o método de bootstrap gera um número grande de amostras L* a
partir da distribuição P*. Essas são as amostras bootstrap obtidas por
reamostragem com reposição sobre a amostra original L. A partir das amostras
L* a replicações da estatística α̂ , denominadas α̂ *, são calculadas e utilizadas
para definir a distribuição empírica G*, que é nossa estimativa da distribuição
G.
Um processo de reamostragem que apresenta algumas diferenças em relação
ao bootstrap clássico foi explorado por Politis et al. (2001). O processo envolve
a extração de amostras menores que a amostra original e sem reposição. Esse
método, chamado de subamostragem é, segundo Politis et al. (2001), mais
robusto que o bootstrap, pois não depende de premissas de independência
entre as observações6. Entretanto, para aplicar a subamostragem é necessário
definir uma proporção de observações da amostra original que será utilizada
para definir o tamanho das subamostras. Politis et al. (2001) mostra que o
processo de subamostragem funciona bem com uma ampla faixa de tamanho
relativo das subamostras em relação à amostra original.
Conceitualmente, a principal diferença do bootstrap clássico ao buscar
determinar a distribuição de uma determinada estatística de interesse é que
este calcula a estatística de interesse sobre amostras do mesmo tamanho que
a amostra original. Já o processo de subamostragem utiliza amostra com
tamanho inferior à da amostra original. No bootstrap clássico as amostras com
reposição que são extraídas de uma amostra original da população são
aproximações de amostras sem reposição extraídas diretamente da população.
Já as amostras geradas na subamostragem são efetivamente amostras sem
reposição da população.
Para gerar amostras para ajuste de distribuições foi utilizada a metodologia de
subamostragem. Para o processo, cada registro de pagamento ou não
pagamento de uma parcela de uma operação de crédito foi tratado como um
elemento da amostra original. Chamaremos este elemento de elemento de
exposição, que se refere à exposição do credor a uma operação de crédito de
6 As amostras bootstrap são extraídas com reposição para obter observações independentes.
118
um consumidor durante um período. Deste modo, a base de dados contendo
as operações de crédito de 2 milhões de consumidores foi tratada como uma
amostra de elementos de exposição.
A base de dados utilizada continha cerca de 10,6 milhões elementos de
exposição. Através de uma rotina computacional de amostragem do software
SAS foram extraídas 3.000 amostras sem reposição de 300 mil elementos cada
uma. O tamanho e a quantidade das subamostras foram escolhidos
preponderantemente em função das limitações computacionais existentes nos
softwares e hardware utilizados para o desenvolvimento desta Tese.
A principal aplicação do método de bootstrap é gerar uma distribuição empírica
de uma estatística de interesse. Esse também é o nosso objetivo e a estatística
em que estamos interessados é a perda média nos elementos de exposição
em um período. Esta estatística não é apenas a média aritmética simples da
perda nos diversos elementos de exposição, mas sim a média da perda nos
elementos ponderada pelo valor da exposição de cada elemento.
Havendo sido geradas as subamostras o próximo passo seria calcular a
estatística de interesse para cada uma das subamostras. Entretanto, se isto
fosse realizado sobre toda a subamostra, a perda média obtida para cada
subamostra abrangeria todos os 37 períodos para os quais tínhamos dados.
Isto não seria interessante, pois mascararia os efeitos que condições
econômicas diferentes têm sobre a perda média em diferentes períodos. Para
contornar esta questão, para cada subamostra foram calculados 37 valores de
perda média, um para cada período, utilizando a seguinte equação:
j período no o vencimentcom parcelas das Valor
j período no o vencimentcom parcelas das realizados pagamentos dos presente Valor1Pj
��
−=
Onde Pj é a perda média de crédito no período j e o valor presente se refere ao
valor das parcelas descontado até a data de vencimento das mesmas.
119
Como cada subamostra gerou 37 observações de perda média de crédito,
trabalhamos com um total de 111.000 observações em todas as 3.000
subamostras geradas pelo processo de bootstrap. No decorrer desta Tese, a
perda média de crédito em um período será denominada simplesmente por
perda de crédito.
Procedimentos similares de reamostragem em portfolios de crédito também
foram utilizados por Lopez (1999) e Carey (1998).
Estatísticas descritivas e o histograma das 111.000 observações de perda de
crédito são apresentadas na Tabela 7-1 e Figura 7-2, respectivamente. No
entanto, em nossa metodologia são ajustadas distribuições de perda de crédito
para cada um dos segmentos da carteira. Deste modo, precisamos das
distribuições empíricas de perda para cada segmento. Isto foi realizado
particionando os 3 mil subportfólios pelos 16 segmentos utilizados no
desenvolvimento do MPCC. Assim, obtivemos 3 mil subportfólios para cada um
dos 16 segmentos. istogramas com a distribuição de perda de crédito nos
segmentos
Tabela 7-1 – Estatísticas de observações mensais de perda de crédito
percentual
TAXA DE PERDA
Média 6,84%
Mediana 6,61%
Desvio padrão 1,27%
Curtose 3,69
Assimetria 0,88
Mínimo 3,54%
Máximo 12,28%
120
Figura 7-2 – Histograma de observações mensais de perda de crédito
percentual
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
3,0 4,0 5,0 6,0 7,0 8,0 9,0 10,0 11,0 12,0 13,0
Perda de crédito (%)
f.d.
p.
7.2 - Ajustes de distribuições
Com amostras de observações de perda de crédito para cada um dos
segmentos geradas conforme explicamos na seção anterior, o próximo passo
da metodologia proposta é o ajuste de diversas distribuições para cada
segmento. Para realizar o ajuste de distribuições utilizamos dois métodos
distintos de estimação de parâmetros. Estes métodos são os mais largamente
utilizados e de mais fácil implementação nos softwares @Risk e SAS e são
descritos a seguir:
• Método de máxima verossimilhança - Os parâmetros obtidos
maximizam a probabilidade de obter os dados com a função de
densidade da distribuição teórica e sua obtenção é obtida pela derivação
da função de verossimilhança. Para uma densidade de probabilidade f(x)
121
com parâmetros α1, α2, ..., αJ e n valores xi a função de verossimilhança
é:
∏=
ααα=n
1iJ21i ),,,,x(fL �
onde os parâmetros da distribuição α1, α2, ... , αn, são obtidos igualando
a zero as derivadas parciais de L:
0ddL
j=
α para j = 1, 2, ..., J
• Regressão não-linear – os parâmetros são obtidos de forma a
minimizar o soma dos erros quadráticos entre a função de distribuição
acumulada empírica e teórica. Para uma distribuição F(X) com
parâmetros α1, α2,..., αJ e dados com n valores xi e seus respectivos
valores de função de distribuição acumulada empírica (Yi), a função
objetivo que se pretende minimizar é:
( )�=
−ααα=n
1i
2iJ21i Y),,,,x(F
n1
Fobj �
Ambos os métodos podem ser utilizados. Porém, se não é possível obter uma
fórmula analítica para a função de densidade de probabilidade de uma
determinada distribuição estatística, em geral o método utilizado é o de
regressão não-linear.
Referências sobre o processo de ajuste de distribuições podem ser
encontradas em Vose (1996). O processo de ajuste visa selecionar uma
distribuição estatística teórica cuja curva da função de densidade de
probabilidade represente adequadamente os dados empíricos. A idéia fica mais
clara através da Figura 7-3, na qual apresentamos histogramas com dados
122
empíricos e dois ajustes de distribuições. Vemos no exemplo A que a curva da
função de densidade de probabilidade da distribuição teórica (linha vermelha)
não se ajusta muito bem aos dados empíricos representados pelo histograma.
Já no exemplo B existe uma boa aderência entre a curva e o histograma,
indicando que o ajuste da distribuição teórica aos dados empíricos é adequada.
Figura 7-3 – Exemplo de ajuste de distribuições.
7.2.1 - Distribuições testadas
Na aplicação empírica que acompanhou o desenvolvimento da metodologia do
MPCC, diversas distribuições estatísticas teóricas foram testadas. Para a
realização dos testes utilizamos as distribuições disponíveis no software @Risk
que são capazes de modelar a assimetria característica das distribuições de
perda de crédito, que possuem cauda acentuada à direita. Estas distribuições
são:
• Beta generalizada
• Chi-quadrada
• Extreme Value
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
-2 0 2 4 6 8 10 12 14 16
fdp
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
-2 0 2 4 6 8 10 12 14 16
fdp
A B
123
• Gamma
• Lognormal
• Inversa Gaussiana
• Log-logística
• Pearson tipo V
• Pearson tipo VI
• Rayleight
• Weibull
Adicionalmente, também foram avaliadas duas classes de distribuições menos
conhecidas, que possuem a propriedade de se adaptar a uma ampla variedade
de formas:
• Distribuições de Johnson (1949)
• Distribuição dos Lambdas Generalizados (Dudewicz e Karian, 1996).
Todas as distribuições testadas são apresentadas em maior detalhe no Anexo
A. Cada uma das distribuições descritas acima foi ajustada a cada um dos 16
segmentos finais de operações de crédito utilizando as 111 mil observações de
perda para cada segmento que foram obtidas pelo método descrito na seção
7.1. Com exceção das distribuições de Johnson e dos Lambdas Generalizados,
os parâmetros foram estimados pelo método de máxima verossimilhança
utilizando o software @Risk.
Os parâmetros das distribuições de Johnson e dos Lambdas Generalizados
foram estimados pelo método de regressão não linear descrito anteriormente
utilizando o software SAS. Na geração de valores iniciais para o processo
iterativo de resolução de uma regressão não linear foram utilizadas
metodologias de estimação dos parâmetros sugeridas na literatura que são
mais simples que a regressão não linear e usam apenas alguns pontos ou
características da distribuição. Os valores iniciais dos parâmetros da
distribuição dos Lambdas Generalizados foram gerados pelo método proposto
por Dudewicz e Karian (1996) através da resolução de um sistema de
equações que igualam os primeiros quatro momentos teóricos da distribuição
(média, variância, assimetria e curtose) com momentos calculados
124
empiricamente. As equações são complexas e requerem resolução por cálculo
numérico. Entretanto, Dudewicz e Karian (1996) fornecem tabelas com
soluções para os quatro parâmetros da distribuição em função dos momentos
da distribuição.
Para determinar os valores iniciais dos parâmetros das distribuições de
Johnson utilizamos o método proposto por Slifker e Shapiro (1980). O
procedimento é iniciado através da definição de 4 pontos referenciais na
distribuição definidos por:
5,0)Z3(nP
5,0)Z(nP
5,0)Z(nP
5,0)Z3(nP
4
3
2
1
+Φ=+Φ=
+−Φ=+−Φ=
Onde Φ(⋅) é a função de distribuição acumulada normal padronizada e Z
assume um valor recomendado de 0,8 para amostras superiores a 200
observações (Slifker e Shapiro, 1980). Os valores de P1 a P4 definem a posição
dos pontos de referência x1 a x4 na lista ordenada dos valores de X (variável de
interesse).
Os parâmetros são obtidos a partir dos pontos x1 a x4 por equações que são
apresentadas em Slifker e Shapiro (1980).
7.3 - Seleção de distribuições
Para a comparação e seleção de quais distribuições teóricas oferecem melhor
ajuste para os dados empíricos existem três principais alternativas de medidas
não paramétricas de qualidade de ajuste: as estatísticas Chi-quadrado, de
Kolgomorov-Smirnof (K-S) e Anderson-Darling (1952). Esses três testes
comparam a distribuição empírica com a distribuição teórica, gerando
estatísticas que indicam um melhor ajuste quanto menor for seu valor.
125
Para a seleção de distribuições na formulação do MPCC, das três estatísticas
de aderência disponíveis a de Anderson-Darling (AD) foi escolhida como
critério. Essa escolha se deu em função de características indesejáveis das
demais estatísticas. A estatística Qui-quadrado requer a utilização dos dados
em forma categorizada e a medida é sensível ao número e forma das
categorias formadas. Já a medida K-S, que é a maior diferença entre a
distribuição acumulada testada e a distribuição acumulada dos dados
empíricos, possui a desvantagem de seu valor ser determinado apenas pela
maior discrepância entre as distribuições empírica e teórica, não considerando
o ajuste nos demais pontos. Como a maior discrepância da função de
distribuição raramente se localiza nas caudas da distribuição, a estatística KS
não avalia apropriadamente o ajuste nas caudas.
Na gestão de risco a cauda superior da distribuição de perda assume grande
importância, pois é a parte da distribuição onde se descrevem as maiores
perdas. A estatística AD utiliza todos os pontos e é especialmente sensível ao
ajuste das caudas. Segundo Vose (1996), a estatística AD é uma medida em
geral mais útil que a KS, especialmente quando se deseja que o ajuste das
caudas seja considerado. Maiores detalhes acerca de medidas de ajustes de
distribuições podem ser encontrados em D’Agostino e Stephens (1986).
O processo de seleção de distribuições foi realizado para cada um dos 16
segmentos. Para obter melhores resultados nos ajustes de distribuições, nos
segmentos que possuem altas taxas de perda (1.4, 2.4, 3.4 e 4.4) foi modelada
a distribuição do complementar da perda, ou seja, 1 – perda. Este artifício foi
utilizado neste segmento porque os ajustes de distribuições utilizando
diretamente a perda de crédito não forneceram bons resultados.
O Anexo B apresenta, para cada um dos 16 segmentos formados os 3
melhores ajustes com seus respectivos valores da estatística AD, os
parâmetros e os gráficos das distribuições com o melhor ajuste para cada
segmento. A Tabela 7-2 apresenta o resumo dos resultados com os melhores
ajustes.
126
Tabela 7-2– Resumo de resultados de ajustes de distribuições
Segmento Distribuição ajustada No. de parâmetros
Estatítica A-D
1.1 Johnson 4 4,2 1.2 Johnson 4 0,9* 1.3 Lambdas Generalizados 4 1,1* 1.4 Pearson V 2+1** 87,9 2.1 Lambdas Generalizados 4 1,7* 2.2 Johnson 4 0,6* 2.3 Johnson 4 0,5* 2.4 Johnson 4 15,5 3.1 Inversa Gaussiana 2+1** 58,1 3.2 Lambdas Generalizados 4 10,5 3.3 Johnson 4 0,2* 3.4 Johnson 4 40,9 4.1 Johnson 4 3,8* 4.2 Johnson 4 1,8* 4.3 Johnson 4 0,6* 4.4 Johnson 4 12,3
* valores inferiores ao valor crítico da estatística AD com nível de significância de 1%.
** 2 parâmetros da distribuição mais 1 parâmetro de deslocamento da distribuição
Valores críticos da estatística AD dependem da distribuição utilizada.
Entretanto Giles (2000) apresenta uma aproximação teórica da distribuição da
estatística AD na situação de um número muito grande de pontos. Utilizamos
um valor crítico da estatística AD com nível de significância de 1% que foi
extraído por interpolação da tabela apresentada por Giles (2000). Se o valor da
estatística AD for superior ao valor crítico podemos rejeitar a hipótese nula de
que os dados seguem a distribuição testada ao nível de 1% de significância.
Em diversos segmentos a distribuição com o melhor ajuste ainda apresentou a
estatística AD acima do valor crítico. Isto não invalida a utilização das
distribuições na aplicação do MPCC, uma vez que nosso objetivo nesta etapa é
utilizar a distribuição disponível que aproxime da melhor maneira possível a
distribuição real dos dados empíricos e não necessariamente chegar à
distribuição verdadeira dos dados empíricos de perda de crédito de cada
segmento.
127
Podemos verificar a superioridade das distribuições com 4 parâmetros para
modelar a perda de crédito nos segmentos, em especial a distribuição de
Johnson. Dos 16 segmentos utilizados, em 11 o melhor ajuste foi o da
distribuição de Johnson e em 3 foi o ajuste da distribuição dos Lambdas
Generalizados.
O processo de seleção de distribuições de perda de crédito para os segmentos
de uma carteira está resumido na Figura 7-4. A metodologia proposta leva à
escolha de distribuições estatísticas específicas para cada segmento da
carteira que serão posteriormente utilizadas no processo final de obtenção da
distribuição de perda de crédito da carteira.
Figura 7-4 – Seleção de distribuições de perda para os segmentos
.
Criação de subportfólios através de bootstrap por subamostragem
Divisão dos sub-portfólios nos segmentos da carteira
Cálculo da perda de crédito média em
cada combinação de subportfólio, período e segmento
Obtenção da distribuição empírica de perda em cada segmento
Ajustes de distribuições estatísticas para cada segmento da carteira
Calculo da estatística de AD para cada ajuste de distribuição
Seleção da distribuição com melhor ajuste para cada segmento da carteira
128
8 - MODELAGEM DE DEPENDÊNCIAS ATRAVÉS DE CÓPULAS
Modelos de risco de portfólio de crédito devem modelar o comportamento
conjunto de ocorrência de default nos diversos devedores de uma carteira.
Entretanto, a ocorrência de default nos diversos devedores de uma carteira não
é independente. Existem fatores econômicos que fazem com que ocorram
movimentos de alta ou baixa no número de defaults, que afetam os devedores
de forma conjunta. O modo como é tratado o relacionamento entre a ocorrência
de default nos diversos devedores da carteira é um dos principais elementos na
formulação de um modelo de risco de portfólio de crédito.
Em modelos de risco de portfólio fundamentados em modelos estocásticos
estruturais, como o CreditMetrics e o KMV, os eventos de default de diferentes
firmas estão associados a variáveis latentes, que na maioria dos modelos são
representadas pelo valor das ações das firmas. Como os eventos de default
são decorrentes da variação destas variáveis, a correlação entre estes eventos
é determinada pelas correlações entre os valores das ações das firmas.
Já em modelos de portfólio baseados em modelos estocásticos de forma-
reduzida, como o CreditPortfolioView e o CreditRisk+, a ocorrência de default
em um devedor pode ser visto como uma variável de Bernuilli (variável que
assume os valores 0 ou 1) que apresenta um determinado parâmetro de
intensidade (probabilidade de default). Os parâmetros de intensidade dos
diversos devedores da carteira são correlacionados entre si em função de uma
série de fatores que podem afetá-las conjuntamente, como condições
econômicas, por exemplo.
Uma das premissas dos modelos de forma reduzida é que a correlação entre
os parâmetros de intensidade de default advém apenas desses fatores. Deste
modo, as ocorrências de default são, condicionalmente aos fatores,
independentes. Isto significa que, para um dado cenário estabelecido para os
fatores, as ocorrências de default são consideradas independentes. Esta
suposição impõe uma simplificação aos modelos de forma reduzida, uma vez
que a correlação entre os diversos devedores de uma carteira pode advir na
129
prática de outras causas além de fatores econômicos como, por exemplo,
consumidores que dependem de uma mesma fonte pagadora.
Os modelos de risco de crédito mais conhecidos, sejam eles estruturais ou de
forma reduzida utilizam um modelo de fatores para simplificar a estrutura de
correlações que é apresentado em uma forma genérica pela equação 8-1. Nos
modelos estruturais ele é aplicado às variáveis latentes, buscando representar
o comportamento de ações a partir de índices setoriais ou de países. Nos
modelos de forma reduzida ele é utilizado para representar a influência de
variáveis econômicas ou de setores econômicos na intensidade de default dos
devedores.
Y = G(f1,f2, ... , fn) Eq. 8-1
Onde:
• Y pode representar o retorno de uma ação em um modelo estrutural ou
a taxa de default em um modelo de forma reduzida.
• G é uma função contínua e monotônica;
• f0, f1, ... , fn são fatores;
Descrições do tratamento de correlações nos principais modelos de risco de
crédito encontram-se em Erlenmaier (2001) e em Nyfeler (2000).
A maneira como duas variáveis se relacionam será genericamente chamada de
dependência. Dentre diversas medidas de associação entre variáveis utilizadas
na avaliação de dependência, a mais popular é a correlação linear (Embrenchts
et al., 1999), que é definida por:
2Y
2X
)Y,X(Cov)Y,X(
σσ=ρ Eq. 8-2
130
Onde:
• ρ(X,Y) é a correlação linear entre as variáveis X e Y;
• Cov(X,Y) é a covariância entre as variáveis X e Y;
• σX e σY são os desvios padrão de X e Y.
Figura 8-1 – Exemplo de relações de dependência
Entretanto, a relação entre duas variáveis não é totalmente definida pela
correlação entre elas. Duas variáveis com uma determinada correlação podem
apresentar diferentes padrões de dependência, como é exemplificado na
Figura 8-1, na qual são apresentadas duas distribuições bivariadas que
apresentam a mesma correlação. Pode-se notar que o gráfico da direita
apresenta maior concentração na diagonal e extremidades mais acentuadas.
Mais adiante explicaremos como geramos essas duas distribuições conjuntas.
8.1 - Função de cópula
Não vamos aprofundar-nos no estudo de funções de cópula. Daremos aqui
apenas a introdução necessária para o desenvolvimento desta Tese. O leitor
Cópula Normal
-4
-3
-2
-1
0
1
2
3
4
-4 -2 0 2 4
Cópula Student-2
-4
-3
-2
-1
0
1
2
3
4
-4 -2 0 2 4
131
interessado no tema poderá encontrar detalhes em Nelsen (1999). O objetivo
de modelar a dependência entre variáveis é a determinação de sua distribuição
conjunta (multivariada). A distribuição conjunta apresenta não só o
comportamento de cada variável, mas também elas se comportam em
conjunto. A distribuição conjunta pode ser definida através de:
• Distribuições univariadas de cada variável, chamadas de distribuições
marginais;
• Relação de dependência entre as variáveis, ou seja, como elas se
comportam conjuntamente.
A relação de dependência entre variáveis pode ser completamente definida por
uma função de cópula. A função de cópula é uma função matemática que,
utilizando como argumentos as distribuições marginais de cada variável, gera
como resultado a distribuição multivariada das variáveis.
Figura 8-2 – Aplicação de uma função de cópula.
A idéia da utilização da função de cópula é ilustrada pela Figura 8-2, que
apresenta um exemplo para duas variáveis. Neste exemplo apresentamos duas
variáveis aleatórias A e B cujas distribuições são dadas (distribuições
marginais) e deseja-se obter a distribuição conjunta das duas variáveis
(distribuição multivariada). Para obter a distribuição conjunta aplica-se uma
$ �%�&�
$ �%���
& �
. �� � � �����
� ) � �� ��
Distribuições
Marginais
Distribuição
Multivariada
132
função matemática sobre as distribuições das variáveis A e B. Esta função é o
que chamamos de função de cópula.
Para uma distribuição multivariada F definida por:
F(x1,...,xN) = Prob (X1 ≤ x1, ..., XN ≤ xN) Eq. 8-3
cujas funções de distribuição marginais são:
Fn(xn) = Prob (Xn ≤ xn), 1 ≤ n ≤ N Eq. 8-4
A função de cópula C é formalmente definida como a função de distribuição
acumulada tal que:
• C: [0,1]N → [0,1];
• C é crescente e contínua em todo xn , 1 ≤ n ≤ N ;
• C possui marginais Cn, tais que Cn(un) = C(1,...,1, un,1,...,1) = un para
0 ≤ un ≤ 1.
• F(x1,...,xN) = C(F1(x1),..., Fn(xn))
Referências sobre funções de cópula e aplicações em gestão de risco podem
ser encontradas em Nelsen (1999), Embrechts et al. (1999), Frey et al. (2001),
Das e Geng (2002) e Lindskog (2000).
No modelo proposto nesta Tese o comportamento conjunto de perda de crédito
nos diversos segmentos de uma carteira é modelado através do uso de uma
função de cópula elíptica. Este tipo de cópula possui como parâmetro a matriz
de correlações entre as variáveis modeladas. Utilizando a matriz de
correlações como parâmetro da função de cópula, incluímos no escopo da
modelagem a medida mais amplamente utilizada e conhecida de associação
entre variáveis. Outra vantagem da matriz de correlações é que é possível
relacionar cada par de variáveis de forma diferente, o que não seria possível se
fossem utilizadas outras funções de cópula com um único parâmetro (Nelsen,
1999).
133
Foram analisadas duas alternativas de funções de cópula: a Gaussiana ou
normal e a cópula Student. O fato destas duas funções de cópula serem as
mais comumente utilizadas no contexto de risco de crédito (Bluhm et al., 2003)
nos levou a escolher estas funções. A cópula normal para o caso bivariado é
definida por:
dt ds )1(2
tst2sexp
12
1)u,u(C
2
22)u( )u(
2211
12
1
�
�
��
�
�
ρ−+ρ−−
ρ−π= � �
− −Φ
∞−
Φ
∞− Eq. 8-5
onde ρ é a correlação linear entre u1 e u2 e Φ(.) é a função de distribuição
acumulada normal padrão.
A função de cópula Student com ν graus de liberdade é definida para o caso
bivariado como:
dsdt)1(
tst2s1
12
1)u,u(C
22
2
22)u(t )u(t
2211
12
1+ν−
∞− ∞−
�
�
��
�
�
ρ−ν+ρ−+
ρ−π= � �
−ν
−ν
Eq. 8-6
Uma determinada função de cópula pode ser aplicada a quaisquer distribuições
marginais. Por exemplo, pode-se utilizar uma cópula normal para modelar a
estrutura de dependência em que uma variável possui distribuição Beta e outra
possui distribuição Gamma. A distribuição multivariada resultante será
composta pelas distribuições marginais associadas através da função de
cópula. A utilização de uma cópula normal não quer dizer que a distribuição
conjunta será normal (isso só ocorre se as distribuições marginais também
forem distribuições normais).
A Figura 8-3 apresenta o mesmo gráfico da Figura 8-1, mas revelando as
funções de cópula utilizadas. São apresentados 1000 pares de valores de duas
variáveis com distribuições marginais normais e correlação linear igual a 0,7
seguindo a cópula normal e Student com 2 graus de liberdade. As diferenças
no padrão dos dados são devidas às funções de cópula utilizadas para gerar os
dados.
134
Figura 8-3 – Distribuição bivariada com cópulas normal e Student
Pode-se verificar que a cópula de Student gera uma maior concentração na
diagonal e mais valores conjuntos nos extremos. A cópula Student apresenta
maior dependência nas caudas que a cópula normal, que concentra a maior
parte da dependência nas observações centrais.
Na gestão de risco de crédito, o comportamento de dependência nas caudas
possui especial importância em virtude da ocorrência eventos extremos
simultâneos. A princípio, isto leva a crer que a cópula adequada deve
apresentar dependência na cauda superior da distribuição de perdas
(Embrechts et al., 1999).
Diz-se que duas variáveis X1 e X2 são assintoticamente dependentes na cauda
superior se seu coeficiente de dependência da cauda superior definido por:
���
�� >>=λ −−
→)z(FX)z(FXobPrlim 1
111
221z
Eq. 8-7
estiver no intervalo [0,1] (Embrechts et al., 1999). O coeficiente de dependência
superior a zero significa que, se ocorrem valores “muito extremos” em uma das
variáveis (onde o percentil da distribuição está do limite de 100%), há uma
Cópula Normal
-4
-3
-2
-1
0
1
2
3
4
-4 -2 0 2 4
Cópula Student-2
-4
-3
-2
-1
0
1
2
3
4
-4 -2 0 2 4
Cópula normal Cópula Student-2
135
probabilidade não nula de ocorrer um valor muito extremo na outra variável.
Embrechts et al. (1999) demostraram que a cópula de Student apresenta λ ∈
[0,1] e que na cópula normal o coeficiente λ é igual a zero.
Apesar da cópula de Student levar a uma maior dependência caudal, não
podemos afirmar categoricamente que ela é sempre superior à cópula normal
na modelagem de distribuições de perda de crédito. Deve ser verificado qual é
o real padrão dos dados e qual função de cópula mais se ajusta a esse padrão.
Esta verificação pode ser realizada pela comparação de dados históricos de
perda na carteira com o resultado do modelo utilizando as diferentes
alternativas de função de cópula.
8.2 - Aplicação das funções de cópula no MPCC
O modelo proposto nesta Tese busca fornecer uma forma simples de modelar
correlações em carteiras de crédito ao consumidor. Conforme a metodologia
descrita no capítulo 6, cada consumidor é alocado a um segmento em função
de suas características socio-demográficas e de comportamento histórico de
crédito. A partir de séries históricas de perda de crédito dos diversos
segmentos de consumidores é calculada uma matriz de correlações. O modelo
considera que a correlação entre dois consumidores é igual à correlação entre
os segmentos aos quais eles pertencem.
Se dois consumidores estão em um mesmo segmento a correlação entre eles é
igual a 1. Isto não significa que eles vão entrar em default sempre ao mesmo
tempo, mas que os movimentos da intensidade de perda em consumidores
com estes perfis serão perfeitamente correlacionados.
Para definir completamente a relação de dependência entre as intensidades de
ocorrência de perda de dois consumidores de segmentos diferentes, nossa
abordagem adotará o uso de uma função de cópula para associar distribuições
univariadas de perda de cada segmento da carteira em distribuições conjuntas
que possuam a matriz de correlações obtida pelo processo descrito acima.
136
O método apresentado dispensa a utilização tradicional de modelos de fatores
para simplificar a estrutura de correlações uma vez que esta já é obtida com
uma dimensionalidade suficientemente baixa, normalmente inferior a 30
variáveis, cada qual representando a perda de crédito em um segmento da
carteira. Entretanto, a metodologia proposta pressupõe estabilidade da matriz
de correlações, o que é mais factível se a aplicação e a estimação da matriz for
realizada em um mesmo ciclo econômico.
137
9 - SIMULAÇÃO DA DISTRIBUIÇÃO DE PERDA DE UMA
CARTEIRA DE CRÉDITO AO CONSUMIDOR
Neste capítulo apresentamos os algoritmos e procedimentos finais utilizados
para a obtenção da distribuição de perda de crédito de um portfólio através do
MPCC. Também apresentamos neste capítulo como o MPCC foi aplicado na
base de dados utilizada nesta Tese. Procuramos realizar uma aplicação
exaustiva do método explorando ao máximo a base de dados disponível
através da simulação de milhares de portfólios para os quais apuramos a perda
de crédito realizada historicamente e a comparamos com os resultados
gerados a partir do MPCC. Por fim, aplicamos aos resultados um teste de
avaliação de modelos de risco de portfólio de crédito e apresentamos uma
visão gráfica dos resultados.
9.1 - Processo de obtenção da distribuição de perda da carteira
No modelo proposto nesta Tese, a distribuição de perdas de uma carteira é
obtida através de simulação de Monte Carlo. Esse processo envolve a geração
de um número muito grande de possíveis realizações de valores de perda de
crédito para a carteira.
O conjunto de realizações simuladas de perda na carteira define a distribuição
simulada e qualquer aplicação do modelo de risco de portfólio, como cálculo de
Capital Econômico e Var pode ser realizada diretamente a partir deste conjunto
de valores simulados de perda. A avaliação de riscos marginais, como por
exemplo, elevação da exposição da carteira a algum segmento específico do
mercado ou área geográfica, também pode ser realizada através dos valores
simulados de perda na carteira. Neste caso, são comparadas duas
distribuições distintas, com e sem a exposição adicional.
A simulação de perda para a carteira é composta de duas etapas:
138
• Geração de realizações conjuntas de perda em cada segmento definido
na etapa de segmentação da carteira, descrita no capítulo 6.
• Ponderação das realizações obtidas pela exposição da carteira a cada
segmento. A média ponderada das realizações conjuntas de perda na
carteira é uma realização simulada de perda na carteira. O conjunto de
realizações de perda na carteira define a distribuição simulada de perda
de crédito na carteira.
Para executar a primeira etapa é necessário simular a perda de cada segmento
seguindo a distribuição marginal selecionada para cada segmento conforme o
processo descrito no capítulo 7. Entretanto, os valores de perda em cada
segmento devem seguir uma determinada estrutura conjunta de dependência,
definida no MPCC por uma função de cópula elíptica (normal ou Student) e
uma matriz de correlações entre séries históricas de perda de crédito nos
segmentos.
Conforme vimos anteriormente, na fase de estimação de parâmetros do
modelo MPCC para uma carteira de crédito, são obtidos:
• Quantidade e perfil dos segmentos que compõe a carteira de crédito e
algoritmo de alocação de exposições aos segmentos.
• Matriz de correlações lineares entre perda de crédito nos segmentos,
calculada a partir de séries históricas de perda de crédito de cada
segmento da carteira.
• Distribuições estatísticas teóricas que melhor modelam a perda de
crédito em cada segmento com seus respectivos parâmetros
(distribuições marginais).
• Função de cópula elíptica mais adequada aos dados empíricos.
Supondo que queremos aplicar o MPCC para obter a distribuição de perda de
crédito de um portfólio no próximo período, precisamos utilizar as informações
citadas acima, obtidas na fase de estimação do modelo, e a composição atual
do portfólio em termos da participação de cada um dos segmentos da carteira.
139
Figura 9-1 – Estimação de parâmetros e aplicação do MPCC.
1 0,4 0,5
0,4 1 0,6
0,5 0,6 1
Segmentação da carteira
Séries históricas de perda para cada segmento
Matriz de correlações entre perda nos segmentos
Distribuições marginais de perda nos segmentos
ESTIMAÇÃO DE PARÂMETROS
Perda de crédito
1%
Alocação das exposições aos segmentos
Simulação de Monte Carlo
Distribuição conjunta de perda nos segmentos
Ponderação da distribuição conjunta de perda
Distribuição de perda na carteira
APLICAÇÃO DO MODELO
���
Escolha da função de cópula
140
A Figura 9-1 apresenta um esquema do processo de geração da distribuição de
perdas de uma carteira de crédito. São ilustrados os processos de estimação
de parâmetros e a aplicação do MPCC. A seta vermelha de feedback da
distribuição de perda da carteira para a seleção da função de cópula ilustra o
procedimento de escolha da função de cópula que é realizada comparando
resultados empíricos com os produzidos pelo modelo utilizando alternativas de
função de cópula (Normal ou Student). Se considerarmos que esta escolha já
esteja definida, a seta vermelha pode ser omitida.
Na aplicação do MPCC em períodos consecutivos em uma carteira, como por
exemplo, na situação de uma instituição financeira a cada mês avaliando a
distribuição de perdas de sua carteira para o mês seguinte, a única variação na
aplicação do MPCC será a composição da carteira nos segmentos utilizados.
Entretanto, periodicamente a instituição financeira deverá atualizar os
parâmetros utilizados no modelo. Esta atualização pode ocorrer uma vez por
ano, por exemplo, ou quando alterações significantes ocorrerem no cenário
econômico.
O resultado final da aplicação do MPCC é a distribuição de perda para a
carteira no horizonte de um período. Entretanto esta distribuição não é obtida
na forma de uma fórmula analítica, mas sim na forma de milhares de possíveis
“realizações” de perda na carteira obtidas pelo processo de simulação de
Monte Carlo.
9.2 - Algoritmos de simulação
Para realizar a simulação é utilizado o algoritmo citado por Romano (2001).
Para gerar W observações aleatórias em N dimensões de acordo com a cópula
normal o procedimento é:
1. Dada a matriz de correlações lineares R, encontrar a decomposição de
Cholesky (Gentle, 1998) A, onde AAT=R;
141
2. Simular n variáveis aleatórias normais independentes representadas por Z
=(z1,..., zN)T;
3. Obter X=AZ;
4. Determinar as componentes ui = Φ(xi), i = 1,...,N , formando o vetor
U=(u1,..., uN),
5. Repetir W vezes o algoritmo a partir do passo 2, gerando a matriz W x N
(U1,... ,UW)T que o resultado da simulação de W observações de uma
distribuição multivariada de acordo com a cópula normal e com marginais
uniformes(0,1).
Uma variação desse algoritmo é utilizada para a cópula Student:
1. Dada a matriz de correlações lineares R, encontrar a decomposição de
Cholesky A, onde AAT=R;
2. Simular n variáveis aleatórias normais independentes representadas por Z
=(z1,..., zN)T;
3. Simular uma variável aleatória, s, de acordo com a distribuição quiquadrado
com ν graus de liberdade;
4. Obter Y=AZ ;
5. Obter Ys
Xν= ;
6. Determinar as componentes ui = tν(xi), i = 1,...,N , formando o vetor
U=(u1,..., uN);
7. Repetir W vezes o algoritmo a partir do passo 2, gerando a matriz W x N
(U1,... ,UW)T que o resultado da simulação de W observações de uma
distribuição multivariada de acordo com a cópula Student com ν graus de
liberdade e com marginais uniformes(0,1).
A partir das marginais uniformes, pode-se aplicar qualquer outra distribuição
marginal utilizando a transformação F-1(U(0,1)), onde F é a distribuição
marginal desejada e U(0,1) é o valor da variável de distribuição uniforme entre
142
0 e 1. Em nossa aplicação, F são as distribuições estatísticas definidas no
capítulo 7.
9.3 - Aplicação do MPCC em portfólios simulados
Para realizar a validação do modelo, o MPCC foi aplicado a dois conjuntos
distintos de portfólios formados através da seleção aleatória (subamostragem
sem reposição) a partir da base de dados utilizada para o desenvolvimento
desta Tese:
• 3 mil portfólios que incluíam exposições de operações de crédito em
estado de default;
• 3 mil portfólios que não incluíam exposições de operações de crédito em
estado de default.
Para a seleção dos portfólios, uma determinada operação de crédito foi
considerada em estado de default após apresentar um atraso superior a 30
dias no pagamento das obrigações devidas. Dos 10,6 milhões de elementos de
exposição presentes na base de dados utilizada, 9,5 % deles eram de
operações em estado de default. Estes elementos de exposição são parcelas
que, em seus vencimentos, suas respectivas operações de crédito já estavam
em default.
A perda de crédito analisada no primeiro conjunto de portfólios reflete o
resultado integral da carteira, isto é, englobando todas as operações que foram
realizadas na instituição. A contribuição das operações em default no resultado
de perda é dada pelo valor em default no período analisado menos a
recuperação esperada deste valor, ainda que este seja pago em períodos
posteriores (vide definição de perda apresentada no capítulo 5).
Já, a perda analisada no segundo conjunto de portfólios segue a linha
tradicionalmente adotada na avaliação de distribuições de perda ou valor de
portfólios. As exposições restantes das operações que entraram em estado de
143
default foram retiradas da análise. Um argumento forte a favor desta
abordagem é que a distribuição que se pretende obter representa a avaliação
de perdas inesperadas e uma operação em default já não contribui para a
perda inesperada uma vez que ela já está realizada.
Cada um dos 6 mil portfólios analisados continha 300 mil elementos de
exposição. Como elemento de exposição compreende-se a exposição de uma
operação de crédito em um período. Assim, uma operação com um prazo de
10 meses gera 10 elementos de exposição que são as 10 parcelas da
operação. Os 300 mil elementos de exposição de cada portfólio estavam
distribuídos ao longo dos 37 períodos utilizados na aplicação. Desta forma, não
temos 300 mil elementos de exposição que são acompanhados por 37 meses,
mas sim cerca de 8.108 (300 mil / 37 períodos) elementos de exposição
avaliados a cada mês.
Os elementos de exposição (parcelas de operações de crédito) que formaram
cada um dos 6 mil portfólios foram selecionados aleatoriamente a partir da
base de dados com 10,6 milhões de elementos de exposição. Assim, se um
elemento de exposição de uma operação foi selecionado para um determinado
portfólio, não necessariamente os demais elementos de exposição da mesma
operação também foram selecionados para o portfólio. Desta forma, cada um
dos 6 mil portfólios de 300 mil elementos de exposição utilizados também pode
ser interpretado como 37 portfólios diferentes, cada qual com
aproximadamente 8.108 elementos de exposição com vencimento em um dos
37 meses analisados. O MPCC foi aplicado a cada um dos portfólios utilizando
tanto a função de cópula normal quanto a Student com 2 graus de liberdade.
Para cada simulação foram realizadas 370 mil iterações (10 mil para cada
período). Para cada uma das distribuições simuladas foram calculados os
percentis 95% e 99%. A Figura 9-2 ilustra o processo de aplicação do MPCC e
a apuração dos valores históricos de perda que foram utilizados para avaliar a
capacidade preditiva do modelo.
Figura 9-2 – Aplicação do MPCC nos portfólios simulados e apuração de valores históricos para validação.
...
Período ...
...
1 2 37
10 mil valores simulados de
perda
10 mil iterações no MPCC
10 mil valores simulados de
perda
10 mil iterações no MPCC
10 mil valores simulados de
perda
10 mil iterações no MPCC
Composição do portfólio no
período 1
Composição do portfólio no
período 2
Composição do portfólio no
período 37
370 mil iterações do MPCC gerando
370 mil valores simulados de perda
por portfólio
37 valores históricos de perda apurados para cada portfólio com 300 mil elementos de
exposição
1 valor histórico de
perda apurado
1 valor histórico de
perda apurado
1 valor histórico de
perda apurado
6 MIL PORTFÓLIOS (3 mil com exposições em default e 3 mil sem exposições em default )
222 mil valores históricos de perda apurados 2,22 bilhões de valores simulados de perda
6 mil valores calculados de percentis 95% e 99%
1 valor de percentil 95% e 1 valor de percentil 99% para cada
portfólio
~ 8108 el. de exposição
~ 8108 el. de exposição
~ 8108 el. de exposição
Valores históri-cos�
Simula-ções�
145
Para cada um dos 6 mil portfólios foram apurados os valores agregados de
perda efetivamente ocorrida em cada um dos 37 meses analisados, totalizando
111 mil observações mensais de perda de crédito para cada uma das duas
situações analisadas. É possível apurar estes valores de perda uma vez que
trabalhamos com uma base de dados histórica contendo a informação
detalhada de pagamento das operações de crédito. A este conjunto de
observações empíricas de perda chamamos de distribuição empírica de perda
de crédito na carteira.
Os resultados apresentados nos capítulos anteriores foram baseados na
utilização da base de dados incluindo as exposições em default. Para aplicar o
MPCC nos portfólios sem exposições de operações em default, as distribuições
marginais obtidas no capítulo 8 tiveram que ser reestimadas para considerar
esta condição.
Tabela 9-1 – Casos de perda acima do percentil fornecido pelo MPCC
Considera exposições
em default Função de Cópula Percentil
Percentual de casos
acima do percentil
Sim Normal 95% 2,95%
Sim Normal 99% 0,41%
Sim Student-2 95% 3,00%
Sim Student-2 99% 0,49%
Não Normal 95% 5,20%
Não Normal 99% 1,08%
Não Student-2 95% 5,16%
Não Student-2 99% 0,50%
As 37 observações de perda apuradas para cada portfólio foram comparadas
com os percentis 95% e 99% obtidos pelo MPCC para o portfólio. O percentual
das observações cujos valores foram superiores aos percentis 95% e 99%
calculados pelo MPCC estão tabulados na Tabela 9-1. Se o modelo está
avaliando os percentis superiores da distribuição corretamente e os portfólios
analisados são independentes, espera-se que 5% das observações empíricas
sejam superiores ao percentil 95% simulado. De forma semelhante, espera-se
146
que 1% das observações empíricas sejam superiores ao percentil 99%
simulado.
Considerar como independentes valores de perda de crédito em portfólios
extraídos por subamostragem de uma mesma base de dados é questionável.
Se a perda de crédito apurada em um determinado período no portfólio
completo (toda a base) for alta, os sub-portfólios amostrados tenderão a, em
média, apresentarem perda mais alta neste período. Isto infringe a premissa de
independência.
Apesar da questão de independência, podemos verificar os resultados obtidos
nos portfólios sem exposições em default foram próximos do esperado,
notadamente quando é utilizada a cópula normal. Resultados relativos aos
portfólios que consideraram exposições em default apresentaram piores
resultados.
Os piores resultados obtidos em portfólios com exposição em default podem
ser justificados pela maior concentração de elementos de exposição nos
segmentos de alto risco, onde se encontram as exposições em default.
Podemos verificar pela Tabela B-1 que o ajustes das distribuições de perda nos
segmentos de alto risco (1.4, 2.4, 3.4 e 4.4) são menos precisos e isto tem um
efeito na cauda da distribuição de perda da carteira.
9.4 - Testes estatísticos sobre as distribuições
Conforme notam Frerichs e Löffler (2002), a literatura sobre avaliação e testes
empíricos da habilidade preditiva de modelos de risco de portfólio de crédito é
escassa. O maior problema na realização deste tipo de teste é a necessidade
de longos períodos de dados para obter um número suficiente de observações
de perda de crédito para que o teste seja confiável. Diferentemente do risco de
mercado onde é possível trabalhar com observações diárias e um ano de
dados pode fornecer centenas de observações, no risco de crédito, pela própria
natureza dos fenômenos observados, é necessário utilizar períodos maiores, o
147
que reduz drasticamente o número de observações empíricas para a realização
de testes.
Para avaliar o poder de previsão de modelos de risco de portfólio de crédito,
encontramos na literatura dois testes estatísticos:
• Testes de percentis (Lopez e Saidenberg, 2000);
• Teste da distribuição (Berkowitz, 2001).
Ambos os testes são passíveis de algumas críticas. O primeiro deles por adotar
uma premissa não realista de independência entre amostras geradas por um
processo de re-amostragem (Frerichs e Löffler, 2002). Frerichs e Löffler
afirmam que este teste apresenta viés para a rejeição dos modelos. A
avaliação realizada por eles mostrou que a aplicação do teste de Lopez e
Saindenberg em dados gerados por um determinado modelo rejeitou o próprio
modelo que gerou os dados em 74% a 90% das vezes, dependendo das
condições do tamanho das subamostras utilizadas. Dado este resultado,
optamos por não utilizar este teste no modelo desenvolvido.
O teste de Berkowitz pode ser questionado por avaliar a distribuição completa
de perda. Assim, podem ocorrer situações em que o teste fornece um resultado
positivo para a distribuição indicando que ela é adequada mesmo havendo
divergências na cauda superior. Estas divergências podem não afetar de forma
significativa a avaliação global da distribuição, mas serem relevantes na
determinação de percentis extremos da distribuição.
A importância da avaliação de percentis superiores na distribuição de perdas
se deve ao fato de que a gestão de risco da carteira está fortemente ligada a
cauda superior da distribuição, onde ocorrem as grandes perdas. As principais
aplicações de modelos de risco de portfólio de crédito, como determinação de
capital econômico e default VAR, envolvem a estimativa de percentis
superiores da distribuição de perdas. Apesar do teste de Berkowitz avaliar toda
a distribuição de perdas e não se concentrar apenas nas caudas superiores,
consideramos que ele é a melhor opção de teste presente na literatura e o
utilizamos para a avaliação do modelo desenvolvido nesta Tese.
148
9.4.1 - Teste de Berkowitz (2001)
No teste proposto por Berkowitz (2001), a série histórica de perdas da carteira
é transformada de maneira a obter uma variável que segue a distribuição
normal padrão. A função de distribuição acumulada estimada para perda de
crédito, )(F̂ ⋅ , obtida pelo modelo de risco de portfólio, é aplicada sobre os
dados observados de perda:
�∞−
==ty
tt du)u(f̂)y(F̂x Eq. 9-1
onde:
• yt são perdas observadas;
• )(F̂ ⋅ é a função de distribuição acumulada estimada para perda de
crédito;
• )u(f̂ é a probabilidade prevista para uma perda de valor u.
Em termos práticos, a integral acima é calculada para uma distribuição obtida
por simulação através de:
número de valores simulados de perda abaixo de yt número total de valores simulados de perda
Se a distribuição de perda estimada pelo modelo for igual à distribuição
verdadeira de perdas, as variáveis transformadas xt seguem a distribuição
uniforme entre 0 e 1 e é independente e identicamente distribuída.
Utilizando a função normal inversa sobre a variável xt chega-se a uma nova
variável transformada zt.
)x(z t1
t−Φ= Eq. 9-2
149
Se a distribuição estimada estiver correta a variável zt é independente e
identicamente distribuída com distribuição normal padrão. Para testar se a série
de zt é N(0,1) é utilizado um teste de razão de verossimilhança:
( ) ( )[ ]1,0Llogˆ,ˆLlog2LR 222 =σ=µ−σ=σµ=µ= Eq. 9-3
onde:
• ( )
�= σ
µ−−σ−π−=σµ
T
1t2
t2
2
z)log(
2T
)2log(2T
),(Llog
• T é o número de períodos;
• T
z
ˆ
T
1tt�
==µ
•
( )
T
z
ˆ
T
1t
2t
2�
=
µ−
=σ
• LR possui distribuição 2)2(χ .
O teste acima é uma versão do teste original de Berkowitz (2001) que não
inclui o teste de autocorrelação nula. Este teste foi utilizado por Frerchs e
Löffler (2002). Simulações realizadas por Frerchs e Löffler (2002) indicaram
que, utilizando o teste de Berkowitz, é possível identificar problemas em
modelos de risco de crédito com até dez observações.
Berkowitz (2001) admite que o teste pode não ser adequado se alguém está
interessado apenas na cauda da distribuição, não se importando se ocorrerem
divergências em relação à distribuição real no centro da distribuição. Ele
propõe a realização do teste utilizando dados truncados para avaliar apenas a
cauda da distribuição. Entretanto, este procedimento não é útil se houverem
poucas observações para o teste, pois pode não haver observações suficientes
150
na cauda. Esta situação ocorre nesta Tese, o que não permitiu a utilização
desta variante do teste de Berkowitz.
A Tabela 9-2 apresenta o percentual de casos onde a hipótese nula de que a
variável transformada zt é N(0,1) foi rejeitada para portfólios considerando e
não considerando exposições em default e com o MPCC utilizando cópula
normal e Student com 2 graus de liberdade. O teste foi avaliado com 5% e 1%
de nível de significância.
Tabela 9-2 – Resultados do teste de Berkowitz (2001)
Portfólios onde a hipótese
nula é rejeitada Considera
exposições em
default
Função de Cópula Nível de
Significância # %
Sim Normal 5% 4 0,13%
Sim Student-2 5% 2 0,07%
Sim Normal 1% 0 0%
Sim Student-2 1% 0 0%
Não Normal 5% 25 0,83%
Não Student-2 5% 0 0%
Não Normal 1% 0 0%
Não Student-2 1% 0 0%
Os resultados indicaram que em geral o MPCC representa adequadamente a
distribuição de perdas da carteira. Para todas as opções analisadas a hipótese
nula do teste não é rejeitada em nenhum portfólio ao nível de 1% de
significância. Utilizando o nível de significância de 5% a rejeição máxima foi
0,83% dos portfólios analisados quando se utiliza a cópula normal nos 3.000
portfólios sem exposições em default.
151
9.5 - Perfil das distribuições obtidas
Para obter uma visão gráfica das distribuições obtidas foram formados dois
grandes portfólios, considerando e não considerando exposições de operações
em estado de default. Estes portfólios englobaram todos os elementos de
exposição presentes na base de dados utilizada.
Para obter a distribuição empírica de perda foram utilizados 6 mil subportfólios
obtidos por subamostragem sobre a base de dados completa (3 mil
considerando e 3 mil não considerando exposições de operações em default).
Esses foram os mesmos portfólios utilizados na realização dos testes
anteriormente descritos. Cada portfólio contribuiu com 37 observações,
totalizando 111 mil observações empíricas de perda considerando exposições
de operações em default e 111 mil observações empíricas de perda não
considerando exposições de operações em default, cujas distribuições são
apresentadas graficamente nas Figuras 9.3 a 9.8 que também mostram
resultados da aplicação do MPCC com função de cópula normal e Student com
2 graus de liberdade.
Figura 9-3 – Distribuições de perda empírica e simulada com cópula
normal – não considerando exposições de operações em default.
MPCC (Normal) x Dados empíricos
0
0,2
0,4
0,6
0,8
1
1,2
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5
Perda de Crédito (%)
f.d.p.
Empírica
MPCC
152
Figura 9-4 – Distribuições de perda empírica e simulada com cópula
Student-2 – não considerando exposições de operações em default.
MPCC (Student-2) x Dados empíricos
0
0,2
0,4
0,6
0,8
1
1,2
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5
Perda de crédito (%)
f.d.p.
Empírica
MPCC
Figura 9-5 – Distribuições simuladas com cópulas normal e Student-2 –
não considerando exposições de operações em default.
MPCC (Normal) x MPCC (Student-2)
0
0,2
0,4
0,6
0,8
1
1,2
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5
Perda de crédito (%)
f.d.p.
Cóp. Normal
Cóp. Student-2
153
Figura 9-6 – Distribuições de perda empírica e simulada com cópula
normal – considerando exposições de operações em default.
MPCC (Normal) x Dados Empíricos
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
2,0 4,0 6,0 8,0 10,0 12,0 14,0
Perda de crédito (%)
f.d.p.
Empírica
MPCC
Figura 9-7 – Distribuições de perda empírica e simulada com cópula
Student-2 – considerando exposições de operações em default.
MPCC (Student-2) x Dados empíricos
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
2,0 4,0 6,0 8,0 10,0 12,0 14,0
Perda de crédito
f.d.p.
Empírica
MPCC
154
Figura 9-8 – Distribuições simuladas com cópulas normal e Student-2 –
considerando exposições de operações em default.
MPCC (Normal) x MPCC (Student-2)
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
2,0 4,0 6,0 8,0 10,0 12,0 14,0
Perda de crédito (%)
f.d.p.
Cóp. Student-2
Cóp. Normal
Analisando os gráficos anteriores apresentados podemos verificar dois pontos:
• O resultado de ajuste da distribuição empírica foi visivelmente melhor
nos portfólios que não consideram exposições em default.
• Graficamente não é possível afirmar se há diferença significativa ao
utilizar o MPCC com cópula normal ou Student-2. Visualmente as duas
distribuições obtidas são muito semelhantes, principalmente na cauda
superior.
155
9.6 - Aplicação em carteiras pequenas e comparação empírica com o
modelo CreditRisk+
Visando avaliar o resultado da aplicação do MPCC em carteiras pequenas, o
procedimento de aplicação do modelo foi repetido com um conjunto de dados
menos volumoso. Para esta avaliação utilizamos 2 mil portfólios aleatoriamente
formados, seguindo o mesmo padrão descrito nas seções anteriores, com
1.000 portfólios considerando exposições de operações em estado de default e
1.000 não considerando estas exposições. Estes portfólios possuíam 50 mil
elementos de exposição cada um. Os elementos de exposição (parcelas de
operações de crédito) estavam distribuídos ao longo dos 37 períodos utilizados
nesta Tese, com uma média de 1351 elementos de exposição por mês. Isto
equivale a uma carteira com 1351 operações ativas, o que pode ser
considerada uma carteira bastante pequena.
Utilizando este mesmo conjunto de dados, fizemos também a aplicação do
modelo CreditRisk+ (CSFP, 1997) para comparação com o MPCC. Por
questões de simplicidade, foi utilizada a versão do CreditRisk+ que utiliza um
único fator de risco. Na aplicação do modelo foi adotado como conceito de
default a efetivação da perda. Utilizando este conceito, não precisamos ajustar
as exposições da carteira para considerar a expectativa de recuperação. A
unidade ou banda de valor utilizada no processo de discretização do
Creditrisk+ foi arbitrariamente estabelecida em R$25. Os parâmetros de
entrada do modelo (taxa e volatilidade de default) foram obtidos historicamente
para cada classe de risco a partir da base de dados utilizada. A definição das
classes de risco foi feita com base no modelo de classificação de risco descrito
no Capítulo 6.
A Tabela 9-3 apresenta os resultados obtidos para o teste e Berkowitz (2001)
na aplicação do CreditRisk+ e do MPCC utilizando cópula Student-2. Em
relação aos resultados obtidos nas seções anteriores, percebemos uma
deterioração na performance de previsão da distribuição de perdas nestes
portfólios menores. Notadamente, os resultados para o CreditRisk+ foram muito
156
desfavoráveis. Os resultados indicam que a acurácia dos resultados do MPCC
pode ser sensível ao tamanho da carteira.
No teste de Berkowitz (2001) verificamos em quase todos os portfólios onde foi
aplicado o CreditRisk+ que a hipótese nula do teste foi rejeitada, indicando que
a distribuição fornecida pelo CreditRisk+ não corresponde à distribuição real de
perda da carteira. Para o MPCC obtivemos melhores resultados nos portfólios
sem considerar exposições em default, apesar da hipótese nula ter sido
rejeitada em uma proporção relativamente grande dos portfólios analisados.
Nos demais portfólios a performance do MPCC foi semelhante a do
CreditRisk+.
Tabela 9-3 – Teste de Berkowitz para o modelo CreditRisk+
Portfólios onde a hipótese
nula é rejeitada
Considera
exposições em
default Modelo
Nível de
Confiança # %
Sim CreditRisk+ 95% 1.000 100%
Sim MPCC 95% 996 99,6%
Sim CreditRisk+ 99% 1.000 100%
Sim MPCC 99% 1.000 100%
Não CreditRisk+ 95% 1.000 100%
Não MPCC 95% 287 28,7%
Não CreditRisk+ 99% 991 99,1%
Não MPCC 99% 142 14,2%
Para obter uma visão gráfica, as Figuras 9-9 e 9-10 apresentam o resultado da
aplicação do Creditrisk+ e a distribuição empírica obtida para os dois portfólios
descritos no item 9-5. Podemos verificar que a distribuição resultante do
CreditRisk+ realmente é muito divergente da distribuição empírica de perda de
crédito. Entretanto, parece haver uma convergência na cauda superior, onde
reside nosso maior interesse.
157
Figura 9-9 – Distribuições de perda empírica e produzida pelo CreditRisk+
– considerando exposições de operações em default.
Credit Risk+ x Dados Empíricos
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
0,5
2,0 4,0 6,0 8,0 10,0 12,0 14,0
Perda de crédito (%)
f.d.p.
CR+
Empírica
Figura 9-10 – Distribuições de perda empírica e produzida pelo
CreditRisk+ – não considerando exposições de operações em default.
CreditRisk+ x Dados empíricos
0
0,2
0,4
0,6
0,8
1
1,2
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5
Perda de crédito (%)
f.d.p.
Empírica
CR+
158
10 - CONCLUSÕES E SUGESTÕES PARA PESQUISA
O modelo MPCC apresentado neste trabalho traz como principais
contribuições:
- Proposição de uma metodologia para previsão de distribuições de perda em
carteiras de crédito ao consumidor utilizando dados disponíveis no mercado
brasileiro.
- Proposição de uma metodologia para tratamento das relações de
dependência entre perda de crédito em diferentes segmentos de uma
carteira de crédito. A metodologia proposta pode ser utilizada em outros
modelos ou aplicações além do próprio MPCC.
Ressaltamos ainda que este trabalho foi a primeira aplicação de funções de
cópula e técnicas de reamostragem em risco de portfólio de crédito no Brasil.
O modelo apresentado nesta Tese é um passo importante no sentido de uma
melhor gestão do risco de crédito em carteiras de crédito ao consumidor e abre
possibilidades de aplicações antes apenas acessíveis para carteiras de crédito
corporativo. O MPCC é perfeitamente ajustado à disponibilidade de dados do
mercado brasileiro necessitando apenas de informações cadastrais e de
características e performance de pagamento de operações de crédito. Essas
informações atualmente já são amplamente utilizadas por instituições
financeiras no Brasil para desenvolvimento de credit e behaviour scores.
O modelo foi desenvolvido utilizando informações de bureau de crédito, mas
pode ser inteiramente aplicado em uma instituição financeira que possua uma
grande carteira de crédito ao consumidor. A existência de uma base de dados
grande é a maior restrição à aplicação do MPCC, já que os métodos propostos
de segmentação e ajuste de distribuições precisam de uma quantidade
expressiva de dados para sua aplicação. Entretanto, instituições com carteiras
muito pequenas podem utilizar o MPCC com alguns de seus estágios
159
desenvolvidos a partir de um banco de dados de um bureau de crédito que
agregue informações de diversas instituições.
Resultados obtidos no teste de Berkowitz (2001) apresentados na seção 9.4
revelam que o MPCC modela adequadamente distribuições de perda em
crédito ao consumidor no mercado brasileiro. Apesar dos resultados positivos
no teste de Berkowitz, verificamos pela análise gráfica das Figuras 9-6 e 9-7
que o ajuste da cauda superior quando consideramos exposições de
operações em default é deficiente. Duas possíveis alternativas que podem ser
exploradas em pesquisas futuras para melhorar o ajuste da cauda superior
nestes casos são:
• Modelar estas exposições exogenamente, de maneira determinística
utilizando uma taxa média de recuperação para operações em default ou
estocasticamente, simulando possíveis realizados de recuperação de
acordo com uma distribuição pré-determinada.
• Melhorar o ajuste de distribuições de perda dos segmentos da carteira
que concentrem exposições de operações em default. Além de testar
novas classes de distribuições, pode-se testar a utilização da
distribuição empírica através de simulação histórica e não paramétrica.
Apesar do MPCC ser uma abordagem flexível, possibilitando a utilização de
diferentes distribuições para modelar a perda de crédito nos diferentes
segmentos da carteira, verificou-se a superioridade das distribuições de
Johnson na grande maioria dos casos analisados. Desta forma, se a fase de
seleção de distribuições para cada segmento da carteira for suprimida,
adotando-se distribuições de Johnson para todos os segmentos, não haverá
perda significativa na performance do modelo.
A análise gráfica apresentada na seção 9.5 permite confirmar visualmente que
o ajuste da distribuição de perda de uma carteira pelo MPCC é satisfatória em
portfólios sem exposições de operações de crédito em default. Outro ponto
revelado na análise gráfica da seção 9.5 é a semelhança dos ajustes
realizados utilizando as funções de cópula normal e Student-2, principalmente
160
na cauda superior das distribuições. Esta semelhança se nota tanto para os
portfólios com como nos sem exposições em default. Entretanto, verificamos
que o teste de Berkowitz apresentou resultados ligeiramente melhores para o
MPCC quando foi utilizada a função de cópula de Student com 2 graus de
liberdade.
O teste de Berkowitz (2001) aplicado aos portfólios com 50 mil elementos de
exposição utilizados na comparação entre o MPCC e o modelo CreditRisk+
mostrou uma deterioração geral em relação aos resultados obtidos nos
portfólios de 300 mil elementos de exposição. Este fato levanta a hipótese de
que a performance da aplicação do MPCC ou os testes aplicados sejam
sensíveis ao tamanho do portfólio. Outra possibilidade é que o processo de
subamostragem utilizado seja inadequado com um menor tamanho de sub-
portfólios. Não obtivemos uma conclusão definitiva sobre esta questão, uma
possível extensão do trabalho apresentado seria a realização de trabalho
empírico adicional para testar as diversas hipóteses levantadas e verificar a
sensibilidade dos resultados em relação ao tamanho dos portfólios.
Ainda assim foi possível verificar superioridade dos resultados do MPCC em
relação aos do CreditRisk+ na maioria dos testes realizados. A análise gráfica
realizada para o CreditRisk+ nos mostra que a distribuição fornecida pelo
CreditRisk+ é no geral bastante divergente em relação à distribuição empírica.
Entretanto, nota-se uma curiosa convergência entre a distribuição empírica e o
CreditRisk+ na cauda superior. Não podemos encontrar nenhuma referência
bibliográfica que indique uma explicação teórica ou outra evidência empírica
deste tipo de convergência. Também não podemos afirmar que este fenômeno
possa ser generalizado para qualquer portfólio.
Uma das principais virtudes do modelo CreditRisk+ é sua solução analítica que
possibilita gerar a distribuição de perda da carteira com rapidez. Entretanto,
verificamos que o tempo necessário para aplicação da fórmula de recorrência
utilizada pelo CreditRisk+ é sensível ao tamanho do portfólio e, para uma
carteira de milhões de exposições, é bastante significativo. Por outro lado, o
tempo de aplicação do MPCC é pouco sensível ao número de exposições o
161
que torna sua aplicação em grandes portfólios mais rápida que a do
CreditRisk+.
Todo o trabalho apresentado nesta Tese utilizou como período de avaliação um
mês. Todavia uma instituição financeira pode desejar trabalhar com um
horizonte de avaliação maior. Duas alternativas são possíveis para estender o
período de avaliação para mais de um mês:
• Estimar todos os parâmetros do modelo utilizando uma definição de
período mais longa.
• Aplicar o modelo com horizonte de um mês consecutivamente até o
horizonte de previsão desejado.
A primeira alternativa apresenta como desvantagem a necessidade de utilizar
um histórico mais longo de dados para o processo de estimação de
parâmetros, o que pode não estar disponível em uma instituição financeira. Se,
por exemplo, utilizarmos 36 períodos para estimar o modelo, em base mensal
utilizaríamos um histórico de 3 anos. Por outro lado, em utilizando um período
de 6 meses, seria necessário um histórico 18 anos.
A segunda alternativa não demanda um histórico mais longo, mas exige a
realização de um processo de simulação mais complexo. A simulação precisa
utilizar uma matriz de migração entre os segmentos da carteira, que deve ser
estimada empiricamente. O processo funcionaria da seguinte forma:
1. Realização da simulação de perda no primeiro mês.
2. Simulação da migração das exposições utilizando a matriz de migração
dos segmentos da carteira.
3. Realização da simulação no segundo mês.
4. Repetição do processo até o período de previsão desejado.
5. Consolidação dos resultados de perda em cada mês para obter a
distribuição de perda no período desejado.
162
A pesquisa e utilização de modelos de risco de portfólio em carteiras de crédito
ao consumidor ainda são insipientes e existem diversas oportunidades de
pesquisas adicionais, como por exemplo:
• Teste da abordagem apresentada em carteiras de crédito rotativo.
• Avaliação de outros tipos de função de cópula, principalmente as que
permitem dependência assimétrica, ou seja, a ocorrência de diferentes
graus de dependência nas caudas inferior e superior.
Por fim gostaríamos de ressaltar que o modelo proposto também pode ser
aplicado para carteiras de crédito a empresas. O MPCC pode ser uma
alternativa viável de avaliação da distribuição de perdas em carteiras de crédito
a micro e pequenas empresas, onde muitas vezes não é possível a obtenção
das informações necessárias para a aplicação de outros modelos.
163
11 - REFERÊNCIAS BIBLIOGRÁFICAS
Altman, E. I. (1968). Finantial Ratios, Discriminant Analysis and the Prediction
of Corporate Bankruptcy. Journal of Finance, 23, 189-209.
Altman, E. I. (1988). Default risk, mortality rates, and the performance of
corporate bonds. Research Foundation, Institute of Chatered Financial
Analysts, Charlottesville, VA.
Altman, E. I. (1989). Measuring corporate bond mortality and performance,
Journal of Finance, September, 909-922.
Altman, E. I. (1996). Corporate bond and commercial loan portfolio analysis.
Working paper. The Wharton School.
Altman, E. I., Hartzell, J., & Peck, M. (1995). A scoring system for emerging
market corporate debt. Salomon Brothers.
Anderson T. W., & Darling, D. A. (1952). Asymptotic Theory of Certain
Goodness of Fit Criteria Based on Stochastic Processes. Annals of
Mathmatical Statistics, 23, 193-212.
Andrade, F. W. M. (2003). Geração de intervalos de confiança para relatórios
de monitoramento de scoring. Tecnologia de Crédito, 36, 31-40.
Bakshi, G., Madan D., & Zhang, F. (2001). Recovery in default risk modeling:
theoretical foundations and empirical application. Working paper. FEDS
2001-37.
Basle Commitee on Banking Supervision (1998), Sound practices for loan
accounting, credit risk disclosure and related matters. Basel Commitee
Publication 43. Bank for International Settlements.
Basle Commitee on Banking Supervision (1999), Credit Risk Modelling: Current
Practices and Applications. Basel Commitee Publication 49. Bank for
International Settlements.
164
Basle Commitee on Banking Supervision (2001), The internal ratings-based
approach: supporting document to the new Basel Capital Accord. Bank
for International Settlements.
Balzarotti, V., Falkenheim, M., & Powell A. (2002). On the use od portfolio risk
models and capital requirements in emerging markets: the case of
Argentina. The World Bank Economic Review, 16(2), 197-212.
Bennet, P. (1984). Applying portfolio theory to global bank lending. Journal of
Banking and Finance, 8, 153-169.
Berkowitz, J. (2001). Test density forecasts with application to risk
management. Journal of Business & Economic Statistics, 19, 465-474.
Bernstein, P. L. (1997). Desafio aos deuses: a fascinante história do risco. 2ª
edição. Rio de Janeiro: Campus.
Bielecki, T. R., & Rutkowski, M. (2002). Credit Risk: modeling, valuation and
hedging. Berlin: Springer-Verlag.
Black, F., & Scholes, M. (1973). The pricing of options and corporate liabilities.
Journal of Political Economy, 81, 637-654.
Bluhm, C., Overbeck, L., & Wagner, C. (2003). An introduction to credit risk
modeling. Boca Raton: CRC Press LLC.
Borges, Olavo (2001). Rating de Crédito: Considerações sobre os modelos.
Tecnologia de Crédito, 24, 14-27.
Carey, Mark (1998). Credit Risk in Private Debt Portfolios. Journal of Finance,
53 (4), 1363-1388.
Carneiro, Fábio C. (2002). Modelagem de Risco de Crédito de Portfólio:
Implicações para a regulamentação sobre requerimento de capital de
instituições financeiras. Dissertação de Mestrado. FGV/Escola de
Administração de Empresas de São Paulo, São Paulo.
165
Caouette, J. B., Altman, E. I., & Narayanan, P. (1999). Gestão do Risco de
Crédito: o próximo grande desafio. Rio de Janeiro: Qualitymark.
Crouhy, Michel, Galai, D., & Mark, R. (2001). Risk Management. New York:
McGraw-Hill.
Chirinko, R.S., & Guill, G. D. (1991). A framework for assessing credit risk in
depository institutions: toward regulatory reform. Journal of Banking and
Finance, 15, 785-804.
Crouhy, M., Galai, D., Mark, R. (2000). A comparative Analysis of current Credit
Risk Models. Journal of Banking and Finance, 24, 59-117.
Credit Suisse Financial Products (1997). CreditRisk+. A Credit Risk
Management Framework.
D’Agostino, R. B., & Stephen, M. A. (Editors) (1986). Goodness-of-fit
techniques. Marcel Dekker, Inc.
Das, S. R., & Geng G. (2002). Modeling The Processes of Correlated Default.
Working Paper. Disponível em: <www.defaultrisk.com/ pp_corr_31.htm>.
Acesso em: 31 Mar. 2003.
Dillon, W. R., & Goldstein, M. (1984). Multivariate Analysis: Methods and
Applications. New York: John Wiley & Sons.
Dudewicz, E. J., & Karian, Z. A. (1996). The Extended Generalized Lambda
Distribution (EGLD) System for Fitting Distributions to Data with
Moments, American Journal of Mathematical and Management Sciences,
19, 1-73.
Duffie, D., & Singleton, K. J. (1999). Modeling term structures of defaultable
bonds. Review of Financial Studies, 12, 687-720.
Eales, R., & Bosworth, E. (1998). Severity of loss in the event of default in small
business and larger consumer loans. Journal of Lending and Credit
Management, May, 58-95.
166
Efron, B. (1979). Bootstrap methods: another look at the jackknife. Annals of
Statistics, 7, 1-26.
Efron, B., & Tibshirani, R. J. (1993). An introduction to the Bootstrap. Boca
Raton:Chapman &Hall.
Embrechts, P. Mcneil, A., & Straumann, D. (1999). Correlation and Dependence
in Risk Management: Properties and Pitfalls. In: Dempster M. (Ed.) Risk
Management: Value at Risk and Beyond. Cambridge: Cambridge
University Press.
Erlenmaier, U. (2001). Models of Joint Defaults in Credit Risk Management: An
Assessment. Working Paper. Disponível em: <www.defaultrisk.com
/pp_corr_23.htm> . Acesso em: 31 Mar. 2003.
Evans, M., Hastings, N., & Peacock, B. (1993). Statistical Distributions, New
York, NY: John Wiley & Sons, Inc.
Ferreira, A. B. H. (1986). Novo dicionário da Língua Portuguesa. 2ª ed. Rio de
Janeiro: Nova Fronteira.
Fons, J. S. (1994). Using default rates to model the term structure of credit risk.
Financial Analyst Journal, Sept/Oct, 25-32.
Frerich, H., & Löffler, G. (2002). Evaluating credit risk models using loss density
forecasts. Journal of Risk, v. 5(4).
Frey, R., Macneil, A. J., & Nyfeler, M. A. (2001). Copulas and Credit Models.
Risk, October 2001, 111-114.
Gentle, J. E. (1998). Cholesky Factorization. In: Numerical Linear Algebra for
Applications in Statistics. Berlim: Springer-Verlag.
Giesecke, Kay (2002). Credit risk modeling and valuation: an introduction.
Working paper.
Giese, G. (2002). Enhancing CreditRisk+. Working paper.
167
Giles, D. E. A. (2000). A saddlepoint approximation to the distribution function of
the Anderson-Darling test statistic. Econometrics Working Paper EWP
0005. University of Victoria.
Gollinger, T. L., & Morgan, J. B. (1993). Calculation of an efficient frontier for a
commercial loan portfolio. The Journal of Portfolio Management, winter
1993, 39-46.
Gordy, M. B. (2000). A Comparative Anatomy of Credit Risk Models. Journal of
Banking and Finance, 24(1-2), 119-149.
Gordy, M. B. (2002). Saddlepoint approximation of CreditRisk+. Journal of
Banking and Finance, 26(7), 1337-1355.
Gupton, G. M., Finger, C. C., & Bhatia, M. (1997). Credit Metrics. Technical
Report. New York: J. P. Morgan & Company.
Gupton, G. M., Gates, D., & Carty, L. V. (2000). Bank loan loss given default.
Moody’s Investor Service.
Gupton, G. M., & Stein, R. M. (2002). LossCalc™: Moody’s Model for Predicting
Loss Given Default (LGD). Moody´s Investor Service.
Hurt, L., & Felsovalyi, A. (1998). Measuring loss on latin-american defaulted
bank loans. Citybank.
Hosmer, D. W., & Lemeshow, S. (2000). Applied Logistic Regression. New
York: John Wiley & Sons.
Jacobson, T. , & Rozbach, K. (2003). Bank lending policy, credit scoring and
value-at-risk. Journal of Banking & Finance, 27, 616-633.
Jarrow, R. A. (2000). An introduction to Kamakura credit risk modeling.
Kamakura Corporation.
Jarrow, R. A. (2001). Default parameter estimation using market prices.
Financial Analyst Journal, September/October.
168
Jarrow, R. A., & Turnbull, S. (1995). Pricing derivatives on financial securities
subject to credit risk. Journal of Finance, 50, pp. 53-86.
Jarrow, R. A., Lando, A., & Turnbull, S. (1997). A Markov model of the term
structure of credit risk spreads. Review of Financial Studies, 10(2), 481-
523.
Jarrow, R. A., & van Deventer, D. (1998a). Integrating interest rate risk and
credit risk in asset and liability management. Risk publications.
Jarrow, R. A., & van Deventer, D. (1998b). Practical use of credit risk models in
loan and portfolio management. In: Credit Risk: Models and
Management. Risk publications.
Johnson, N. L. (1949). Bivariate distributions based on simple translation
systems. Biometrika, 36, 297-304.
Karian, Z. A., & Dudewicz E. J. (2000). Fitting statistical distributions. Boca
Raton, Florida: CRC Press.
Kern, M., & Rudolph B. (2001). Comparative analysis of alternative credit risk
models: na application on German middle market loan portfolios.
Working paper. University of Frankfurt, Center for Financial Studies.
KMV Corporation (1993). Modeling default risk. São Francisco: KMV
Corporation.
KMV Corporation (1993). Portfolio management of default risk. São Francisco:
KMV Corporation.
Knight, F. H. (1965). Risk, Uncertainty and Profit. New York : Harper, 1965
Koyluoglu, H. U., & Hickman, A. (1998). A generalized framework for credit risk
portfolio models. Working paper.
Koyluoglu, H. U., Bangia, A., & Garside, T. (1999). Devil in the parameters.
Working paper.
169
Markowitz, H. M. (1952). Portfolio selection. The Journal of Finance. 7(1), 77-
91.
Machina, M.J. and Rotschild, M. (1992), Risk. In: Newman, P., Milgate, M., and
Eatwell, J. (eds.), The New Palgrave Dictionary of Money and Finance,
358-363, London: Macmillan.
Mays, E. (Editor) (1998). Credit risk modeling: design and application. Glenlake
Publishing Company, Ltd.
Lewis, E. M. (1992). An introduction to credit scoring. 2nd edition. Fair Isaac and
Co., Inc..
Lindskog, F. (2000). Modelling dependences with copulas and applications to
risk management. Working Paper. Disponível em:
<www.risklab.ch/Papers.html#MTLindskog>. Acesso em: 31 Mar. 2003.
Lopez, J. A., & Saidenberg, M. R. (1999). Evaluating credit risk models. Journal
of Banking and Finance, 24, 151-165.
MacQuenn, J. B. (1967). Some methods for classification and analysis of
multivariate observations. Proceedings of 5th Berkeley Symposium on
Mathmatical Statistics and Probability, 1, Berkeley, CA: University of
California Press.
Merton, Robert C. (1974). On the pricing of corporate debt: the risk structure of
interest rates. Journal of Finance, 29, 449-470.
Nelsen, R. B. (1999). An introduction to copulas. New York: Springer.
Nickel, P., Perraudin, W., & Varotto, S. (2001). Rating versus equity-based
credit risk modeling: an empirical analisys. Working paper. Bank of
England.
Nyfeler, M. A. (2000). Modeling dependencies in credit risk management. PhD
Thesis. Swiss Federal Institute of Technology, Zurich.
170
Oliveira, J. G. C., & Andrade, F. W. M. (2002). Comparação entre medidas de
performance de modelos de credit scoring. Tecnologia de Crédito, 33,
35-47.
Panjer, H. H. (1981). Recursive Evaluation of a Family of Compound
Distributions. ASTIN Bulletin, 12, 22-26.
Prado, R. G. A., Bastos, N. T., & Duarte, A. M. (2000). Gerenciamento de riscos
de crédito em bancos de varejo no Brasil. Tecnologia de Crédito, 19, 7-
30.
Politis, D. N., Romano, J. P., & Wolf, M. (2001). On the asymptotic theory of
subsampling. Statistica Sinica, 11, 1105-1124.
Ramberg, J. S., & Schmeiser, B. W. (1972). An approximate method for
generatining symmetric random variables, Comm. ACM, 15, 987-990.
Ramberg, J. S., & Schmeiser, B. W. (1974). An approximate method for
generating asymmetric random variables, Comm. ACM, 17, 78-82.
RMA (1999) The customer value imperative, creating shareholder value though
consumer credit portfolio management: an industry best practices report.
Philadelphia: RMA and Oliver, Wyman & Company, LLC.
Romano C. (2001). Applying copula function to risk management. Working
paper. Disponível em: < www.icer.it/workshop/Romano.pdf>. Acesso em:
31 Mar. 2003.
Rosa, F. (1992). Sistemas especialistas para a analise de risco de concessão
de credito bancário: uma perspectiva de planejamento estratégico. Tese
de Doutorado. FGV/Escola de Administração de Empresas de São
Paulo, São Paulo.
Rothschild, M. (1988). Risk. In Eatwell, J., Milgate, M., & Newman P. (Eds.).
The New Palgrave: A Dictionary of Economics, Macmillan.
Sarig, O., & Warga, A. (1989). Some empirical estimates of the risk structure of
interest rates. Journal of Finance, 44, 1351-1360.
171
SAS Institute (1990). SAS/STAT User´s guide, version 6, fourth edition. Cary:
SAS Institute Inc.
Sassatani, R. (1999). Uma análise empírica do preço da incerteza nos
contratos futuros de índice Bovespa da BM&F. Dissertação de mestrado.
Departamento de Administração da Faculdade de Economia,
Administração e Contabilidade da Universidade de São Paulo, São
Paulo.
Saunders, A. (1999). Medindo o risco de crédito. Rio de Janeiro: Qualimark.
Schechtman, R., Koyama, S. M., & Garcia, V. S. (2003). Credit risk
measurement and the regulation of bankcapital and provision
requirements in Brazil. Working paper. Banco Central do Brasil.
Schönbucher, P. J. (2000). Factor Models for Portfolio Credit Risk. Working
paper. Bonn University.
Schuermann, T. (2003). What do we know about loss-given-default. Working
paper. Federal Reserve Bank of New York.
Sicsú, A. L. (1998). Desenvolvimento de um sistema de credit scoring – Parte I.
Tecnologia de Crédito, 4, 63-76.
Sicsú, A. L. (1998). Desenvolvimento de um sistema de credit scoring – Parte
II, Tecnologia de Crédito, 5, 57-68.
Siqueira, J. O. (2000). Risco: da Filosofia à Administração. Convenit Selecta, 3,
Editora Mandruvá. http://www.hottopos.com/convenit3/josiq.htm
Slifker, J. F., & Shapiro, S. S. (1980). The Johnson system: selection and
parameter estimation. Technometrics, 22, 239 -246.
Smith, P. F. (1964). Measuring risk on consumer installment credit.
Management Science, 11 (2), 327-340.
Smithson, C. (2003). Credit portfolio management. Hoboken: John Wiley.
172
Steiner Neto, P. J. (1998). A percepção dos resultados esperados pelos
beneficiários como fator de influência no processo decisório. Tese de
doutorado. Departamento de Administração da Faculdade de Economia,
Administração e Contabilidade da USP, São Paulo.
Thomas, L. C., Edelman, D. B., & Crook, J. N. (2002). Credit scoring and its
applications. Philadelphia: SIAM.
Unal, H., Madan, D., Guntay, L. (2001). Pricing the risk of recovery in default
with APL violations. Working paper 01-07. Wharton Financial Institute
Center.
Vose, D. (1996). Quantitative risk analysis: a guide to Monte Carlo simulation
modeling. Chichester: John Wiley.
Weber, R. O. (1993). Sistema especialista difuso para análise de crédito.
Dissertação de Mestrado. Programa de pós-graduação em engenharia
de produção. Universidade Federal de Santa Catarina, Florianópolis.
Wilson, T. C. (1997). Measuring and managing credit risk portfolio: Part I:
modeling systemic default risk. Risk, 10 (9).
Wilson, T. C. (1997). Measuring and managing credit risk portfolio: Part II:
portfolio loss distributions. Risk ,10 (10).
Zhou, C. (1997). A jump-diffusion approach to modeling credit risk and valuing
defaultable securities. Working paper.
173
ANEXO A – Distribuições Estatísticas Testadas
F(x) é a função de distribuição acumulada e f(x) é a função de densidade de
probabilidade.
Beta generalizada(αααα1, αααα2, , Min, Max)
( ) ( )( )( )
( )( ) min-max
min-xz com
,B,B
)x(F
minmax,B
xmaxminx)x(f
21
21z
12121
1211
=αααα
=
−αα
−−=−α+α
−α−α
onde B é a função Beta e Bz é a função Beta Incompleta, Min e Max são os
limites inferior e superior (Max > Min); α1 e α2 são parâmetros de forma (α1 > 0
e α2 > 0).
Domínio: Min ≤ x ≤ Max
Figura A-1 – Exemplo de distribuição Beta Generalizada
Beta Generalizada(1,5; 5; 0; 5)
0
0,1
0,2
0,3
0,4
0,5
0,6
-1 0 1 2 3 4 5 6
x
fd
p
174
Rayleight(b)
2
bx
212
bx
21
2e1)x(F e
b
x)x(f
�
���
�− �
���
�−−==
Onde b é um parâmetro de escala da distribuição (b>0).
Domínio: x ≥ 0
Figura A-2 – Exemplo de distribuição Rayleigh
Rayleigh(1)
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
-0,5 0 0,5 1 1,5 2 2,5 3 3,5
x
fd
p
175
Gaussiana Inversa(µµµµ, λλλλ)
( )
���
�
���
�
�
����
� +µ
λ−Φ+���
�
���
�
�
����
� −µ
λΦ=π
λ= µλ��
�
�
��
�
�
µ
µ−λ−
1x
xe1
xx
F(x) ex2
)x(f 2x22
2x
3
onde Φ é a função erro e λ e µ são os parâmetros da distribuição (λ > 0 e µ
>0).
Domínio: x > 0
Figura A-3 – Exemplo de distribuição Gaussiana Inversa
Inversa Gaussiana(2,5; 5)
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
-1 0 1 2 3 4 5 6 7 8 9 10
x
fd
p
Guassiana Inversa(2,5 ; 5)
176
Log Normal(µµµµ, σσσσ)
��
�
�
��
�
�
�
����
�
µσ+=σ
��
�
�
��
�
�
µ+σ
µ=µ
�
���
�
σµ−Φ=
σπ=
��
���
�
σµ−−
2
22
2
''xln
21
1ln21
' e ln' com
''xln
F(x) e'2x
1)x(f
onde Φ é a função erro e σ e µ são os parâmetros da distribuição (σ > 0 e µ>
0).
Domínio: x ≥ 0
Figura A-4 – Exemplo de distribuição Lognormal
Lognormal(2,5; 2,5)
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
-2 0 2 4 6 8 10 12 14
x
fd
p
177
Gamma(αααα,ββββ)
)(F(x) e
x)(
1)x(f xx
1
αΓ
Γ=
�
����
�
βαΓβ= ββ−
−α
onde Γ é a função Gamma, Γx é a função Gamma incompleta, α é um
parâmetro de forma (α > 0) e β é um parâmetro de escala (β > 0).
Domínio: x > 0
Figura A-5 – Exemplo de distribuição Gamma
Gamma(2; 1,25)
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
-1 0 1 2 3 4 5 6 7 8 9
x
fd
p
178
Weibull(αααα,ββββ)
( ) ( )αβαβ−−α
=β
α= x-x1
e-1F(x) ex
)x(f
onde α é um parâmetro de forma (α > 0) e β é um parâmetro de escala (β> 0).
Domínio: x ≥ 0
Figura A-6 – Exemplo de distribuição Weibull
Weibull(1,4; 2,4)
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
-1 0 1 2 3 4 5 6 7 8
x
fd
p
179
Pearson tipo V(αααα, ββββ)
( )
x
e)(
1)x(f
1
x
+α
β−
β⋅
αΓβ=
onde α é um parâmetro de forma (α > 0) e β é um parâmetro de escala (β > 0).
F(x) não possui fórmula analítica.
Domínio: x ≥ 0
Figura A-7 – Exemplo de distribuição Pearson tipo V
Pearson5(3; 5)
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
0,5
-2 0 2 4 6 8 10 12
x
fd
p
180
Pearson tipo VI(αααα1, αααα2, ββββ)
( )
x11
x),(B
1)x(f
21
11
21 α+α
−α
�
����
�
β++
β⋅ααβ
=
onde α1 e α2 são parâmetros de forma (α1 > 0 e α2 > 0) e β é um parâmetro de
escala (β > 0). F(x) não possui fórmula analítica.
Domínio: x ≥ 0
Figura A-8 – Exemplo de distribuição Pearson tipo VI
Pearson6(3; 3; 1)
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
-1 0 1 2 3 4 5 6 7 8 9
x
fd
p
181
Log-logística
( ) βγ=
�
���
�+
=+β
α= αα
−α -x tcom
t1
1
1F(x)
t1
t)x(f
2
1
onde γ é um parâmetro de localização, β é um parâmetro de escala (β > 0) e α
é um parâmetro de forma (α > 0).
Domínio: x ≥ γ
Figura A-9 – Exemplo de distribuição Loglogística
LogLogistica(0; 5; 3)
0
0,02
0,04
0,06
0,08
0,1
0,12
0,14
0,16
0,18
-5 0 5 10 15 20 25
x
fd
p
182
Qui-quadrado(νννν)
( )( ) ( )
( )2
2F(x) xe
22
1)x(f 2x122x
2 νΓ
νΓ=
νΓ= −ν
ν
onde Γ é a função Gamma, Γx é a função Gamma incompleta e ν é um
parâmetro de forma (ν > 0).
Domínio: x ≥ 0
Figura A-10 – Exemplo de distribuição Qui-quadrado
ChiQuadrada(4)
0
0,02
0,04
0,06
0,08
0,1
0,12
0,14
0,16
0,18
0,2
-2 0 2 4 6 8 10 12 14
x
fd
p
Qui-quadrado(4)
183
Extreme Value(a, b)
�
����
� �
���
� −− �
����
� �
���
� −−+=
�
�
�����
�
�
=
bax
expb
axexpz
e
1F(x)
e
1b1
)x(f
onde a é um parâmetro de localização e b é um parâmetro de escala (b > 0).
Domínio: - ∞ ≤ x ≤ ∞
Figura A-11 – Exemplo de distribuição Extreme Value
ExtremeValue(5; 1)
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
3 4 5 6 7 8 9 10
x
fd
p
184
Lambda Generalizados
A distribuição dos lambdas generalizados foi proposta por Ramberg e
Schmeiser (1972, 1974) com o propósito de gerar variáveis aleatórias para
simulações de Monte Carlo e tem sido aplicada na estimativa de funções de
densidade de probabilidade em diferentes campos de conhecimento. Karian e
Dudewicz (2000) fazem uma abordagem completa do método.
A distribuição dos Lambdas Generalizados possui quatro parâmetros:
• λ1 – parâmetro de posição da distribuição;
• λ2 – parâmetro de escala da distribuição;
• λ3 – parâmetro relativo à assimetria da distribuição;
• λ4 – parâmetro relativo à curtose da distribuição.
A distribuição dos Lambdas generalizados é mais facilmente definida por sua
função de distribuição inversa:
Figura A-12 – Exemplo de
distribuição dos Lambdas
Generalizados
( )2
431
F1F)F(x
λ−−+λ=
λλ
Lambdas Generalizados
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
0,45
4,0 6,0 8,0 10,0 12,0
x
fdp
185
Distribuições de Johnson
O sistema de distribuições de Johnson (Johnson, 1949) é composto por três
famílias de distribuições (não limitadas, lognormais e limitadas) caracterizadas
por 4 parâmetros (ε, λ, γ e η).
A função de distribuição acumulada da distribuição de Johnson é derivada da
função de distribuição Normal:.
)z()x(F Φ= ,onde:
Distribuições não limitadas: ∞<<∞ �
���
�
λε−η+γ= − x-
xsenhz 1
Distribuições lognormais: ( ) ε≥ε−η+γ= − x xsenhz 1
Distribuições não limitadas: λ+ε≤≤ε �
���
�
−λ+εε−η+γ= − x
xx
senhz 1
onde Φ é função de distribuição Normal acumulada.
Figura A-13 – Exemplo de
distribuição de Johnson
Johnson
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
0,45
4,0 6,0 8,0 10,0 12,0
x
fdp
186
ANEXO B – Resultados dos ajustes de distribuições
Tabelas de Estatística de Anderson-Darling e gráficos da distribuições
acumuladas empírica e ajustada
Tabela B-1 – Melhores ajustes das distribuições de perda dos segmentos
Segmento Ranking Distribuição ajustada Estatítica A-D
1.1 1 Johnson 4,2
2 Pearson V 46,1
3 Lognormal 306,3
1.2 1 Johnson 0,9
2 Lambdas Generalizados 3,4
3 Pearson V 16,8
1.3 1 Lambdas Generalizados 1,1
2 Loglogística 33,7
3 Pearson V 47,1
1.4 1 Pearson V 87,9
2 Lognormal 92,8
3 Loglogística 93,9
2.1 1 Lambdas Generalizados 1,7
2 Inversa Gaussiana 25,7
3 Lognormal 60,5
2.2 1 Johnson 0,6
2 Lognormal 4,7
3 Pearson V 8,6
2.3 1 Johnson 0,5
2 Lambdas Generalizados 5,9
3 Loglogística 39,0
2.4 1 Johnson 15,5
2 Pearson V 602,1
3 Inversa Gaussiana 642,1
187
Segmento Ranking Distribuição ajustada Estatítica A-D
3.1 1 Inversa Gaussiana 58,1
2 Johnson 71,5
3 Lognormal 192,3
3.2 1 Lambdas Generalizados 10,5
2 Johnson 14,2
3 Inversa Gaussiana 55,4
3.3 1 Johnson 0,2
2 Lambdas Generalizados 0,8
3 Pearson V 2,4
3.4 1 Johnson 40,9
2 Lambdas Generalizados 41,2
3 Inversa Gaussiana 2.077,1
4.1 1 Johnson 3,8
2 Pearson V 24,8
3 Lognormal 58,7
4.2 1 Johnson 1,8
2 Lambdas Generalizados 2,9
3 Pearson V 40,3
4.3 1 Johnson 0,6
2 Lambdas Generalizados 2,3
3 Loglogística 17,8
4.4 1 Johnson 12,3
2 Lambdas Generalizados 232,2
3 Lognormal 350,0
188
Tabela B-2 – Parâmetros das distribuições com os melhores ajustes
Segmento/
Distribuição Parâmetro Valor
Segmento/
Distribuição Parâmetro Valor
1.1 η 0,8859 3.1 µ 0,9048 Johnson γ -1,3376 Inversa λ 0,6018
ε 0,2241 Gaussiana deslocamento -0,0107 λ 0,1052
1.2 η 1,7822 3.2 η 1,4216 Johnson γ -3,1261 Johnson γ -4,5888
ε 0,2411 ε -0,4771 λ 0,4037 λ 0,1607
1.3 λ1 5,8119 3.3 η 2,8001 Lambdas λ2 0,0416 Johnson γ -2,7940 Genera- λ3 0,0229 ε 0,9558 lizados λ4 0,0782 λ 5,9395
1.4 α 2,4955 3.4 η 1,2347 Pearson V β 15,366 Johnson γ -3,3822
deslocamento -2,0864 ε -1,8407 λ 0,6833
2.1 λ1 0,1684 4.1 η 1,2947 Lambdas λ2 -0,4278 Johnson γ -2,3634 Genera- λ3 -0,0088 ε 0,1011 lizados λ4 -0,2210 λ 0,1374
2.2 η 2,2045 4.2 η 1,4304 Johnson γ -6,8847 Johnson γ -1,5211
ε -0,4642 ε 0,7247 λ 0,1721 λ 0,5114
2.3 η 3,5977 4.3 η 2,4229 Johnson γ -2,3078 Johnson γ -1,5289
ε 3,2328 ε 4,6543 λ 6,1982 λ 2,7770
2.4 η 1,0245 4.4 η 0,6488 Johnson γ -3,2554 Johnson γ -1,7733
ε -0,8162 ε 0,0277 λ 0,3028 λ 0,3638
189
Figura B-1 – Ajuste de distribuição de perda de crédito – Segmento 1.1
0,0
0,2
0,4
0,6
0,8
1,0
0,0 1,0 2,0 3,0 4,0 5,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
Figura B-2 – Ajuste de distribuição de perda de crédito – Segmento 1.2
0,0
0,2
0,4
0,6
0,8
1,0
0,0 2,0 4,0 6,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
190
Figura B-3 – Ajuste de distribuição de perda de crédito – Segmento 1.3
0,0
0,2
0,4
0,6
0,8
1,0
0,0 1,0 2,0 3,0 4,0 5,0 6,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
Figura B-4 – Ajuste de distribuição de perda de crédito – Segmento 1.4
0,0
0,2
0,4
0,6
0,8
1,0
0 10 20 30 40 50 60
Perda de Crédito (%)
Input Fit
100 -
––– Distribuição empírica
––– Distribuição teórica
191
Figura B-5 – Ajuste de distribuição de perda de crédito – Segmento 2.1
Figura B-6 – Ajuste de distribuição de perda de crédito – Segmento 2.2
0,0
0,2
0,4
0,6
0,8
1,0
0,0 2,0 4,0 6,0 8,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
0
0.2
0.4
0.6
0.8
1
0.0 1.0 2.0 3.0 4.0 5.0 6.0
Perda de crédito (%)
Distribuição empírica
Distribuição teórica
192
Figura B-7 – Ajuste de distribuição de perda de crédito – Segmento 2.3
0,0
0,2
0,4
0,6
0,8
1,0
2,0 4,0 6,0 8,0 10,0 12,0 14,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
Figura B-8 – Ajuste de distribuição de perda de crédito – Segmento 2.4
0,0
0,2
0,4
0,6
0,8
1,0
0 5 10 15 20 25 30
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
100 -
193
Figura B-9 – Ajuste de distribuição de perda de crédito – Segmento 3.1
0,0
0,2
0,4
0,6
0,8
1,0
0,0 1,0 2,0 3,0 4,0 5,0 6,0 7,0 8,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
Figura B-10 – Ajuste de distribuição de perda de crédito – Segmento 3.2
0,0
0,2
0,4
0,6
0,8
1,0
0,0 2,0 4,0 6,0 8,0 10,0 12,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
194
Figura B-11 – Ajuste de distribuição de perda de crédito – Segmento 3.3
0,0
0,2
0,4
0,6
0,8
1,0
0,0 5,0 10,0 15,0 20,0 25,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
Figura B-12 – Ajuste de distribuição de perda de crédito – Segmento 3.4
0,0
0,2
0,4
0,6
0,8
1,0
0,0 10,0 20,0 30,0 40,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
100 -
195
Figura B-13 – Ajuste de distribuição de perda de crédito – Segmento 4.1
0,0
0,2
0,4
0,6
0,8
1,0
0,0 1,0 2,0 3,0 4,0 5,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
Figura B-14 – Ajuste de distribuição de perda de crédito – Segmento 4.2
0,0
0,2
0,4
0,6
0,8
1,0
0,0 1,0 2,0 3,0 4,0 5,0 6,0 7,0
Perda de Crédito
Distribuição empírica
Distribuição teórica
196
Figura B-15 – Ajuste de distribuição de perda de crédito – Segmento 4.3
0,0
0,2
0,4
0,6
0,8
1,0
2,0 4,0 6,0 8,0 10,0 12,0 14,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
Figura B-16 – Ajuste de distribuição de perda de crédito – Segmento 4.4
0,0
0,2
0,4
0,6
0,8
1,0
0,0 20,0 40,0 60,0 80,0 100,0
Perda de Crédito (%)
Distribuição empírica
Distribuição teórica
100 -