1. Este documento apresenta um modelo para calcular a perda agregada máxima usando a convolução entre as distribuições de Poisson e Gama para simular a frequência e severidade de sinistros.
2. Foram utilizados dados reais de seguro automóvel no Brasil entre 2015-2019, contendo inicialmente 25,6 milhões de observações que foram tratadas e reduzidas a 14,4 milhões.
3. O modelo usa simulação de Monte Carlo para gerar valores aleatórios de acordo com as distribuições e somá-los, repetindo o processo
Convolução entre Poisson e Gama para cálculo da perda agregada máxima
1. 1
Convolução entre as distribuições
Poisson e Gama para o cálculo da
perda agregada máxima
UNIVERSIDADE FEDERAL DO PARANÁ
ESPECIALIZAÇÃO EM DATA SCIENCE E BIG DATA
DEPARTAMENTO DE ESTATÍSTICA
_______________________________________________________________
Delvo Sabino Santiago
Orientador: Prof. Wagner Hugo Bonat
2. Fluxo do Modelo
Fase 1 Introdução
Fase 2
Fase 3
Cálculo da
Perda
Agregada
Máxima
Metodologia
Conjunto
de Dados
Discussão META
Resultados
3. Introdução
Voltar
Ativos a Valor
de Mercado
Melhor
Estimativa
Capital Mínimo
Requerido
Margem
de Risco
Estimativa
na data t
Capital
Disponível
Ativos
Garantidores
das Provisões
Técnicas
Capital de
Solvência
Requerido
Provisões
técnicas
Mercados sem
Hedge Consistente
Perda Agregada
Máxima
Excesso de
Capital
A B
4. O Processo do Risco / Conceito
4
Montar
Portifólio
Certificação dos
dados
Estimar a Perda
Agregada Max do
Portifólio
Desafio
Nível no instante t
= Reservas iniciais
+ prêmios acumulados
- claims acumulados
Fluxo de Saída = Claims
Fluxo de Entrada = Prêmios
Fluxo de Saída = Claims
• Estocástico
Clusters
Adequados
Desafio
formidável nos
dias de hoje
5. Conjunto de Dados
Dos 25,6 milhões de
observações iniciais
Restaram 15, 4 milhões, ainda
dependentes de avaliação de
“outliers”
Restaram 14,4 milhões de
observações certificadas após
expurgo dos “outliers”
❑ Dados Semestrais (2015 - 2019);
❑ Base de Dados - Mercado brasileiro de seguros
de automóveis – SUSEP;
❑ Base de Dados pública, tratada e anonimizada.
Principais tratamentos:
❑ Dados duplicados;
❑ Dados nulos;
❑ Tratamento de datas;
❑ Chaves inconsistentes: tais como sexo, idade e
perfil do segurado;
❑ Clusterização;
❑ Tratamento de Fipe.
6. Modelagem
6
Voltar
Frequência de
sinistros
Estimação do parâmetro da
distribuição de Poisson
(Lambda)
Teste estatístico de aderência
Severidade
Estimação dos parâmetros da
distribuição Gamma (Alpha e
Beta)
Teste estatístico de aderência
Simulação de Monte Carlo aplicado à combinação das
duas citadas distribuições ( = convolução )
Tweedie (Lambda, Alpha, Beta)
Fonte: Concepção do Autor
8. willistowerswatson.com
Dos 25,6 milhões de observações iniciais
Resultados
8
Voltar
Região 1
1. Gerar m valores, X1,X2,X3,...,Xm identicamente
distribuídos, usando o algoritmo específico à
distribuição escolhida;
2. Calcular a soma S = X1 + X2 + X3 +...+ Xm;
3. Fazer um histograma dos valores encontrados de S.
4. Todos os passos deste processo - simulação da
frequência e severidade de Claims - são repetidas n
vezes, até que seja encontrada uma amostra
suficientemente grande permitindo inferência
estatística.
13. willistowerswatson.com
Conclusão
• Os resultados são uma aproximação resultante do emprego do teorema do limite
central.
• A soma de variáveis aleatórias independentes tende para a variável aleatória
com distribuição normal, conforme a quantidade de parcelas aumenta.
• Para estudos futuros, é possível agregar de fatores de risco, como Sexo, Idade e
Perfil do Segurado.
• Um efeito que foi devidamente considerado diz respeito à variância, como função
do volume de unidades expostas.
• Quando a variabilidade é mais elevada, um fator de penalização é imposto aos
fatores da Perda Agregada Máxima.
13
Voltar