Métricas de Risco: Manual do Usuário – Parte 2

No último artigo sobre o tema, falamos um pouco das fundamentações dos riscos de mercado. Hoje focaremos nas duas métricas mais utilizadas no mercado, porque se fosse falar sobre todas, o artigo seria gigantesco.

Há uma infinidade de métricas, desvio padrão (explicada no último artigo), Mean Absolute Deviation, semideviation, VaR, CVaR, EVaR, TVaR, Expected Maximum Drawdown… – um adendo importante, Sharpe, Sortino e Omega Ratio não são métricas de risco, mas sim de retorno ajustado, essa é uma confusão comum – e toda hora surge alguma medida nova ou variação de uma antiga. Considerei, também, que vale focar em duas para entender bem como funcionam e depois o próprio leitor pode utilizar os conceitos aprendidos na hora de aprender novas medidas.

Como disse, existem muitas métricas de risco de mercado. Em comum, todas tentam dar uma ideia de quanto nosso investimento pode se desviar do que é esperado, mas cada uma conta de sua maneira. Outra similaridade é que há mais de uma forma de calcular cada uma delas, especialmente três: Analítico, Simulação e Histórico.

Analítico x Simulação x Histórico

Em matemática, uma solução analítica ou fórmula fechada é aquela que pode ser descrita por uma fórmula matemática exata, que não precisa recorrer a aproximações ou recursos computacionais. De forma simplificada, se você pode escrever a solução em uma célula do Excel, então ela é analítica. Nesse tipo de solução, você combina a definição da métrica de risco (por exemplo, a probabilidade de, daqui a um ano, o investimento ter caído mais do que 5%) com o modelo para o mercado (as distribuições de probabilidade e a relação de dependência dos ativos). Por exemplo, se assumirmos que temos um único ativo seguindo uma distribuição normal, com retorno médio de µ% ao ano e desvio padrão de σ%, nossa solução analítica é:

Onde Φ é a Função Distribuição da Normal Padrão. No Excel “=NORM.DIST(5%, µ, σ)”.

Uma pergunta bem frequente no mercado é: “Se sabemos que os retornos não seguem uma distribuição Normal, por que ela ainda é usada com tanta frequência?”. A resposta é: porque ela costuma gerar soluções analíticas, fórmulas simples e fáceis que, como dito, podem ser escritas em uma única célula do Excel. Outras distribuições podem gerar fórmulas fechadas para algumas métricas, mas são raros os casos. Por isso é tão difícil de se livrar da distribuição normal.

Mas se quisermos fugir das distribuições normais e/ou se a relação entre as variáveis não puder ser descrita apenas pela correlação entre elas, raramente teremos uma fórmula. Se tivermos, serão muito complexas e difíceis de deduzir.

Digamos que temos N ativos, cada um seguindo uma distribuição Student-t e a relação entre os ativos é modelada por uma Cópula de Gumbel (termos apenas ilustrativos), pode até ser que encontremos uma fórmula fechada, mas vai ser bem complexa. Para lidar com isso, recorremos às simulações. Nessa metodologia, os ativos são simulados seguindo o nosso modelo para o mercado milhões de vezes e calculamos a métrica com base nesses “universos paralelos”. Do exemplo anterior, poderíamos simular 1 milhão de vezes e contar a quantidade de vezes que houve uma queda maior do que 5%.

O problema das duas metodologias anteriores é que ambas precisam assumir algum modelo para o funcionamento do mercado. Algumas vezes isso é justificado, se feita de forma rigorosa e cuidadosa (lembra do Problema do Agente-Principal do artigo anterior?) os resultados são muito bons, mas sempre temos o risco de perder algum detalhe. Para preencher essa lacuna, olhamos para os dados históricos, olhamos para o passado e vemos como a métrica teria se comportado. Seguindo o exemplo, olharíamos todos os subperíodos de um ano e contaríamos quantos tiveram uma queda de mais de 5%. A vantagem é não precisar fazer pressupostos que podem não ser realistas, a desvantagem é que podemos estar em um regime diferente do passado.

Value at Risk

A década de 1980 foi marcada por um expressivo aumento na volatilidade dos mercados e, com isso, as atenções se voltaram para as análises de risco. Várias métricas e relatórios foram implementados nos bancos e fundos, para que a gestão tivesse visão dos riscos que a instituição estava correndo. O problema é que esses relatórios eram longos, complexos e deveriam ser acompanhados diariamente, no final das contas, mais confundiam do que esclareciam.

O então presidente do J.P. Morgan, Dennis Weatherstone, requisitou um relatório que pudesse ser entregue às 16h15 (ganhando o nome de 4.15 Report), 15 minutos depois do mercado fechar e a tempo da reunião de tesouraria, que resumisse todo o risco e P&L da instituição. Um dos criadores desse relatório foi Till Guldimann, onde o Value at Risk foi criado [1][2]. O relatório foi um sucesso. Além de indicar o risco incorrido, o VaR passou a ser utilizado como o limite de risco que os traders poderiam correr, substituindo as várias métricas que eles deveriam ficar atentos. Hoje esse é um procedimento padrão no mercado. Se você quiser saber o “poder” de um trader na mesa, você não pergunta quantos Reais ou Dólares ele pode operar, pergunte “qual é o seu limite VaR?”.

Mas o que ele mede exatamente? Vale começar explicando que o VaR tem dois parâmetros: o horizonte de tempo (estamos falando do risco do próximo dia, semana ou ano?) e o α, que indica o quão restritivo é o VaR, um α resulta em um VaR, em módulo, maior. Usualmente trabalha-se com um horizonte de um dia ou uma semana e um α de 95% ou 99%. Matematicamente, seja F_X(x) a distribuição acumulada dos retornos (probabilidade do retorno ser menor que x), o VaR é:

Isso significa que a probabilidade de ter um retorno menor que o negativo do VaR é 1-α. Por exemplo, o VaR de R$1.000, horizonte de um dia e α de 95%, significa que há 95% de chance de não perdermos mais do que R$1.000 amanhã. Outra forma de interpretar é que a cada 100 dias iguais a esse, em 5 vamos ter uma perda maior que R$1.000. Destaco que o VaR pode ser dito em termos financeiros ou percentuais.

Em um único número, conseguimos transmitir uma informação fácil de entender e muito significativa. Por isso, o VaR se tornou um das métricas mais populares no mercado.

Como já disse, em nenhum momento assumimos uma Distribuição Normal, mas mesmo assim o VaR tem um problema ainda mais profundo. Considere um mercado onde temos dois ativos e cinco cenários possíveis, com seus respectivos retornos na tabela abaixo:

Para um α de 75%, o VaR de ambos seria de -10% (o -25% seria para α maiores que 80%). E se montássemos um portfólio com metade investido em cada Ativo?

Agora o VaR, para o mesmo α, é de -1750. Estamos dizendo que, se diversificarmos o investimento, vamos ter mais risco. Isso é estranho, sempre ouvimos que a diversificação diminui o risco. O VaR não está sendo coerente.

Medidas de Risco Coerentes

Vendo essa inconsistência no VaR, o matemático Philippe Artzner [3] e colegas definiram algumas propriedades que uma medida de risco deveria seguir para ser considerada coerente. São elas:

  1. Sub-Aditividade: O risco de um portfólio não pode ser maior que a soma dos riscos das partes. A ideia da diversificação nunca aumentar o risco. ρ(X+Y) = ρ(X) + ρ(Y);
  2. Monotonicidade: Se um ativo sempre tem um retorno maior que o outro em todos os cenários possíveis, então o ativo com maior retorno tem menos risco. Se X ≤ Y, então ρ(X) ≥ ρ(Y);
  3. Homogeneidade Positiva: Se você dobrar o dinheiro investido, dobra o risco. ρ(ƛ X) = ƛ ρ(X);
  4. Invariância Por Translação: Adicionar dinheiro no portfólio reduz o risco no mesmo montante. ρ(X+c) = ρ(X) – c.

Onde ρ() é uma medida de risco qualquer, e X e Y são dois ativos.

O VaR não é uma medida coerente e várias medidas populares não são, mas há uma medida bem popular no mercado que é o Conditional Value at Risk, também conhecido como Expected Shortfall.

Conditional Value at Risk

O CVaR é uma medida derivada do VaR. Ela responde à pergunta “Se a perda for maior que o VaR, quanto deve ser essa perda em média?”. Matematicamente:

No gráfico, equivale a “altura” média da linha laranja.

Além da coerência, o CVaR capta as caudas grossas (retornos raros e extremos), inflando sua magnitude, enquanto o VaR é indiferente. Seguindo o exemplo dos dois ativos, os CVaRs são: Ativo1: -2000, Ativo2: -1750 e Portfólio: -1875.

Eu comentei que a Distribuição Normal costuma ser escolhida por levar a soluções analíticas. Curiosamente, o CVaR tem solução analítica para uma enorme gama de distribuições. Preparando este artigo, vi até distribuições que eu nunca tinha ouvido falar (Dagum, Burr, Johnson’s SU…). A existência de soluções analíticas tem duas vantagens. Primeiro, a velocidade: em um computador, o cálculo é praticamente instantâneo e podemos ter o CVaR em tempo real. A segunda vantagem é na hora de fazer “contas”. Com a solução analítica, podemos trabalhar com modelos sobre ela. Por exemplo, podemos modificar o modelo de Markowitz para considerar o CVaR em vez da volatilidade.

Qual usar?

O leitor talvez tenha ficado com a impressão de que devemos abandonar o uso do VaR para só usar o CVaR, ou talvez que existe uma métrica melhor que todas as outras. Infelizmente, não.

O VaR e o CVaR são apenas duas das várias métricas existentes. São as mais populares por questões históricas, simplicidade e nível de informação. Mas não exaurem toda a informação que pode ser transmitida. Inclusive, particularmente, acredito que análises não quantitativas devem ser levadas em conta, como análise de cenários, entendimento de fatores de risco, etc.

Não há uma bala de prata, um número que pode ser visto sozinho e todas as decisões tomadas baseadas nele. Um bom gestor de risco e um bom trader estão constantemente em busca de falhas e riscos que não estamos vendo. As métricas são modelos, nos ajudam a simplificar a realidade, mas nunca serão capazes de captar toda a essência do mercado.

Bibliografia

[1] It’s 4.15 somewhere

[2] A Bit of History

[3] Artzner, Philippe, et al. “Coherent measures of risk.” Mathematical finance 9.3 (1999).