post list
QuantDare
categories
risk management

Playing with Prophet on Financial Time Series (Again)

rcobo

risk management

Seeing the market through the trees

xristica

risk management

Lévy Flights. Foraging in a Finance blog. Part II

mplanaslasa

risk management

Playing with Prophet on Financial Time Series

rcobo

risk management

Principal Component Analysis

j3

risk management

Exploring Extreme Asset Returns

rcobo

risk management

Playing around with future contracts

J. González

risk management

BETA: Upside Downside

j3

risk management

Returns clustering with k-Means algorithm

psanchezcri

risk management

Predicting Gold using Currencies

libesa

risk management

Inverse ETFs versus short selling: a misleading equivalence

J. González

risk management

Cointegración: Seguimiento sobre cruces cointegrados

T. Fuertes

risk management

Using Decomposition to Improve Time Series Prediction

libesa

risk management

Clasificando el mercado mediante árboles de decisión

xristica

risk management

In less of a Bayes haze…

libesa

risk management

Cointegración

T. Fuertes

risk management

¿Por qué usar rendimientos logarítmicos?

jsanchezalmaraz

risk management

In a Bayes haze…

libesa

risk management

Teoría de Valores Extremos

kalinda

risk management

Cópulas: una alternativa en la medición de riesgos

mplanaslasa

30/05/2014

No Comments
Cópulas: una alternativa en la medición de riesgos

Existen diferentes formas para medir los riesgos que puede sufrir una cartera y una buena alternativa son las cópulas.

Uno de los dos siguientes conjuntos de puntos sigue una distribución normal bivariante y el otro no y sin embargo ambos provienen de pares de distribuciones marginales normales y tales que el coeficiente de correlación lineal entre los pares es el mismo en ambos ejemplos:  0.9.                                                                                                                                                 multivariante_clayton

Ambos conjuntos presentan diferencias que evidencian que no siguen una misma distribución multivariante, basta fijarse en los valores extremos.

Con este simple vistazo ya podemos sacar una conclusión: aunque los factores de riesgo sean individualmente normales o supuestos bajo otra distribución conocida, el riesgo de la cartera puede ser mayor del que creemos y es necesario recoger adecuadamente la dependencia entre los factores individuales para no incurrir en grandes pérdidas.

El gráfico de la izquierda es el que se corresponde con una distribución normal multivariante y el de la derecha se ha generado a partir de lo que se conoce como una cópula (en particular, la conocida cópula de Clayton), concepto que presentamos en el post.

Nos interesa proponer las cópulas como medida alternativa para calcular el riesgo de una cartera por varios motivos:

  • Es un concepto que modela la dependencia de las variables que se sale del “mundo perfecto”, es decir, del mundo gaussiano. Como hemos visto, no podemos suponer que una distribución multivariante sea normal aunque sus marginales sí lo sean. Basta echar un ojo a la literatura para comprobar que este supuesto está erróneamente extendido. Por otro lado, suponer normalidad individual por activo tampoco es un supuesto acertado. Con las cópulas, no es necesario suponer una distribución determinada para los rendimientos, ni marginal (para los activos),  ni multivariante  (para la cartera).
  • Conseguimos modelar la dependencia de variables fuera de lo estrictamente lineal. Recordemos que el coeficiente de correlación recoge la dependencia lineal de dos variables y es una medida que se queda corta para describir la relación entre variables, en particular, se ve muy afectada por datos atípicos, algo tan importante en la medición de riesgos financieros.  Erróneamente se ha extendido la identificación de correlación con cualquier tipo de dependencia o causalidad y para que exista correlación, la varianza de las variables aleatorias debe existir y por tanto, esta medida excluye a variables con colas gruesas.

Ahora bien, ¿qué es una cópula?

Una cópula es una distribución multivariante cuyas distribuciones marginales son uniformes en el intervalo (0,1). Por el teorema de Sklar, se sabe que para cualquier función de distribución multivariante F,  existe siempre una cópula C  tal que:

                                                                                                                                      f1

donde las variables U indican distribuciones uniformes.

¿Dónde está la ventaja entonces?

Toda variable aleatoria puede mapearse en una variable uniforme a través de su distribución acumulada, entonces podemos darle la vuelta al argumento y darnos cuenta de que una cópula es un instrumento utilísimo para la simulación de variables aleatorias multivariantes con distribuciones marginales dadas, las que sean, no solamente las clásicas distribuciones conocidas.

Solo es necesario simular variables aleatorias uniformes (que provienen de la proyección de las distribuciones marginales de los individuos) con estructuras con dependencias determinadas por las cópulas elegidas. Cabe destacar las cópulas de Gumbel, Frank y Clayton como cópulas acertadas para modelizar las colas valores extremos.

frank_gumbel

Ejemplo

Estimaremos el VaR semanal de 2  acciones al nivel de confianza 1%  empleando como herramienta las cópulas de Gumbel, Frank y Clayton.

Diremos que el VaR estimado de dos acciones es el par (a,b) si

f2

La idea de esto es estimar dos valores para dos acciones pero recogiendo de alguna manera la dependencia entre ellas. Simplemente lo que tenemos que hacer es:

  1. Tomar los rendimientos de las acciones en una ventana, mapearlos en una distribución uniforme y con ellos calcular los parámetros necesarios para cada una de las cópulas conocidas (realmente el único parámetro empleado para las 3 cópulas de este post es la archiconocida Tau de Kendall) .
  2. Los valores estimados no son más que probabilidades y tenemos que buscar aquél  par que nos haya devuelto aproximadamente una probabilidad 0.01 (un análisis previo ha mostrado  que si tomamos una ventana de 52 semanas , ese valor lo encontramos).
  3. Ese vector (“desnormalizado”) es el VaR estimado para las dos acciones en ese instante.

En particular, validaremos la predicción evaluando la rentabilidad semanal desde el instante de la estimación. Si la rentabilidad para ambas acciones no sobrepasa el VaR estimado, se cumple la predicción. A su vez hemos calculado también el VaR de las dos acciones de forma individual tomando el percentil 1 de los rendimientos en cada ventana. Consideraremos que este último método acierta para las dos acciones si en una misma estimación ninguno de los dos VaR estimados para los dos activos se sobrepasa en la semana siguiente.

Se han escogido dos acciones de mercados muy diferentes con la idea de plantear un escenario muy descorrelacionado, una del mercado de EEUU y la otra Japonesa.

La estimaciones se han realizado semanalmente y el porcentaje de veces en que ambas acciones han predicho un par de niveles de pérdida que no se han sobrepasado han sido  para todos los métodos:

porcentajes

Por tanto, el uso de las cópulas no ha mejorado la predicción que hace, a nivel individual, tomar el percentil histórico individualmente por activo.

Se deja abierta la posibilidad de profundizar más en este tema y antes que inclinarnos directamente por ciertas cópulas, se propone hacer un análisis de aquélla cópula que se pueda ajustar más a un par de series. Es decir, se propone estudiar a priori qué cópula puede modelizar mejor la dependencia de variables y posteriormente, una vez hecha la elección de la cópula, medir su capacidad predictiva.

Tweet about this on TwitterShare on LinkedInShare on FacebookShare on Google+Email this to someone

add a comment

wpDiscuz