Servicios Personalizados
Revista
Articulo
Indicadores
-
Citado por SciELO
-
Accesos
Links relacionados
-
Citado por Google
Similares en SciELO
-
Similares en Google
Compartir
Revista de análisis económico
versión On-line ISSN 0718-8870
RAE vol.24 no.2 Santiago dic. 2009
http://dx.doi.org/10.4067/S0718-88702009000200004
Revista de Análisis Económico, Vol. 24, N" 2, pp. 95-132 (Diciembre2009)
ARTÍCULOS
UNA METODOLOGIA BASADA EN COPULAS Y VALORES EXTREMOS PARA ESTIMAR EL CAPITAL ECONOMICO REQUERIDO DE UN PORTAFOLIO DE CREDITOS AL MENUDEO
A COPULA AND EXTREME-VALUE BASED METHODOLOGY FOR ESTIMATING THE REQUIRED ECONOMIC CAPITAL IN A RETAIL-CREDIT PORTFOLIO
ADAN DIAZ HERNANDEZ*, JOSE CARLOS RAMIREZ SANCHEZ**
* University of Essex, RK
** Universidad Anáhuac y CIDE, México
Abstract
This paper poses a new methodology to estimate the required economic capital for a retail-credit portfolio. The methodology is based on both the general copula concepts and some core results from the extreme value theory (EVT). The main results support the fact that the proposed methodology is more flexible than other traditional techniques, in particular when it makes use of elliptical generalized or grouped t Student copulas to model the dependence structure of risk-parameters or when it includes elements of the EVT to analyze the extreme losses behavior of a retail-credit portfolio. When applying algorithms, the paper includes data from a Mexican bank.
Keywords: Economic capital, credit risk, copulas, extreme value theory.
Resumen
El documento propone una metodología para estimar el capital económico requerido de un portafolio de créditos al menudeo basada en los conceptos generales de cópulas y de la teoría de valores extremos (TVE). Los resultados avalan la mayor flexibilidad de la metodología propuesta sobre algunas técnicas tradicionales, en particular cuando ésta incorpora cópulas elípticas generalizadas y/o agrupadas del tipo t de Student para modelar la estructura de dependencia de los parámetros de riesgo, o cuando hace uso de la TVE para analizar el comportamiento de las pérdidas extremas del portafolio. En la aplicación de los algoritmos se utilizan datos de un banco mexicano.
Palabras Clave: Capital económico requerido, riesgo de crédito, cópulas, valores extremos.
I. INTRODUCCION
No hay duda que una de las tareas más importantes en la administración de las instituciones financieras es la determinación conjunta de las cantidades óptimas de riesgo y capital. La razón es que el uso eficiente del capital involucrado en la operación de cualquier negocio financiero depende, crucialmente, de un sistema adecuado de valuación de riesgos. Sin el cálculo correcto del monto de capital en riesgo, o capital susceptible de ser perdido en un escenario desfavorable, no es posible estimar realis-tamente el costo alternativo de la inversión de los accionistas.
El problema es que mientras las mediciones de riesgo son puntuales y objetivas, las funciones de administración y distribución del capital son una mezcla de ciencia, experiencia y arte (Saita, 2007). En la práctica no hay algoritmos mágicos ni recetas universales que permitan conocer, de manera infalible, los montos óptimos del capital ajustado por riesgo. Hay, a lo sumo, lineamientos generales, derivados de controles internos o disposiciones regulatorias que buscan darles a los administradores una idea del balance que existe entre sus estimaciones internas de capital y sus necesidades de protección contra riesgos por pérdidas potenciales.
Los lineamientos regularmente usados para estimar el capital en riesgo buscan definir, primero, el concepto de capital que está bajo consideración y, luego, las medidas de riesgo asociadas a las operaciones cubiertas por ese capital (Matten, 2000). En el primer caso, la definición requiere de distinguir entre capital regulatorio (CR) y capital económico (CE), ya que si bien ambos guardan una estrecha correspondencia entre sí no son conceptos intercambiables. Mientras que el CE es el capital en riesgo estimado por la institución para asegurar la viabilidad de sus líneas de negocios, el CR es calculado con base en las disposiciones y metodologías de las autoridades reguladoras. Vebido a su distinto origen y, en particular, al hecho de que las instituciones financieras incluyen a menudo clases de riesgos que no necesariamente están contempladas en el CR, ambos montos suelen diferir. Por esa razón se recomienda utilizar el concepto de capital económico requerido (CER), o capital en riesgo estimado con independencia de las restricciones regulatorias, ya que a la vez que ofrece una idea más comprensiva y realista de las necesidades diarias de las instituciones para cubrirse de los riesgos, contempla los requerimientos mínimos del capital regulatorio (Saita, 2007). Como es de esperarse, el CER no necesariamente coincide con el capital disponible de la institución.
La estimación del CER varía de acuerdo con cada una de las siguientes nociones de capital adoptadas como base, esto es: como valor en libros, valor de mercado o capitalización de mercado. La variabilidad en cada caso puede ser muy pronunciada, por lo que la elección adecuada de tal o cual noción depende críticamente de la naturaleza de las posiciones y del tipo de riesgo bajo consideración.
En el cálculo del CER de un portafolio de crédito, por ejemplo, la cantidad fijada como capital en riesgo está determinada por las pérdidas inesperadas de sus posiciones que, a su vez, constituyen una medida de su valor en riesgo. Pero el monto de las pérdidas es muy distinto si se utiliza un enfoque de valor de mercado (mark-to-market) que uno basado en el valor en libros (book-value accounting). En el primero, el valor de las posiciones sensibles al riesgo es equivalente al valor presente, a precios de mercado, de sus sumas de efectivo descontadas conforme a una tasa ajustada por riesgo. De esta manera, cualquier disminución en el valor presente del portafolio, por efecto digamos de un aumento en la tasa de descuento, se contabilizaría como pérdidas inesperadas. En el segundo enfoque, en cambio, las pérdidas estarían asociadas únicamente a la baja reconocida por las instituciones en el valor en libros de sus posiciones. Las diferencias entre ambos enfoques se traducirían en diferencias en las causas de las pérdidas, pues mientras que una degradación en las calificaciones del acreedor dejaría inafectado el cálculo del CER en valor en libros, en el enfoque de valor de mercado ésta conduciría a mayores márgenes de crédito y, en consecuencia, a un menor valor de mercado de las posiciones.
La correcta especificación del CER no significa, empero, el fin del problema de su estimación sino su inicio. Y es que una vez decidida la noción de capital queda todavía pendiente por seleccionar el mejor modelo de estimación del riesgo que nos garantice el cálculo más adecuado del monto del CER; y éste no es un asunto menor. En el ejemplo del riesgo de crédito que mencionamos arriba hay que enfrentar, para empezar, una serie de obstáculos relacionada con la tipificación del portafolio, la estructura de dependencia de los parámetros de riesgo y, finalmente, la confirmación de la superioridad y robustez de las estimaciones.
Como se sabe, en la literatura existe una amplia gama de trabajos que permiten modelar el riesgo de crédito de portafolios de préstamos comerciales -empresas o personas morales- de acuerdo con los lineamientos propuestos por CreditMetrics (CM), KMV PortfolioManager (KMV), CreditRisk+, o CreditPortfolioView (véase Crouhy et al., 2000; y Crosbie y Bohn, 2002). Pero ésta no parece ser la misma situación para los préstamos a personas físicas. La escasez de trabajos en este rubro ha obligado a los practicantes a adaptar los modelos de préstamos comerciales para medir el riesgo de crédito en portafolios de préstamos personales, según sean las necesidades o las disponibilidades de información de las instituciones financieras (De Andrade y Thomas, 2004; y Perli y Nayda, 2004). De hecho, las reglas de riesgo de crédito establecidas por Basilea II en su enfoque más avanzado de calificaciones internas (IRB) tienen sus bases sobre ciertos resultados asintóticos para portafolios grandes bajo versiones simplificadas de los modelos del tipo KMV/Cm.
Del mismo modo, hay diversas maneras de relacionar los parámetros de riesgo que determinan las pérdidas del portafolio atribuidas al riesgo de crédito -probabilidad de incumplimiento (PD), exposición al incumplimiento (EAD) y pérdida dado el cumplimiento (LGD)- y no todas con los mismos resultados. La adopción de distintas estructuras de dependencia entre los parámetros de riesgo genera, a su vez, distintas distribuciones de pérdidas simuladas y, por ende, diferentes montos de CER.
Por todas estas razones, es claro que el cálculo adecuado del CER requiere de metodologías que sean conceptual y estadísticamente robustas en cada una de sus etapas. La tarea no es, de ninguna manera, fácil ya que lejos de observar en la práctica una utilización homogénea de conceptos y técnicas en la medición de riesgo de crédito, las instituciones financieras han tendido a ajustar discrecionalmente sus estimaciones a los distintos enfoques estipulados por Basilea II. Como resultado, el cálculo del CER de las posiciones de crédito se ha convertido más bien en un ejercicio regido por factores idiosincrásicos que en una práctica común controlada por disposiciones generales a la industria. Al menos esa es la experiencia de los bancos mexicanos y norteamericanos (Márquez y López, 2006; y Saita, 2007).
El objetivo principal de este documento es proponer una metodología orientada a facilitar el cómputo del CER de un portafolio de créditos al menudeo -o de personas físicas- en instituciones financieras como las mexicanas. Para tal efecto, la propuesta busca simultáneamente: 1) establecer la relación entre los parámetros de riesgo mediante el uso de cópulas multivariadas y medir su efectividad frente a otras estructuras de dependencia que han recibido mayor atención en la literatura; 2) aplicar algunos resultados de la Teoría de Valores Extremos (TVE), relacionados con el método de Peaks Over Threshold (POT), para estimar, primero, el Valor en Riesgo (VaRq), el Déficit Esperado (ESq) y, luego, el CER del portafolio; 3) comparar la robustez de la metodología con otras consagradas por la práctica mediante pruebas bilineales de bondad de ajuste; y finalmente 4) evaluar el impacto que tienen las reglas de capitalización propuestas en el enfoque más avanzado de IRB sobre los requerimientos de capital del portafolio.
Los resultados del documento son, en cierta manera, novedosos pues no hay antecedentes en la literatura local en los que se muestre conjuntamente las siguientes tres características de la metodología aquí propuesta.1 La primera es el uso comparativo de cópulas multivariadas para ajustar el mejor modelo de dependencia no sólo entre los parámetros de riesgo de un grupo particular de créditos sino, también, entre los grupos de créditos y productos constitutivos del portafolio. La segunda es el análisis de las bondades de la diversificación de un portafolio que incluye productos con diferentes índices de dependencia extrema y que no es posible apreciar, por ejemplo, en el modelo de un factor del tipo KMV/CM; y, finalmente, la tercera es el procedimiento para constatar que las estimaciones del CER de portafolios de crédito al menudeo son, en general, distintas (y en su mayoría superiores) al requerimiento regulatorio establecido por las reglas de capitalización del enfoque más avanzado de IRB.
El resto del documento está organizado de la siguiente manera. La sección II presenta las características del portafolio, su técnica de segmentación y la estimación de sus parámetros de riesgo. La sección III muestra los resultados obtenidos con el uso de las cópulas gaussiana, t de Student simétrica, t de Student generalizada y t de Student agrupada y sus respectivos análisis de bondad de ajuste. La sección IV incluye pruebas de contraste para comparar la robustez de los resultados de la metodología con algunos modelos alternativos consagrados en la práctica, tales como el modelo de incumplimiento de KMV/CM y el enfoque más avanzado de IRB propuesto por Basilea II. Finalmente, las conclusiones exponen los resultados más relevantes. Los algoritmos y resultados técnicos utilizados en las estimaciones aparecen en el Apéndice, al final del documento.
II. DESCRIPCION DEL PORTAFOLIO Y ESTIMACION DE LOS PARAMETROS DE RIESGO
2.1 Descripción y segmentación del portafolio
Con el propósito de enfatizar el sentido práctico de la metodología aquí propuesta se considera un portafolio de créditos al menudeo dividido en las tres subclases de activos usualmente identificadas por las instituciones bancarias de México; a saber: las exposiciones aseguradas por la vivienda del acreditado (subportafolio hipotecario), las exposiciones revolventes (subportafolio de tarjetas de crédito) y todas las demás exposiciones (subportafolio de créditos al consumo). La información está referida a las operaciones crediticias en valor en libros registradas por un banco mexicano en el período comprendido entre 2001 y 2006.2
Debido a que el número de exposiciones es considerablemente grande y a que, en consecuencia, es casi imposible modelar los incumplimientos por cuenta individual, utilizamos la técnica de segmentación Detección de Interacción Automática Ji-Cuadrada (CHAID) para homogeneizar los productos en grupos de créditos de acuerdo con su perfil de riesgo. La técnica es una de las más socorridas en la literatura no sólo por su economía de procedimiento sino, fundamentalmente, por su notable flexibilidad para identificar divisiones óptimas cuando las variables son continuas, nominales e incluso categóricas (Biggs et al., 1991). En conformidad con CHAID, las trayectorias descritas por las variables independientes a lo largo de los árboles de decisión permiten dividir a la población en grupos significativamente diferentes de acuerdo con alguna variable clave propuesta.
La Tabla 1 muestra los resultados de la segmentación al utilizar a PD como variable clave y al producto, número de pagos vencidos, tiempo en libros, uso de línea de crédito y morosidad observada como variables independientes.3 El portafolio resultante de la segmentación arroja 62 subgrupos (o cubetas) repartidos en 10 productos, cada uno con sus respectivos volúmenes (números de cuentas) y montos de exposición (saldos en pesos). Los productos quedan, a su vez, clasificados según los tipos de créditos de la siguiente forma: en créditos al consumo se encuentran las cuentas personales de nómina (productos A y B), los programas especiales del gobierno y pensiones (producto C), así como los productos relacionados con la adquisición de autos (D), bienes del consumidor a pagos fijos (E) y seguros (F); en créditos revolventes se incluyen a las tarjetas de crédito (producto G) y, finalmente, en créditos hipotecarios se comprende a los productos indizados en RDIS y con reestructura (H), sin reestructura (I) y con esquemas de interés social (J).
2.2 Estimación de los parámetros de riesgo
Una vez segmentado el portafolio, lo que procede es hacer algunas precisiones sobre la notación y el método de cómputo utilizados en la estimación de los parámetros de riesgo. En concreto, identificaremos a i = 1,...,M como los grupos o cubetas en los que se divide el portafolio (M = 62); a t = 1,..., n como las fechas de observación; a j=1,...,Nit y ejj> como los créditos y su exposición respectivamente; a YiP como la indicadora del incumplimiento para cada crédito j dentro de una ventana anual a partir de la fecha de observación y, finalmente, a eadit(j) como el saldo de dicho crédito al momento de su incumplimiento. El cómputo de los parámetros por grupos o productos considera, por su parte, las siguientes especificaciones:
* Probabilidad de incumplimiento del grupo i (PDi). En el cálculo de PDi se utiliza a la tasa de incumplimiento observada TIit como el estimador correspondiente a la ventana anual t (vista a partir de la fecha de observación t) en el grupo ; es decir:
* Exposición al momento del incumplimiento del grupo i (EADi). Por razones de simplicidad se seguirá la práctica extendida de estimar este parámetro con el factor de conversión de crédito CCFi, que es definido como la proporción perdida de la exposición inicial de los créditos al momento del incumplimiento. El estimador insesgado de la proxy CCFi para la ventana de observación t está dado por:
* Pérdida dado el incumplimiento por producto (LGDp). En el cálculo de este parámetro se incluye para cada producto p el porcentaje que se recupera del saldo eadpt de todos los créditos incumplidos en t durante los primeros k meses posteriores (ventana de recuperación) pues, de otra manera, no se podría estimar la correspondiente tasa de recuperación Tpt. En caso que se incluyan los costos fijos cp en el proceso de recuperación de cada producto p, el estimador de Tpt estaría dado por
donde RptíT) es la recuperación del mes T correspondiente a los créditos del producto p = 1,..., K que incumplieron en t; cik(j> es el factor de costos y r es la tasa de interés adecuada para descontar los flujos. Con el cálculo de Tpt se puede obtener, para cada fecha de observación t = 1 ,., n, el estimador
como una realización de LGDp o de la pérdida dado el incumplimiento para el producto p en una ventana de recuperación de k meses. En el cómputo supondremos que k = 24 meses para el caso de los subportafolios de consumo y tarjetas de créditos y k = 36 meses para el de hipotecario. Los tamaños de las ventanas de recuperación son fijados a conveniencia para que las estimaciones Tpt se estabilicen a partir de k o más observaciones.
Los resultados de la consolidación de los parámetros de riesgo para los productos A y B así como las estimaciones históricas de PD, CCF y LGDp (este último en histogramas) son expuestos, a manera de ilustración, en los recuadros de la Figura 1. Ahí queda clara la acentuada diferenciación de los valores de PD por cubeta y, en particular, la marcada heterogeneidad de comportamientos distribucionales entre los histogramas de los dos productos. La variabilidad de sus estimaciones es confirmada por los valores de los coeficientes de variación (CV) que fueron construidos en la Tabla 2, primero, para PD en aquellos subgrupos de crédito cuya tasa de incumplimiento observada resultó menor que uno y, luego, para los parámetros agregados por nivel de producto. De acuerdo con esos valores, la variación de las estimaciones de los parámetros no guarda un patrón homogéneo por subgrupo (cuando se considera Pd) ni una correspondencia clara entre los parámetros de cada producto, en tanto que las estimaciones de CCF presentan una variabilidad menor que PD y LGD. Estas diferencias en las variaciones alertan sobre la importancia de justificar adecuadamente la estructura de dependencia entre los parámetros ya que, de lo contrario, no habría manera de garantizar una correcta estimación de las medidas de riesgo del portafolio.
Para comprobar este último punto basta realizar el simple ejercicio de evaluar la calidad de las medidas de riesgo resultantes de agregar linealmente el producto de las estimaciones de PD, EAD y LGD sobre la composición (cubetas y productos) del portafolio a fin de obtener las pérdidas históricas (calculadas como porcentaje de saldo). La importancia de hacer un ejercicio de esta naturaleza, que no es más que una aplicación de las ecuaciones (8) y (9) descritas con detalle más adelante, radica en que los valores de sus medidas de riesgo pueden ser tomados como un benchmark histórico mínimo. La Tabla 3 y la Figura 2 resumen este ejercicio considerando la convención usada a lo largo del documento de resaltar en color gris los cálculos hechos con un nivel de confianza del 99,5% para, así, destacar las medidas de riesgo de las instituciones financieras que aspiran a obtener la más alta calificación crediticia en el país (calificación AAA). Los datos confirman que, en efecto, una pobre estructura de dependencia entre los parámetros, como la ofrecida por un ajuste lineal, arroja estimaciones empíricas poco robustas sobre el VaRq y las pérdidas agregadas por producto y portafolio. En concreto, las últimas tres columnas de la Tabla 3 reportan valores de VaRq que son insensibles a los diferentes niveles de confianza, debido a que son estimadores sesgados de las pérdidas extremas del portafolio que subestiman la cola de la distribución subyacente de pérdidas. La irregularidad en el comportamiento de las pérdidas descrita por los histogramas de la Figura 2 corrobora la pobre calidad de las estimaciones.4
En resumen, el ejercicio sugiere que para establecer la correcta estructura de dependencia entre los parámetros es importante hacer, previamente, tratamientos correctivos en las distribuciones de pérdidas históricas para, luego, aplicar métodos estadísticos sobre los extremos de las colas de una o varias distribuciones conjuntas. La metodología empleada aquí incluye, para el primer caso, densidades kernel de Epanechinikov y, para el segundo, cópulas multivariadas y algunas técnicas de la TVE.5
III. IMPLEMENTACIÜN DEL METODO DE CALCULO DEL CER
3.1 Distribuciones leptocurticas y cópulas
Entre las razones más citadas para explicar la poca confiabilidad de los estimadores del VaRq destaca, sin duda, la conocida leptocurtosis -o colas gordas- que afecta a las distribuciones de pérdidas como las de la Figura 2. La presencia de colas gordas en las distribuciones de créditos es ampliamente conocida y muchas de las explicaciones están centradas, entre otras cosas, en la alta correlación de los movimientos de las exposiciones, que echa por tierra los supuestos de normalidad implícitos en las medidas de valor en riesgo.6 La recomendación más usual para atacar este problema es utilizar algún método estocástico alternativo que permita capturar los diferentes comportamientos de las distribuciones marginales afectadas por colas gordas (Ramírez, 2004).
Las cópulas son, sin duda, uno de los recursos más socorridos por los analistas al momento de modelar la estructura de dependencia de esas distribuciones (Bouyé et al., 2000 y Embrechts et al., 2002). El motivo de su popularidad reside en la misma definición pues, como se sabe, se trata de una función que expresa una distribución conjunta de probabilidad como una función de distribuciones marginales. Y eso permite modelar dependencia entre distribuciones que, incluso, son completamente diferentes entre sí. En el caso de portafolios de créditos, el uso de cópulas es todavía más justificado porque los créditos son productos que dependen de eventos conjuntos (como podrían ser las obligaciones de deudas colateralizadas) que son mejor valuados con instrumentos estadísticos que correlacionan las colas de las distribuciones.
En la literatura financiera se han ensayado diversos tipos de cópulas para modelar la probabilidad de que dos mercados caigan en crisis al mismo tiempo pero sin emplear métodos comparativos que justifiquen la elección de la mejor distribución subyacente en cada cópula (Kole et al., 2005). Por esa razón, es conveniente proponer criterios de bondad de ajuste que hagan más objetiva la elección de las familias de cópulas y, de esa manera, evitar su uso indiscriminado y sin fundamento. El primer paso en esa dirección es comparar la capacidad predictiva de las cópulas sobre bases comunes, proponiendo los siguientes supuestos:
1) Las estimaciones conjuntas de los parámetros de riesgo son independientes e idénticamente distribuidas (i.i.d.) al momento de construir la cópula asociada del vector aleatorio.
2) Las estimaciones conjuntas son i.i.d en la determinación de la cópula asociada del vector aleatorio
3) La correlación serial ocasionada por el traslape de ventanas de observación es despreciable.
4) Los parámetros de riesgo PD y CCF son dependientes entre sí y entre cubetas y su estructura de dependencia esta dada por la cópula Mas precisamente: se supone que el vector aleatorio 2k-dimensional
tiene marginales absolutamente continuas, donde {{,...,ik}c{l,...,M} es un conjunto de cubetas de los p = 1,...,K productos independientes entre sí.
5) A nivel de agregación por productos, el vector aleatorio K-dimensional
6) El vector aleatorio es independiente de los parámetros de riesgo
3.2 Comparación entre ajustes de cópulas
El segundo paso consiste en adoptar una estrategia de comparación gradual. Es decir, hacer uso, primero, de las estructuras más simples, como las de independencia y gaussiana y, luego, comparar sus resultados con el de otras familias de cópulas más complejas que incorporan efectos conjuntos de dependencia extrema. La idea es ir descartando pormenorizadamente las razones por las que las cópulas ofrecen mejores ajustes o tienen mayor capacidad predictiva que otras. Para tal efecto empezaremos por ajustar el primer tipo de cópulas a los datos de los parámetros de riesgo PD y CCF, suponiendo que LGD es constante e igual a su media histórica y que el estimador de la matriz de correlaciones de la cópula gaussiana es (ver Frey, 2003):
donde es la función de distribución empírica del vector de observaciones
de la variable aleatoria Xi, para cada i = 1,..., d. Suponer a LGD como constante es sólo un recurso heurístico para considerar las condiciones más elementales sobre las que se estiman las medidas de riesgo con las cópulas gaussiana y de independencia. El relajamiento posterior de este supuesto permitirá observar, por comparación, su importancia en la estimación del riesgo. En todos los ajustes marginales el ancho de banda es fijado por la regla de Silverman.7
Los ajustes resultantes de aplicar las cópulas de independencia y gaussiana (ver Tablas 4 y 5) no presentan mejora alguna respecto de su benchmark o método histórico, ya que no obstante que los nuevos valores de PE muestran poca sensibilidad a los dos modelos de estructura de dependencia, las simulaciones empíricas de VaRq (columnas VaRqEmp de la Tabla 3) son ostensiblemente superiores. Esto quiere decir que las distribuciones de pérdidas simuladas con los ajustes de las cópulas de independencia y gaussiana adolecen aún de mayores problemas que su benchmark al subestimar las colas de las distribuciones de pérdidas subyacentes en cada producto y en el portafolio total. Efectivamente, como se destaca en el último renglón de las Tablas 4 y 5, los valores de VaRq son relativamente menores con las cópulas de independencia y gaussiana (4,27% y 5,04%, respectivamente) que con el método histórico (5,21%) para un nivel del 99% de confianza.
Una sugerencia para corregir la subestimación en las distribuciones de pérdidas afectadas por leptocurtosis es tratar con cópulas cuyas marginales regulen la pesadez de las colas como, en efecto, sucede con las familias t de Student (Ramírez, 2004). De entre las más socorridas por su flexibilidad y buen desempeño en aplicaciones de medición de riesgos destacan las cópulas t de Student simétricas (ver Embrechts et al., 2002).8 De acuerdo con la Tabla 6, la aplicación de esta cópula mejora las estimaciones del VaRq de los dos ajustes anteriores al arrojar resultados más cercanos a los obtenidos por el método histórico. Así tenemos, por ejemplo que para un nivel de confianza del 99%, el cuantil de la distribución de pérdidas del portafolio total es de 5,33%, esto es: una cifra apenas superior a su contraparte histórica de la Tabla 3.
Las dificultades encontradas en las estimaciones anteriores del VaRq no quedan, sin embargo, completamente superadas con la introducción de la cópula t de Student simétrica. Falta, todavía, determinar los efectos de la asimetría en la estructura de dependencia de los parámetros de riesgo y ponderar los efectos de la constancia de lGd.9 El primer problema es regularmente enfrentado con el uso de las cópulas elípticas generalizadas y el segundo con el de las cópulas agrupadas (Frahm y Junker, 2003).
Los algoritmos utilizados para estimar las cópulas elípticas y agrupadas son, básicamente, no paramétricos y están basados en la correlación de rangos y los coeficientes de dependencia de la cola. Las justificaciones para utilizarlos aquí residen en que: 1) a diferencia de su versión lineal, las correlaciones de rango proveen medidas robustas de dependencia entre variables aleatorias invariantes bajo transformaciones estrictamente crecientes que son derivadas directamente de las cópulas (ver Embrechts et al., 2002) y 2) el concepto de dependencia de la cola captura los efectos del fenómeno de valores extremos conjuntos entre los parámetros de riesgo que, de otra forma sería imposible estimar. Los procedimientos para su implementación están basados en los trabajos de Kostadinov (2005) y Frahm y Junker (2003) quienes proporcionan, respectivamente, métodos para estimar los parámetros de cópulas elípticas simétricas y generalizadas. En el Apéndice A3 se presenta el algoritmo usado para estimar los parámetros de cópulas agrupadas, que no es más que una adaptación de ambos métodos a las versiones t de Student de las familias de cópulas arriba mencionadas.
En lo que toca a las cópulas elípticas generalizadas cabe destacar que el procedimiento de modelación de la estructura de dependencia de los vectores aleatorios pPDEAD y LGD requiere, inicialmente, de ajustar las cópulas Cp y Clgd a cada producto p, tal como se especifica en el algoritmo 2 del Apéndice A3. Luego, es necesario asociar densidades kernel de suavización a las observaciones históricas de PD, EAD y LGD para construir las distribuciones marginales de los parámetros de riesgo contenidos en los vectores anteriores. Finalmente hay que definir las pérdidas (como porcentaje de su saldo) para cada cubeta i como:
y simular sus series para cada cubeta
del productop con base en las estimaciones
de los parámetros de riesgo. En la agregación de las pérdidas por producto hay que ponderar el saldo ei de cada cubeta i por el de cada producto p conforme a la siguiente fórmula:
Como paso previo y con el objeto de evaluar la asimetría en la estructura de dependencia de los parámetros de riesgo se emplea el algoritmo 1 del Apéndice A3 para estimar los índices de dependencia extrema (denotado con el parámetro a) de cada producto y no sólo del portafolio total, como en efecto acontece con los anteriores ajustes. Los resultados de la Tabla 7 muestran que los índices obtenidos para los parámetros PD y CCF son bastante diferentes entre productos. Cabe mencionar que este índice mide la ocurrencia de observaciones conjuntas extremas de tal suerte que un menor valor de a implica un mayor grado de dependencia entre las observaciones extremas conjuntas. En particular los productos H y J presentan los menores índices de la cola o, dicho de otra manera, los mayores niveles de dependencia conjunta extrema, mientras que el portafolio exhibe la situación totalmente contraria, al tiempo que los productos C, D, F y G presentan un grado de dependencia extrema similar.
Las nuevas corridas de los valores agregados de PE y de VaRq que resultan de ajustar las cópulas t simétrica y generalizada a cada producto e índice de cola a aparecen desplegados en las Tablas 8 y 9. Los valores de PE se calculan como el promedio aritmético de las observaciones obtenidas por una simulación Montecarlo mientras que los estimadores de VaRq son obtenidos por los métodos POT10 (Columna VaRqPOT), Empírico (columna VaRqEmp) y distribución Beta (VaRqBeta).11 En el Apéndice A1 se describe la implementación del cálculo de los estimadores mencionados.
Al comparar los ajustes de las dos cópulas por producto y nivel de confianza observamos que las estimaciones del VaRq son bastante parecidas en ambos casos o, dicho de otro modo, que las especificaciones de asimetría dadas por las cópulas elípticas generalizadas (Tabla 9) tienen un impacto casi nulo en la modelación de la estructura de dependencia de PD y CCF. Pero esto no quiere decir que el procedimiento haya sido estéril. Al contrario, el cálculo de los índices de la cola a por producto mejora sensiblemente las estimaciones empíricas de VaRq de las dos últimas tablas con relación a la 6. El análisis de la dependencia conjunta extrema por producto permite, de hecho, capturar efectos particulares sobre las medidas de riesgo que pasan inadvertidos cuando se utiliza un solo índice de cola para todo el portafolio.
Para profundizar más en este último punto introduciremos como instrumento de comparación a la cópula t de Student agrupada que se distingue no sólo por su capacidad de relacionar grupos de variables aleatorias sino, fundamentalmente, por mantener la diferenciación de eventos extremos entre grupos. La aplicación de esta cópula a los parámetros de riesgo PD y CCF del portafolio total incorpora la matriz de correlaciones P y los estimadores de los parámetros con ap grados de libertad para cada productop de acuerdo con el paso (i) del algoritmo 2 (véase Apéndice A3). Los resultados de la agregación de las pérdidas simuladas (pPDEAD) por producto y portafolio total se exhiben en la Figura 3 donde se muestran los histogramas de las distribuciones de pérdidas.
Al comparar la forma de los histogramas de las Figuras 2 y 3 resalta, al menos visualmente, la mayor área en la cola derecha de las distribuciones de pérdidas producida por las cópulas que modelan la dependencia conjunta extrema; lo cual quiere decir que con este tipo de cópulas es posible observar pérdidas superiores que son inapreciables con las estimaciones históricas de los parámetros de riesgos. Los efectos benéficos de esta mayor capacidad se traducen en dos ventajas sobre las anteriores dos cópulas: la posibilidad de materializar las mejores estimaciones de PE y VaRq en una medida de agregación total y la oportunidad de medir los beneficios derivados de la diversificación del portafolio.
En lo que corresponde a la primera ventaja, hay poco que agregar: la Tabla 10 proporciona estimaciones de riesgo para el portafolio total que no son provistas por las Tablas 8 y 9.12 Y esta es una diferencia muy importante. La otra ventaja se descubre al analizar los últimos dos renglones de la Tabla 10, donde se incluye, respectivamente, la suma aritmética del VaRq marginal de todos los productos ponderada por el saldo total (Total P1) y la raíz de la suma de los cuadrados de VaRq (Total P0), es decir, bajo el supuesto de correlación cero entre productos. En efecto, al comparar las estimaciones de VaRq del portafolio total al 99,5% con la suma aritmética de VaRqs individuales se obtiene una diferencia promedio de alrededor del 0,4%, que es precisamente el beneficio por diversificación.
Ahora bien, hasta aquí las comparaciones entre las estimaciones del VaRq se han llevado a cabo sólo a escala puntual y tomando como referencia el benchkmark histórico de la Tabla 3. Sin embargo, para dar cuenta de los efectos más generales que tienen las familias de cópulas ajustadas sobre los métodos de cálculo de VaRq es conveniente comparar también los intervalos de confianza de tales estimadores. En la práctica, los intervalos de confianza para las estimaciones del valor en riesgo se construyen suponiendo, entre otras cosas, normalidad y algunas propiedades asintó-ticas de la distribución de la varianza muestral (ver Dowd, 2000). En nuestro caso, la forma asimétrica de las distribuciones de pérdidas y el hecho de que los estimadores de los parámetros de las distribuciones calculados con POT y Beta son obtenidos por máxima verosimilitud nos obliga a obviar estas prácticas convencionales y a caracterizar la distribución límite de los estimadores de VaRq con métodos alternativos, tales como el "delta" o el de cociente de verosimilitud generalizado. En concreto, decidimos adoptar este último método porque permite obtener, primero, las llamadas curvas de log-verosimilitud fiducial y, luego, los intervalos de confianza, en general asimétricos, sin tener que lidiar con las deficiencias propias de la aplicación del método delta (ver Apéndice 2).13
La Tabla 11 contiene los extremos inferiores y superiores de los intervalos de confianza de las distribuciones de pérdida generadas por las cópulas multivariadas y que son usados para estimar los valores de VaR99,5% por los métodos POT y Beta.
En general, la tabla muestra que mientras la estructura de dependencia dada por la cópula t agrupada presenta los intervalos de confianza con mayor amplitud, la cópula t simétrica exhibe los más cortos. Del mismo modo, se puede señalar que aun cuando no hay diferencia entre las áreas de la cola capturadas por ambas cópulas, la t agrupada tiene el efecto de aumentar ligeramente la variabilidad de la estimación de los parámetros en los altos cuantiles y, de esa manera, capturar el efecto de escenarios más extremos. Finalmente, cabe notar que si bien los intervalos de confianza son asimétricos respecto de sus estimaciones puntuales en las Tablas 8, 9 y 10, el método POT incorpora una variabilidad superior sobre la medida de riesgo.
3.3 Pruebas de bondad de ajuste
Para establecer estadísticamente la bondad de ajuste de cada cópula se emplea el estadístico Q de formas bilineales propuesto por Panchenko (2005). Este estadístico es una medida de discrepancia entre la cópula empírica y alguna otra familia de cópulas empleada, en la que valores pequeños indican un mejor ajuste de estas últimas. En la Tabla 12 se presentan los valores promedio de las distancias Q por producto y portafolio total. Un bosquejo general sobre el cálculo de dicha medida de discrepancia entre distribuciones multivariadas aparece en el Apéndice A4.
Los valores de la estadística de prueba Q revelan que mientras la cópula t de Student agrupada ajusta muy bien los datos, las cópulas de independencia y gaussiana ofrecen, en cambio, las simulaciones más pobres de todas las familias de cópulas utilizadas. Las diferencias son notorias pues los valores de Q para estas dos últimas cópulas resultan ser de más del doble que los registrados para la t agrupada: un resultado que da pie a pensar que si se modela la estructura de dependencia de PD y CCF con la cópula t de Student agrupada y se elimina el supuesto de constancia de LGD, es posible obtener mejores estimaciones de ESq y VaRq que con los ajustes anteriores.
Los resultados de las Tablas 13 y 14 parecen confirmar tal presunción, en particular cuando se modela a LGD con la cópula simétrica t de Student. En ese caso las estimaciones obtenidas por el método POT resultan más consistentes y confiables para niveles de q cercanos a 1 que aquellas registradas por los valores históricos de la Tabla 3.14
La explicación a esta mejora reside en las propiedades asintóticas de los estimadores de VaRq y ESq obtenidos por el método POT para niveles de confianza ligeramente inferiores al 100% (Embrechts et al., 1997; y Díaz, 2003). Esto se puede comprobar al comparar entre sí las estimaciones de las medidas de riesgo VaRq y ESq de la distribución de pérdidas del portafolio total obtenidas con los métodos POT, Empírico y Beta. Las estimaciones basadas en el método POT (en gris claro) muestran consistencia con las estimaciones empíricas (en gris oscuro) cuando se utilizan niveles de confianza inferiores al 0,999 y estabilidad frente al estimador empírico para niveles de confianza superiores. Y es que una vez fijado el número de simulaciones, el estimador sólo es consistente para niveles de confianza q inferiores a los que se observan en una muestra finita, lo que produce subestimación del riesgo para valores altos de q. La situación es radicalmente distinta cuando se ajusta una distribución Beta (en negro) a las distribuciones de pérdida ya que en ese caso los valores de VaRq y ESq resultan inferiores incluso a sus correspondientes estimadores empíricos con niveles de confianza superiores al 99%.
En la Tabla 15 se incluyen los intervalos de confianza del 95% para los estimadores de las dos medidas de riesgo VaRgg5% y ESgg5% bajo los métodos POT y Beta. El primer método arroja intervalos de confianza de mayor amplitud que el segundo, y en general los estimadores de ESq presentan mayor variabilidad que el VaRq.
IV. ESTIMACIONES DEL CER Y CR BAJO MODELOS TRADICIONALES
Con el fin de probar la robustez de la metodología propuesta procederemos a comparar sus resultados con los de otros enfoques de medición de riesgo de crédito adoptados por reguladores e instituciones financieras de México en sus análisis de portafolios de consumo. En particular nos concentraremos en el modelo de incumplimiento de un solo factor del tipo KMV/CM y en el modelo de requerimiento de capital regulatorio aceptado por Basilea II (BCBS, 2004) en su enfoque avanzado de calificaciones internas (IRB).
El modelo del tipo KM/CM es regularmente utilizado para estimar el capital económico de portafolios de créditos revolventes y de consumo (RMA, 2003). Sus parámetros importantes, la correlación de activos (AVC) y de incumplimientos (LC), son usualmente calibrados con información histórica sobre las tasas de incumplimiento. Concretamente, el CERi (como porcentaje del saldo) de la cubeta i se calcula como
donde q es el nivel de confianza y PDi el valor promedio de las correspondientes tasas de incumplimiento observadas.
Los lineamientos actuales en materia de requerimientos mínimos de capital propuestos por el enfoque IRB de Basilea II en riesgo de crédito (ver BCBS, 2005), tienen su base en resultados asintóticos sobre los cuantiles de la función de pérdidas del portafolio bajo el modelo de un solo factor sistémico del tipo KMV/CM (Frey y McNeil, 2003). En particular, el IRB estima el requerimiento de capital regulatorio CRi, para cada cubeta i de créditos homogéneos en perfil de riesgo como:
donde el nivel de confianza se fija en q = 0,999 y la correlación de activos p está preestablecida según el tipo de portafolio al que pertenezca la cubeta (0,04 para tarjeta de crédito, 0,15para hipotecario y 0,03 para el portafolio de consumo) independientemente de la estructura específica del portafolio en consideración. Este enfoque regulatorio supone que la correlación de activos está determinada por el parámetro PD; sin embargo, el supuesto mismo del modelo de un factor presupone la influencia de la volatilidad de PD, especialmente para valores pequeños de ésta. No obstante que la función del parámetro p es la de incorporar la independencia entre los activos de los deudores individuales a través de su dependencia individual sobre el estado general de la economía, su determinación mediante reglas fijas puede llevar a mediciones equivocadas del verdadero nivel del riesgo del portafolio.
Al computar las medidas de CER y CR con cada uno de los modelos se encuentran los siguientes dos resultados: (1) mientras que el modelo de un factor KMV/CM arroja un CER menor que el requerimiento de capital regulatorio estipulado por Basilea II, los porcentajes de CR y CER en ambos modelos son inferiores al CER registrado por la cópula agrupada. La evidencia es expuesta en la Tabla 16 donde se exhiben los valores del CER (medido a través de VaRq) y CR obtenidos con el modelo de un factor y el VaRq y las reglas de IRB de Basilea II15 con el método POT (en donde se consideran densidades kernel con un factor de decaimiento X = 0,97).
Las diferencias entre los modelos son explicadas por varios hechos. Los valores distintos obedecen a la diversidad de criterios de información y de procedimientos en el tratamiento de las estructuras de dependencia. En efecto aun cuando la construcción de los dos modelos tradicionales es esencialmente la misma, la correlación de activos se calcula sobre bases diferentes; esto es: mientras que el enfoque de un solo factor utiliza información histórica, el enfoque IRB incorpora correlaciones de activos predeterminadas a un nivel de confianza q fijado en 0,999, como lo muestra la ecuación (11). Y esto produce cifras muy diferentes entre el CER y CR. Pero más importante aún es que ninguno de los dos enfoques modela la estructura de dependencia de los parámetros de riesgo entre cubetas de créditos del mismo producto o entre productos y, en consecuencia, ninguno incorpora los efectos de dependencia conjunta extrema, como en efecto lo hace la cópula t agrupada. Las consecuencias de esas deficiencias redundan en una subestimación de las pérdidas en el área de la cola derecha de las distribuciones subyacentes y en una omisión del efecto de diversificación del portafolio por parte de los dos modelos tradicionales.
V. CONCLUSIONES: UN BALANCE GENERAL
El documento presenta un procedimiento de cálculo del CER para un portafolio de créditos al menudeo. El objetivo es desarrollar una metodología en cuatro etapas que facilite el cómputo del CER en instituciones financieras como las mexicanas. Las etapas para el tratamiento de dicho portafolio son: (1) segmentación en cubetas y productos y estimación de parámetros de riesgo; (2) aplicación de diferentes tipos de estructuras de dependencia multivariadas; (3) pruebas de bondad de ajuste; y (4) comparación con otros métodos de estimación del CER y CR. Con excepción de la primera etapa, las restantes son cruciales para el cálculo adecuado del CER debido a que su omisión limita los alcances de la metodología.
Las conclusiones principales sostienen que, durante el desarrollo de las etapas (2) y (3), las cópulas elípticas -generalizada y agrupada- de las familias t de Student ofrecen mejores resultados en la modelación del comportamiento de las pérdidas extremas que cualquier otra estructura de dependencia comúnmente utilizada en finanzas, como es el caso de la cópula gaussiana y la de independencia.16 En concreto, el ejercicio del punto 3.3 confirma que: a) la cópula t de Student agrupada es la que presenta el mejor ajuste de todas las estructuras de dependencia, pues permite modelar la relación entre productos con diferentes índices de dependencia extrema y, como consecuencia, observar la agregación de las pérdidas del portafolio total y el beneficio del efecto de diversificación; b) las diferencias por producto entre los ajustes de la cópula simétrica y la generalizada no son significativas, aun cuando esta última incorpora parámetros de asimetría en la estructura de dependencia. Finalmente, en la etapa (4) se observa que el modelo de incumplimiento de un solo factor tiende a subestimar el CER. Para la mayoría de los productos, el modelo de un solo factor arroja un CER menor que el requerimiento de capital regulatorio estipulado por Basilea II, lo cual obedece al hecho de que mientras la correlación de activos utilizada por el primero es calculada con información histórica, en el segundo ésta es fijada con criterios regulatorios y un nivel de confianza predeterminado del 99,9%. Las estimaciones de CER en el modelo propuesto son, en general, superiores al requerimiento regulatorio que establecen las reglas de capitalización del enfoque más avanzado de IRB. La evidencia de nuestro portafolio sugiere que el capital regulatorio fijado por Basilea II puede resultar insuficiente para cubrir el capital en riesgo del banco bajo estudio al otorgar créditos al menudeo.
Como todo procedimiento estadístico, la metodología aquí propuesta no se encuentra exenta de limitaciones. Para empezar es sabido que las estimaciones de riesgo de crédito en el país están seriamente afectadas por la falta de registros de largo plazo confiables (Márquez, 2006). En nuestro caso, esta carencia afecta seriamente la efectividad de los ajustes de las cópulas o de los métodos de valores extremos debido a las propiedades asintóticas de sus estimadores. No hay duda que con una muestra mayor, la calidad de las medidas de riesgo hubiera mejorado sustancialmente y bajo supuestos más realistas. En particular se hubiera podido utilizar técnicas de series de tiempo para modelar las observaciones históricas de los parámetros de riesgo en lugar de considerarlas variables i.i.d., como se asume en los supuestos (1) y (2) del apartado 3.1. Del mismo modo hubiera sido deseable comparar los resultados de esta metodología con otros modelos propuestos para mejorar la estimación de los parámetros de codependencia (véase Chan-Lau, 2008) o para capturar los eventos extremos sin necesidad de calibrar previamente las codependencias con correlaciones de rango (Segoviano y Goodhart, 2009). En descarga de esta omisión cabe señalar que la implementación de estos modelos en portafolios de créditos al menudeo no es automática ni sencilla, pues hay que tener en mente que considera posiciones crediticias de empresas, no de personas físicas como en nuestro caso, y a un tipo y frecuencia de información que son casi imposibles de obtener para el caso de México. En cualquier caso la comparación queda pendiente como una futura agenda de investigación.
No obstante las deficiencias, el documento constituye un esfuerzo importante en la exploración de métodos que no dependen de modelos de préstamos comerciales para calcular el riesgo de portafolios de créditos de personas físicas. La combinación del uso de cópulas multivariadas con algunos resultados de la TVE es una prueba de que hay manera de tratar portafolios tan diferentes (como son los de préstamos comerciales y al menudeo) con métodos distintos. La mayor virtud de la metodología aquí expuesta es la gran flexibilidad que ofrece al administrador de riesgos para modelar no sólo la dependencia existente entre los factores de riesgo, sino también entre los grupos de créditos y productos del portafolio: un aspecto que no siempre es posible encontrar en los modelos tradicionales ya vistos o en aquellos originalmente diseñados para créditos comerciales.
NOTAS
1El único modelo de riesgo de crédito que puede considerarse, por su naturaleza y orientación, un antecedente de este documento está contenido en el excelente libro de Márquez (2006). Sin embargo, el método de estimación que este autor propone está diseñado para préstamos comerciales y con un nivel de agregación nacional que no guarda correspondencia estrecha con el contemplado por nuestra metodología.
2Por razones de confidencialidad se ha decidido mantener en secreto el origen de la fuente de información. Esta limitación no afecta, sin embargo, el alcance de los resultados ya que el método propuesto puede replicarse sin ninguna pérdida de generalidad en cualquier institución financiera.
3Las variables seleccionadas son ampliamente utilizadas por los practicantes de la industria (véase RMA, 2003). Cabe aclarar, sin embargo, que el objetivo de la metodología no depende del método de segmentación ni de las variables claves intervinientes: la validez de su aplicabilidad es independiente de las técnicas de segmentación empleadas.
4Una de las razones que explica el irregular comportamiento de los histogramas es, sin duda, el pequeño tamaño de la muestra considerada (60 observaciones).
5Para una muestra de observaciones formula el estimador de densidad kernel está dado por la función formula
6Suponer normalidad multivariada en distribuciones de exposiciones leptocúrticas tiende a subestimar el valor en riesgo de un portafolio (véase Frey y McNeil, 2003; y Hult y Lindskog, 2001).
7Esta regla permite determinar un ancho de banda h óptimo (para ajustar densidades normales) mediante la fórmula 40 formula , donde n es el número de observaciones y s la volatilidad estimada.
8Al ajustar esta cópula se asumen los mismos supuestos sobre LGD y las densidades kernel. La matriz de correlaciones se estima con la ecuación (7) tomando y formula , donde ta denota la distribución univariada de Student cuyo parámetro de grados de libertad a es estimado con el algoritmo 1 del Apéndice.
9Frahm (2003) encuentra que la presencia de asimetría es importante en la modelación de las estructuras de dependencia de los factores de riesgo de mercado. No encontramos, sin embargo, evidencia de la aplicación de la asimetría para el caso de riesgo de crédito.
10Para revisar los resultados más importantes de este método derivado de la TVE véase Embrechts et al. (1997).
11Con excepción del método POT, los otros dos son ampliamente utilizados en los análisis de riesgo de crédito. Así que una comparación entre ellos es una buena oportunidad para comprobar las bondades de dicho método para el caso particular de portafolios de créditos al menudeo.
12Las estimaciones de PE y VaRq por producto obtenidas con la cópula t de Student agrupada son muy parecidas a las desplegadas por las dos tablas anteriores debido a que se emplea una cópula t simétrica para cada producto en los tres ajustes. La diferencia es que, por construcción, la cópula t agrupada ofrece una medida consolidada del riesgo que no es posible derivar de las dos anteriores cópulas, que fueron ajustadas por producto.
13Entre las ventajas de usar este método destaca el hecho de garantizar que los intervalos resultantes se encuentren contenidos en la distribución subyacente, además de incluir en la estadística de prueba tanto la incertidumbre de ¿¡ y ¡i como de Nu/n, la cual sirve como estimador de la cola de la distribución en el método POT.
14Con el fin de estresar las distribuciones marginales del modelo, las densidades kernel se ajustan con el doble del ancho de banda empleado en los ejercicios anteriores.
15En ambos enfoques los parámetros CCF y LGD se consideran constantes y, en nuestro caso, iguales a sus valores promedios históricos.
16Además de la cópula t agrupada existen otras cópulas relacionadas con la familia t de Student como la t de Valores Extremos y la t de Cola Inferior. Sin embargo, se decidió no incluirlas porque no agregan mayor información al análisis y su manipulación es bastante complicada (Demarta y McNeil, 2004).
REFERENCIAS
BASEL COMMITTEE ON BANKING SUPERVISION (2004). International Convergence of Capital Measurement and Capital Standards: A Revised Framework, Basel Committee on Banking Supervision. http://www.bis.org/publ/bcbs107.htm
BASEL COMMITTEE ON BANKING SUPERVISION (2005). An explanatory note on the Basel II IRB risk weight functions, Basel Committee on Banking Supervision. http://www.bis.org/bcbs/ irbriskweight.htm
BIGGS, D.; B. DE VILLE y E. SUEN (1991). "A method of choosing multiway partitions for classification and decision trees", Journal of Applied Statistics 18, pp. 49-62.
BOUYE, E.; V. DURRLEMAN; A. NIKEGHBALI; G. RIBOULET y T. RONCALLI (2000). "Copulas for Finance. A Reading Guide and Some Applications", Financial Econometrics Research Centre, CUBSL, London.
CHAN-LAU, J. (2008). "Default Risk Codependence in the Global Financial System: Was the Bear Stearns Bailout Justified?" http://www.bcentral.cl/conferenciasseminarios/seminarios/index.htm
CROSBIE, P. y J. BOHN (2002). "Modelling Default Risk", KMV working paper.
CROUHY, M.; D. GALAI y R. MARK (2000). "A comparative analysis of current credit risk models",Journal of Banking and Finance 24, pp. 59-117.
DE ANDRADE, F. y L. THOMAS (2004). "Structural Models In Consumer Credit", Risk and Insurance 0407001, EconWPA.
DEMARTA, S. y A. MCNEIL (2004). "The t copula and related copulas", International Statistical Review 73 (1), pp. 111-129.
DIAZ, A. (2003). "Teoría de Valores Extremos para sucesiones de variables aleatorias dependientes", Tesis de licenciatura, UNAM.
DIKS, C.; W.R. van ZWET; F. TAKENS y J. DEGOEDE (1996). "Detecting differences between delay vector distributions", Physical Review E 53 (3), pp. 2169-2176.
DOWD, K. (2000). "Assessing VaR Accuracy", Derivatives Quarterly 6 (3), pp. 61-63.
EMBRECHTS, P.; C. KLÜPPELBERG y T. MIKOSH (1997). "Modelling Extremal Eventsfor Insurance and Finance" , Springer Verlag, Berlin.
EMBRECHTS, P.; A. MCNEIL y D. STRAUMANN (2002). "Correlation and dependency in risk management: properties and pitfalls", In Risk Management: Value at Risk and Beyond, M. Dempster, Cambridge University Press, pp. 176-223.
FRAHM, G. y M. JUNKER (2003). "Generalized elliptical distributions: models and estimation", Research Center Caesar Financial Engineering.
FREY, R. y A. MCNEIL (2003). "Dependent defaults in models of portfolio credit risk", Journal of Risk 6 (1), pp. 59-92.
HULT, H. y F. LINDSKOG (2001). "Multivariate extremes, aggregation and dependence in elliptical distribution", Research paper, RiskLab.
KOLE, E.; K. KOEDIJK y M. VERBEEK (2005). "Testing copulas to model financial dependence", Department of Financial Management, RSM Erasmus University, Rotterdam, The Netherlands.
KOSTADINOV, K. (2005). "Non-parametric estimation of elliptical copulae with application to credit risk", Research paper, Munich University of Technology. MARQUEZ, J. (2006). Una nueva visión del riesgo de crédito, Limusa, México.
MARQUEZ J. y F. LOPEZ (2006). "Un modelo de riesgo de crédito y su aplicación para realizar una prueba de estrés del sistema financiero mexicano", Estabilidad financiera 10, pp. 25-54.
MATTEN, C. (2000). Managing Bank Capital. Capital Allocation and Performance Measurement, John Wiley & Sons, New York. PANCHENKO, V. (2005). "Goodness of fit test for copulas", Physica A 355(1), pp. 176-182.
PERLI, R. y W. NAYDA (2004). "Economic and Regulatory Capital Allocation for Revolving Retail Exposures", Journal of Banking & Finance 28 (4), pp. 789-809.
RAMIREZ, J. C. (2004). "Usos y limitaciones de los procesos estocásticos en el tratamiento de distribuciones de rendimientos con colas gordas", Revista de Análisis Económico 19 (1), pp. 51-76.
RMA Capital Working Group (2003). Economic Capital Estimation: Best Practices in Retail Credit, The RMA Journal 85 (7), pp. 68-69.
SAITA, F. (2007). Value at Risk and Bank Capital Management, Academic Press Advanced Finance Series, Elsevier Inc.
SEGOVIANO, M. y C. GOODHART (2009). "Banking Stability Measures", Working Paper 09/4, International Monetary Fund.
* University of Essex, RK, y consultor en Administración de Riesgos de varias instituciones financieras de México. E-mail: adiazh@essex.ac.uk
** Profesor-Investigador del CAVEN-Rniversidad Anáhuac México-Norte y profesor afiliado del Centro de Investigación y Docencia Económicas (CIVE). E-mail: jose.ramirez@anahuac.mx
APENDICE
A 1. Estimación de las medidas de riesgo
Supóngase que X1,...,xn representan las n realizaciones independientes de la variable aleatoria de pérdidas X cuya función de distribución subyacente es F(x). Entonces para un nivel de confianza 0 < q < 1 el Valor en Riesgo y el Déficit Esperado de las pérdidas se definen como respectivamente.
Los estimadores de VaRq y ESq bajo el método POT están dados por
donde son los estimadores de máxima verosimilitud (EMV) de la distribución de Pareto Generalizada (DPG) 0^( x ) = 1 - (l + (x) , para x > 0 si |> 0 o bien para 0 < x <-(/1 si I< 0; y Nu denota el número de excesos al umbral u en la muestra. Los estimadores anteriores son consecuencia directa de un resultado central de la TVE que establece que la llamada distribución de excesos Fu (x) = P{x - u < x|x > u} se puede aproximar adecuadamente mediante Gi (x) para valores grandes de u. Para el caso de nuestra aplicación empírica, la selección del umbral u se realiza de tal manera que se minimiza Nr S ¿=1 ^ Ii - mediana (I ,...,IN ) para valores 0 < a < 1/2 donde las estimaciones de los paramétros | y B se estabilizan (ver Embrechts et al., 1997). Los umbrales cercanos al cuantil empírico del 90% resultan, en general, adecuados para cumplir el criterio anterior.
Si en vez de utilizar la DPG como aproximación a la distribución de los excesos, se ajusta una distribución Beta cuya densidad está dada por fa b (x) = xa-1 (l - x)b~l / B (a, b), 0 < x < 1, a, b > 0 donde B (a, b) = Jq1 xa-i (l - x)b-1 dx es la función beta y los parámetros a y b son estimados por máxima verosimilitud, entonces los estimadores de riesgo deberían ser calculados como:
Finalmente, si se utiliza la función de distribución empírica para aproximar los estadísticos de orden
mediante la corrección del tipo
A2. Intervalos de confianza para VaRq y ESq
El uso de las curvas de log-verosimilitud fiduciales permite determinar intervalos de confianza de VaRq y ESq para los estimadores obtenidos por los métodos POT y Beta. Si cualquiera de los estimadores dados por las ecuaciones (13) y (14) se denota comodonde O1 y O2 son los parámetros del modelo, entonces la función de verosimilitud reparametrizada
permite contrastar la hipótesis nula
A3. Algoritmos de estimación para Meta-distribuciones elípticas
Entre los numerosos procedimientos estadísticos diseñados para tratar con distribuciones elípticas, son pocos los que ajustan cópulas elípticas independientemente de sus marginales, como el desarrollado por Kostadinov (2005) y que aparece resumido en el algoritmo 1. El método permite estimar robustamente las medidas de dependencia pT y X, así como el índice de la cola a y los parámetros de la cópula t de Student agrupada. Para el caso de las cópulas elípticas generalizadas se propone el algoritmo 2 para estimar ¡u y E de acuerdo con el procedimiento sugerido por Frahm y Junker (2003).
En ambos algoritmos se considera que las realizaciones de n copias independientes del vector aleatorio X (el conjunto de los datos) están denotadas por
(i) Determinar las correlaciones tau de Kendall de cada pareja (Xi, Xj) mediante el estimador
(ii) Calcular para estimar así la matriz de correlación
(iii) Estimar los coeficientes de dependencia de la cola inferiorcomo
Algoritmo 2
(i) Estimar los parámetros (pj) y a de una distribución Elíptica Generalizada sobre el vector X usando el Algoritmo 1;
(ii) Ajustar a cada componente de Xalguna f.d. marginal F* continua. Si por ejemplo, el número de observaciones n no es muy grande, se puede utilizar un kernel de suavización;
(iii) Simular observaciones y1,..., yN de un vector Y cuya representación está dada por Y = /u + RAu ', utilizando las estimaciones de los parámetros anteriores y estructura de dependencia de dicha representación (bajo la especificación de la f.d. de la v.a. espectral R)
(iv) Construir observaciones simuladas donde
es un estimador de la f.d. de Yj, por ejemplo, se puede usar una variante de la f.d. empírica
(v) Con las observaciones simuladas las cuales incorporan la estructura de dependencia de la cópula C, construir
. Los vectores X1,...,xN son observaciones simuladas del vector original X.
A4. Prueba de bondad de ajuste para cópulas
En este apartado se presenta una prueba de bondad de ajuste no paramétrica desarrollada por Panchenko (2005) que está diseñada tanto para el caso de cópulas bivariadas como multivariadas y, además, está basada en una medida de divergencia que fue introducida por Diks et al. (1996). Dicha prueba puede ser aplicada a cualquier forma funcional de la cópula pues no requiere el uso de los estimadores de los parámetros.
, donde St denota una realización del vector aleatorio s al tiempo t.
Siguiendo la notación dada en (16), dadas Jc1 , x.2,~ ,x.n realizaciones de un vector aleatorio X, se construyen las correspondientes observaciones S1 de la cópula empírica de acuerdo con el paso (iv) del Algoritmo 2.
Sea una cierta cópula Cs cuyos parámetros han sido estimados por 6 mediante algún método estadístico, y sea S2 = ( ) . Dado que la teoría asintótica para la estadística Q está aún en desarrollo, para contrastar , se puede utilizar la técnica de bootstrap paramétrico. Para ello, se simulan m muestras S1*,...,S*m de la cópula C-6 y se