Archivo de la categoría: ESTADÍSTICA ACTUARIAL

Cotización de Excesos de Pérdida: I parte

Hola Estimados, he cambiado de sitio web para hacer mis nuevas publicaciones, por lo que los invito a visitar mi nuevo blog, el cual contiene todas las publicaciones de éste y su dirección es:

https://www.consultoriaactuarial.com/blog/

Es bien conocido que todos los años deben renovarse los contratos de reaseguro que tiene cada compañía aseguradora, y a propósito de ello les comparto varias metodologías que usan los reaseguradores para cotizar dichos contratos. La idea con esta publicación es que los encargados de hacer estas negociaciones cuenten con más herramientas y de esta manera tengan una idea de por dónde vendrá el costo del reaseguro.

ÍNDICE

I. INTRODUCCIÓN
II. COSTO DEL EXCESO DE PÉRDIDA
a) Métodos Determinísticos de cotización
-Burning Cost Puro (BCP)
-Burning Cost Indexado (BCI)
b) Métodos Estocásticos


I. INTRODUCCIÓN
Para poder cotizar los contratos no proporcionales, necesariamente volveremos a la división básica:

  • Exceso de Pérdida Operativo o Working Cover (Por riesgo)
  • Exceso de Pérdida Catastrófico
  • Exceso de Pérdida Stop Loss

La razón fundamental es que cada uno opera de manera diferente, tal y como se explicó en mi post Introducción al reaseguro de daños.

Información básica:

  • Ingreso anual de primas durante los últimos 5 años y estimación del mismo para el ejercicio venidero respecto a los negocios que deberán ser amparados.
  • Estructura del programa de reaseguro y particularmente de su línea o pleno de retención.
  • La experiencia siniestral (listado caso por caso y desde la primera unidad monetaria de los siniestros que han afectado la cobertura).
  • Perfil de cartera (Risk Profile).

Costo del reaseguro:
El costo del reaseguro se orienta, como otros sectores económicos, al precio que determina el mercado internacional de acuerdo a la fórmula tradicional de oferta y demanda.

Los diferentes modelos de cálculo existentes para determinar el precio de las coberturas de reaseguro consideran aspectos y conceptos básicos como:

  • Costo de siniestros pasados (experiencia siniestral)
  • Potencial de pérdidas futuras (exposición)
  • Costos propios del reasegurador y especialmente el costo del capital a riesgo (expectativa de ganancia por el capital a riesgo puesta a disposición por los accionistas del reasegurador), mejor conocido como “El retorno de capital”.

II. COSTO DEL EXCESO DE PÉRDIDA
La prima (costo) del Exceso de Pérdida es la cantidad de dinero que el reasegurador necesita para la cobertura que otorga a la cedente. Ésta se compone de tres partes principales:

  • La prima de riesgo, que debe cubrir el costo promedio de siniestros a cargo de la cobertura.
  • La prima de fluctuación, que cubre las desviaciones de la siniestralidad promedio.
  • El margen para gastos de administración y la utilidad del reasegurador.

La prima total obtenida es convertida, por razones de orden práctico, en un porcentaje que se aplica al volumen de los negocios cubiertos.

1. Exceso de Pérdida Operativo o Working Cover (por riesgo)

a) Métodos Determinísticos de cotización:
Estos métodos de cotización consisten en el cálculo de la prima necesaria para el reasegurador, en base a la experiencia de la cedente, mediante la comparación de la prima y los siniestros del pasado, proyectándolos al año de cotización. Es necesario tener una experiencia de siniestralidad suficiente para estimar los Burning Cost. Aunque existen más métodos, en esta ocasión expondré los dos más aplicados por su practicidad:

  • Burning Cost Puro (BCP)
  • Burning Cost Indexado (BCI)


Burning Cost Puro (BCP)
Consiste en comparar las primas recaudadas durante los años precedentes por la aseguradora en el ramo al que vaya a aplicarse la cobertura de reaseguro, con el importe de los siniestros que hubieran sido a cargo del reasegurador durante esos años, si hubiese existido en tales ejercicios una cobertura de reaseguro análoga a la que se pretende aplicar. El BCP es el porcentaje que resulta al dividir los siniestros a cargo del tramo por las primas de la cartera protegida.

Se requieren los siguientes datos para poder calcular el BCP:

  • El desarrollo de la prima de la cartera protegida y su estimación para el año de cotización.
  • Los siniestros individuales

Los cálculos a seguir serían:
* Calcular la parte de los siniestros individuales al tramo.
* Calcular el BCP por año:

Imagen 1

* Calcular el BCP global:

Imagen 2

Por supuesto, si quitamos o añadimos un año de suscripción al cálculo del BCP tendríamos un resultado diferente.

Para simplificar nuestros cálculos la tasa comercial es solamente el Burning Cost recargado en un 25%. Como dijimos al inicio, este recargo podría dividirse de la forma siguiente:

Imagen 3

Imagen 4Imagen 5Imagen 6Imagen 7Imagen 8Imagen 9


Burning Cost Indexado (BCI)
Como se dijo anteriormente, en el cálculo del BCP se busca el importe de los siniestros que hubieran sido a cargo del reaseguradora durante esos años, si hubiese existido en tales ejercicios una cobertura de reaseguro análoga a la que se pretende aplicar. Pero si esos siniestros hubieran ocurrido hoy, seguramente habrían sido más caros solamente porque existe inflación. Por ejemplo, para una cobertura de incendio, el coste de la reconstrucción sería una buena referencia como inflación.

También los cambios normativos, legales o la inflación de los costes médicos pueden obligar al reasegurador a reactualizar los siniestros pasados con una superinflación.

De la misma forma podemos revalorizar la prima debido a la inflación y a los cambios en las tasas originales. Esta actualización de los siniestros y de la prima se hará en dos etapas:

Primero calcular los factores de ajuste para actualizar la prima y los siniestros:

Factor 1

El segundo paso consiste en indexar las primas y los siniestros pasados:

Factor 2

Una vez indexada la prima y los siniestros seguimos los mismos pasos ya explicados en el BCP.

Imagen 10

Imagen 11

Imagen 12Imagen 13Imagen 14Imagen 15Imagen 16


b) Métodos Estocásticos:
El método que abordaremos es el de cotización por ajuste a una función de distribución.

Este método consiste en estimar la siniestralidad agregada del reasegurador por medio de un modelo estadístico creado a partir de dos distribuciones de probabilidad que conforman una distribución compuesta. El origen de este modelo es la Teoría del Riesgo Colectivo, la que básicamente establece que el agregado de las pérdidas de una cartera de pólizas de seguro es la suma de todas las pérdidas ocurridas en el portafolio.

El cálculo de las siniestralidades agregadas se obtiene con base a la distribución de frecuencias de las pérdidas (número de siniestros) y la función de probabilidad de la severidad económica de las pérdidas (monto de cada siniestro). Para simular el número de siniestros se utilizó la Poisson.

En la simulación del costo de un siniestro se utilizó la información histórica con el objetivo de obtener un estimador de la función de densidad de probabilidad que mejor se ajustara a la experiencia, y para ello se utilizaron las funciones kernels. Un kernel es una función de densidad, en consecuencia, si se coloca un kernel en cada uno de los datos de la muestra, la suma ponderada de estas funciones también será una función de densidad de probabilidad. Esta suma es una función continua que suaviza el perfil de la distribución captando la influencia de los datos cercanos y constituye el estimador del modelo teórico del cual provienen los datos.

Imagen 17

Siniestros individuales con importe superior a la prioridad

Imagen 18

El primer paso fue construir la información histórica del número de siniestros incurridos anualmente, tal como se muestra a continuación:

Extra 1

Con los datos anteriores se procedió a ajustar la función de distribución Poisson para estimar el número esperado de siniestros del próximo año. Luego se corrieron 50,000 iteraciones y con ello se construyó la función de distribución, la cual reflejó que el número esperado de siniestros es de aproximadamente 2, con un número máximo de 9, tal y como refleja el siguiente gráfico:

Extra 2

El siguiente paso consistió en determinar la función de distribución que mejor se ajustara al monto de cada uno de los siniestros, sin embargo, como referencia se construyó la estadística del monto anual de los siniestros incurridos a cargo del reasegurado para el período en estudio, siendo ésta:

Extra 3

A la base de datos de cada uno de los siniestros se aplicó la distribución de probabilidades no paramétricas llamada kernels (para más información sobre este tema puede ver mi post El análisis estadístico de grandes masas de datos: Algunas tendencias recientes), cuyos resultados se muestran a continuación:

Imagen 19Kernel extra

Con el gráfico anterior puede verse el cálculo de distintos valores de la variable con sus correspondientes densidades, a los que se le asignó la función General del @Risk para construir la función respectiva.

Ya con las dos funciones de distribución necesarias, tanto del número de siniestros como del monto de cada siniestro, se generaron 50,000 iteraciones para calcular la siniestralidad agregada esperada del reasegurador, cuyo monto es de 778,894.33 con una Pérdida Máxima Probable (PML) al 99.5% de 4,544,899.17. Dichos resultados se reflejan en el siguiente gráfico:

Resultado

De tal manera que la siniestralidad esperada con su correspondiente margen de seguridad es de 908,748.59.

Imagen 20

Fuente:

  • Seminario de reaseguro. Reaseguradora Patria, S.A.B.
  • Introducción al reaseguro. Fundación MAPFRE.

EL MODELO DE DISTRIBUCIÓN DE PÉRDIDAS AGREGADAS: Una aplicación del riesgo operacional

Por considerarlo un modelo de amplia aplicación en los seguros, les comparto el siguiente artículo esperando les sea útil en su trabajo y estudio como actuarios.

AUTORES:

JOSÉ MANUEL FERIA DOMÍNGUEZ
PROFESOR DE ECONOMÍA FINANCIERA Y CONTABILIDAD
DEPARTAMENTO DE DIRECCIÓN DE EMPRESAS
UNIVERSIDAD PABLO DE OLAVIDE
Ctra. de Utrera, km. 1, 41013 (SEVILLA)

ENRIQUE JOSÉ JIMÉNEZ RODRÍGUEZ
PROFESOR DE ECONOMÍA FINANCIERA Y CONTABILIDAD
DEPARTAMENTO DE DIRECCIÓN DE EMPRESAS
UNIVERSIDAD PABLO DE OLAVIDE
Ctra. de Utrera, km. 1, 41013 (SEVILLA)

JOSÉ LUIS MARTÍN MARÍN
CATEDRÁTICO DE ECONOMÍA FINANCIERA Y CONTABILIDAD
DEPARTAMENTO DE DIRECCIÓN DE EMPRESAS
UNIVERSIDAD PABLO DE OLAVIDE
Ctra. de Utrera, km. 1, 41013 (SEVILLA)

ÍNDICE
I. INTRODUCCIÓN
II. MARCO TEÓRICO
1. La medición del riesgo operacional
2. La Pérdida operacional
3. Pérdidas Esperadas y No Esperadas
4. Severidad y Frecuencia
III. EL MODELO DE DISTRIBUCIÓN DE PÉRDIDAS (LDA)
1. El Valor en Riesgo Operacional (OpVaR)
2. El proceso metodológico de la LDA
3. Ajuste de la Distribución de Frecuencia
4. Ajuste de la Distribución de Severidad
5. El efecto de la diversificación
IV. UNA APROXIMACIÓN AL CaR POR SIMULACIÓN MONTECARLO


I. INTRODUCCIÓN
Aunque el riesgo operacional es inherente al negocio bancario y no puede ser eliminado en su totalidad, sí puede ser gestionado, controlado y, en determinados casos, asegurado. En esta línea, la gestión de dicho riesgo no es una nueva práctica; siempre ha sido primordial para la banca tratar de prevenir el fraude, mantener la integridad de los controles internos y reducir los errores en el procesamiento de las transacciones. Para ello, áreas de soporte como la de Organización elaboran, para determinados procesos de la entidad, procedimientos de trabajo que, entre otros aspectos, contemplan los controles y las verificaciones oportunas que permitan el desarrollo de productos y servicios con la menor cuota de riesgo posible. Sin embargo, sí resulta novedosa la concepción del riesgo operacional como una disciplina específica integrada en la gestión global de riesgos de la entidad- en armonía con el control del de crédito y el del mercado- según recomienda el Comité de Supervisión Bancaria de Basilea en el Nuevo Acuerdo de Adecuación de Capital [Basel, 2004]. Así, unas de las principales novedades que recoge el texto es la inclusión de requerimientos de capital regulatorio por dicho riesgo; de esta forma, el nuevo coeficiente de solvencia del 8%- véase Vargas [2001] y Álvarez [2001]- incluye en su denominador el riesgo operacional (un 20% sobre el 8%), y se define tal y como se ilustra a continuación:

Imagen 1

Hasta la publicación de la nueva propuesta de requerimientos de capital, no existía una definición ampliamente consensuada de riesgo operacional. Por éste se entendía: “todo aquello que no era ni riesgo de crédito, ni riesgo de mercado” [Hoffman, 1998:29]. En consecuencia, el Comité [2004: 128], como punto de partida para su gestión y control, normaliza dicho concepto definiéndolo explícitamente como: “el riesgo de pérdida resultante de una falta de adecuación o un fallo de los procesos, el personal y los sistemas internos o bien de acontecimientos externos”. Esta definición incluye el riesgo legal o jurídico, pero excluye el riesgo estratégico y el riesgo de reputación. Por otro lado, la incorporación del riesgo operacional en el coeficiente de solvencia ha promovido que los bancos con sistemas de control menos sofisticados comiencen a administrar más eficazmente este riesgo y que aquellas entidades que ya aplicaban modelos avanzados hayan alcanzado estadios superiores en sus metodologías de medición. No obstante, el desarrollo de estas técnicas sigue un proceso dinámico, de tal manera que la industria financiera continúa realizando sustanciales esfuerzos para su perfeccionamiento. Dicho dinamismo se fundamente en dos aspectos: por un lado, la inmadurez de las propias metodologías, de las cuales aún no existen reportes robustos sobre su fiabilidad y eficacia; y en segundo término, la propia flexibilidad que concede el Comité en cuanto a las técnicas de cálculo de capital regulatorio se refiere y, en particular, a las metodologías de medición internas. A tal efecto, la recomendación del Comité consiste en cursar un proceso secuencias a lo largo de la gama de métodos disponibles, conforme se desarrollen sistemas y prácticas de medición más sofisticadas. Aunque, cabría señalar que el desarrollo y utilización de técnicas más avanzadas a depender, en gran medida, de la disponibilidad de datos internos de pérdidas operacionales.

En este trabajo, nos detenemos, de manera especial, en evaluar el Modelo de Distribución de Pérdidas (Loss Distribution Approach, LDA), ya que éste apoyado en el concepto de Valor en Riesgo Operacional (Operational Value at Risk, OpVaR), aparece el enfoque mejor posicionado para el cálculo del capital en riesgo (Capital at Risk, CaR). De esta forma, para testar el enfoque LDA, seleccionaremos dos líneas de negocio bancario para las cuales aproximaremos el CaR utilizando la metodología de Simulación de Montecarlo. Para estimar los parámetros estadísticos de las distribuciones de pérdidas nos fundamentaremos en el estudio efectuado por el Comité [2002] sobre las pérdidas operaciones acaecidas en el sector bancario a nivel internacional, véase el apéndice C. Los resultados emanados de dicho trabajo servirán de referencia a la hora de proyectar el perfil de riesgo de las unidades de negocio elegidas. Por último, en función de la correlación existente entre las diferentes categorías de riesgo operacional, examinaremos el efecto mitigados de la diversificación en la cuantificación del CaR; aspecto recogido explícitamente por el comité [2006ª: 152] en su Nuevo Acuerdo.

II. MARCO TEÓRICO

1. La medición del riesgo operacional
La medición –en términos de capital económico- se convierte en el aspecto más complejo y, a la vez, más trascendental en el tratamiento del riesgo operacional. El Comité de Basilea [2001b] propone tres enfoques para calcular los requerimientos de capital por dicho riesgo que, de menor a mayor grado de sofisticación y sensibilidad el riesgo, son: (1) el Método del Indicador Básico (Basic Indicator Approach, BIA); (2) el Método Estándar (Standardised Approach, SA); y (3) las Metodologías de Medición Avanzada (Advanced Measurement Approach, AMA). A su vez, dentro de los modelos AMA se describen tres metodologías el Modelo de Medición Interna (Internal Measurement Approach, IMA); los Cuadros de Mando (Scorecards); y el Modelo de Distribución de Pérdidas (Loss Distribution Approach, LDA). Véase al respecto la figura 1.

Imagen 2

Los enfoques Básico y Estándar se conciben como metodologías top-down [Basel, 2001b: 3]; de esta forma ambos cubren el riesgo con un capital equivalente a un porcentaje fijo de los ingresos brutos, variable que se utiliza como aproximación al tamaño o nivel de la exposición al riesgo operacional de una entidad de crédito. La principal diferencia entre uno y otro método estriba en que en el Estándar el total de capital requerido se calcula como la suma de las necesidades de capital regulador de cada una de las ocho líneas de negocio descritas por el Comité [2006: anexo 8]. Por el contrario, las metodologías AMA se engloban dentro de los llamados enfoques bottom-up; ya que calcula el capital económico a partir de datos internos de pérdidas distribuidos por su tipología y unidad de negocio; tras este cálculo específico se computa el capital para el banco en su conjunto. En cuanto a la aplicación del Método Estándar y las metodologías AMA, el Comité [2006ª: 145-155] propone que las entidades cumplan unos criterios de admisión específicos que deberán ser validados por el supervisor [véase Banco de España, 2006a]. En cambio, se pretende que el Método del Indicador Básico –siempre y cuando se sigan las directrices del documento “Sound Practices for the Management and Supervisión of Operational Risk” [Basel, 2003]- sea aplicable a cualquier banco, independientemente de la complejidad de sus actividades, constituyendo así un punto de partida en el proceso de cálculo de capital [Jiménez y Martín, 2005].

2. La Pérdida operacional
Una condición sine qua non en la gestión y control del riesgo operacional es la elaboración y desarrollo de una base de datos interna de pérdidas operacionales (BDIPO); pues, como sugiere Nieto [2005; 174], son éstas las que mejor proyectan el perfil de riesgo de la entidad. En consecuencia, los bancos deben instrumentar los mecanismos necesarios para realizar un seguimiento efectivo de sus eventos de pérdidas operacionales; contemplando al mismo tiempo los requisitos mínimos de calidad establecidos por el Comité [2006a: 152-153] para el desarrollo de las BDIPO.

3. Pérdidas Esperadas y No Esperadas
En pro de una homogénea categorización de la pérdida en el sector bancario se antoja necesario utilizar la clasificación propuesta por el Comité [2006a: anexo 9] la cual identifica siete categorías de riesgos operacionales. Pero, en un sentido más amplio, las pérdidas operacionales podemos fragmentarlas en: esperadas (expected loss) y no esperadas (unexpected loss). Así pues, el conjunto de pérdidas operacionales esperadas recogerá todas aquellas mermas, previsibles y habituales, intrínsecas a la actividad ordinaria de la entidad. Por tanto, si se presentan como un coste más del negocio, deberían estar repercutidas implícitamente en el precio final de los productos y servicios; o, en su defecto, en un sentido más estricto, deberían provisionarse. Un ejemplo a colación, bastante preciso de este tipo de pérdidas, serían las “diferencias de caja” registradas, casi a diario, en las oficinas bancarias, pero por importes, generalmente, baladíes. De otra parte, las pérdidas no esperadas se referirán a sucesos no previstos inicialmente por la entidad que, sin embargo, pueden desencadenar situaciones funestas para la institución dada la magnitud del quebranto. En primera instancia, el Comité sugiere su cobertura mediante el uso de los Fondos Propios –de ahí la inclusión del riesgo operacional como un elemento más del denominador del coeficiente de solvencia de la entidad–. No obstante, existen determinados peligros con una dimensión catastrófica, para los cuales habrá que articular medidas adicionales como la traslación de riesgos utilizando contratos de seguros.


4. Severidad y Frecuencia
Independientemente de la previsión o no de la pérdida, a la hora de identificarla, es preciso definir dos parámetros: por un lado, la severidad, o cuantía monetaria de la pérdida; y, por otra parte, la frecuencia con que se repite el suceso durante un período de tiempo establecido o, dicho de otra manera, la probabilidad de que acontezca ese evento. En la medida en que ambas variables se suponen estadísticamente independientes, son modeladas por separado. En un sentido amplio, en el histórico de pérdidas operacionales de una entidad de crédito se registrarán un elevado número de eventos que provoquen pérdidas de pequeña magnitud –por ejemplo,las mencionadas “diferencias de caja”–. Pero, dada la aún poca profundidad de las BDIPO, para sucesos de baja o media frecuencia pero elevada severidad, la información que posee una sola entidad es, cuanto menos, insuficiente para modelar con robustez estadística la distribución de pérdidas operacionales. Por ello, el Comité [2006a: 153-154] permite complementar los datos internos con la utilización de bases de datos de pérdidas externas que agreguen información sobre estos sucesos, que posiblemente la entidad no haya experimentado, pero a los que sí está expuesta. A tal efecto, el banco debecontar con un proceso sistemático que determine bajo qué circunstancias se justifica la utilización de datos externos y qué metodologías se emplearán para su calibración con los internos [véase Baud et al., 2002]. Por otro lado, como subrayan Guillen et al. [2007], no podemos ignorar el fenómeno conocido por under-reporting, éste consiste en obviar o no identificar determinadas pérdidas generadas por fallos operacionales, de tal forma que, por ejemplo, 6 pequeñas pérdidas con alta frecuencia no son computadas a la hora de calcular el cargo de capital, aunque su agregación bien pudiera constituir una seria amenaza para la solvencia de la entidad.

Imagen 3

III. EL MODELO DE DISTRIBUCIÓN DE PÉRDIDAS (LDA)

1. El Valor en Riesgo Operacional (OpVaR)
El enfoque LDA (Loss Distribution Approach) es una técnica estadística, heredada del ámbito actuarial [véase Bühlmann, 1970], que tiene como objetivo la obtención de una función de distribución de pérdidas agregadas. El modelo se establece sobre la información de pérdidas históricas, registradas en base a la matriz que conforman las ocho líneas de negocio y los siete tipos de riesgos estandarizados por el Comité. En total 56 casillas para cada una de las cuales debemos estimar, por un lado, la distribución de la frecuencia y, por otro, la de la severidad. Una vez definidas éstas, el siguiente paso consiste en obtener la distribución de pérdidas agregadas por riesgo operacional adscrita a cada celda. Para el cálculo del capital regulatorio, vinculado a cada casilla, se aplica el concepto de Valor en Riesgo (Value at Risk, VaR) al contexto del riesgo operacional, adoptando la nomenclatura de OpVaR (Operational Value at Risk). El OpVaR representa un percentil de la distribución de pérdidas por lo que es, ante todo, una medición de tipo estadístico y, por consiguiente, requiere el establecimiento, a priori, de una serie de parámetros:

a) Un intervalo o nivel de confianza asociado al cálculo. A efectos de cálculo de capital, el Comité [2006a: 151] es explícito estableciendo para tal efecto el 99,9%.

b) Un plazo, o unidad de tiempo, al cual va referido la estimación. En relación al riesgo de mercado, la determinación de dicho parámetro no es arbitraria, sino que se encuentra vinculada a la naturaleza de la posición, así como al período de tiempo necesario para su liquidación o cobertura. El Comité [2006a: 151] indica que, en el caso del riesgo operacional, la estimación debe de ir referida a un horizonte temporal de un año.

c) Una moneda de referencia. El OpVaR de una línea de negocio se expresa en unidades monetarias. Este hecho convierte a dicha variable en una magnitud intuitiva y fácilmente comprensible para sus potenciales usuarios (reguladores, supervisores, gestores de riesgos, etc.) quienes podrán tomar decisiones en consecuencia.

d) Una hipótesis sobre la distribución de la variable analizada. El Comité [2001b: 34], en documentos anteriores a la publicación del Nuevo Acuerdo, proponía la distribución Lognormal para aproximar la severidad, mientras que para la frecuencia se decantaba por la de Poisson. No obstante, en última instancia, las distribuciones seleccionadas deben ser aquellas que mejor se ajusten al histórico de pérdidas observadas en una entidad, cuya naturaleza, obviamente, puede ser muy distinta a la de otras entidades.

En definitiva, podríamos interpretar el OpVaR como una cifra, expresada en unidades monetarias, que nos informa sobre la mínima pérdida potencial en la que podría incurrir una determinada línea de negocio, i, por tipología de riesgo operacional, j, dentro de un horizonte temporal de un año y con un nivel de confianza estadístico del 99,9%. Véase a este respecto la figura 2:

Imagen 4

2. El proceso metodológico de la LDA
Como introducimos al comienzo de este apartado, las metodologías LDA se nutren de las bases de datos internas de pérdidas, completadas con datos externos y desglosadas en la matriz “líneas de negocio/tipo de riesgo”. Bajo el supuesto de que las severidades son independientes entre sí, y éstas, a su vez, independientes de la frecuencia, se procede al modelado por separado de ambas variables.

3. Ajuste de la Distribución de Frecuencia
La variable aleatoria N(i,j)simbolizará el número de eventos ocurridos en una línea i debidos a un tipo de riesgo j; en un horizonte temporal (τ) de un año; con una función de masa pi,j. Esta variable discreta representa la frecuencia de las pérdidas cuya función de distribución, Pi,j, se expresa como:

Imagen 5

Según autores como Frachot et al. [2003], Mignola y Ugoccioni [2005] o Carrillo y Suárez [2006], la distribución de Poisson –utilizada con éxito en las técnicas actuariales de seguros– es una candidata con muchas ventajas a la hora de modelar la frecuencia. Dicha función se encuentra caracterizada por un único parámetro, lambda (λ),el cual representa, por término medio, el número de sucesos ocurridos en un año. Asimismo, conviene contemplar otras alternativas como la distribución Binomial o la Binomial Negativa(véase apéndice A).

4. Ajuste de la Distribución de Severidad
Una vez definida la frecuencia, nominamos a la variable aleatoria que representa la cuantía de pérdida, en adelante, severidad, como X(i, j), siendo, Fi,j, su función de probabilidad. De esta forma, habrá que determinar los parámetros de dicha distribución probabilística que mejor encajen con los datos observados. Para esta labor, como ya se indicó en líneas anteriores, el Comité [2001b: 34] propuso, en un principio, la distribución Lognormal; si bien, existe un conjunto de distribuciones paramétricas que pueden ser válidas para tal aproximación, véase alrespecto apéndice B. Así pues, Fontnouvelle et al.[2004] incluyen la Pareto; Böcker y Klüppelberg [2005] proponen la Weibull; Carrillo y Suárez [2006] añaden a éstas la Gammay coinciden con Mignola y Ugoccioni [2006] en contemplar, además de las señaladas, la función de distribución Burrcomo alternativa a la hora de modelar la severidad.

Los valores específicos de los parámetros de cada distribución se estiman por Máxima Verosimilitud (ML, Maximum Likelihood), método propuesto por Fischer [1890-1962]. Una vez fijados los parámetros, deberemos evaluar qué distribución se ajusta mejor a los datos empíricos, para lo cual utilizamos distintos contrastes estadísticos con los cuales calibramos la Bondad de ajuste (GOF, Goodness-of-Fit). Moscadelli [2004] plantea realizar dicho test en función del grado de curtosis de la distribución. De esta manera, propone comenzar por distribuciones de cola suave como la Weibull; en segundo lugar, testar aquellas distribuciones de cola media o moderada, entre otras la Lognormalo la Gumbel; y, por último, distribuciones, como la Pareto, caracterizada por presentar colas anchas (fat tails). Siguiendo a Chernobai et al.[2006], el contraste estadístico viene simbolizado por una hipótesis nula, H0: la distribución observada de pérdidas operacionales (Fx) , se ajusta a la distribución teórica (¨Fx); y una hipótesis alternativa, HA, que rechaza la primera:

Imagen 6

Para realizar este análisis inferencial, podemos apoyarnos en los siguientes tests estadísticos: Kolmogorov–Smirnov (K-S), Anderson–Darling (A-D), Smirnov–Cramér–Von Mises o Kuiper; analizados y detallados en Chernobai et al.[2005], D’Agostino y Stephens [1986] y Schwarz [1978]. A pesar de que la mayoría de funciones propuestas para modelar la severidad suelen ajustarse bien a los datos centrales (cuerpo de la distribución), éstas, sin embargo, tienden a subestimar la cola. Además, la asimetría de la distribución empírica hace que la estimación de los parámetros se encuentre fuertemente influenciada por el cómputo de observaciones situadas en la zona media y central de la distribución real, atenuando el grado informativo de aquellos datos situados en el extremo y, en consecuencia, dando lugar a una infraestimación de los percentiles. Llegados a este punto, hay que destacar que la principal dificultad en el modelado del riesgo operacional estriba en el comportamiento extremo de dichas colas de distribución. Carrillo [2006] asevera que, en un sentido amplio, más del 90% del capital se debe a un número muy reducido de sucesos; asimismo, el suceso de mayor cuantía de pérdida puede llegar a estar a más de 30 desviaciones típicas de la media de la distribución. Esta apreciación nos conduce a la aplicación de la Teoría de Valores Extremos (EVT, del inglés Extreme Value Theory) que analiza el comportamiento extremo delas variables aleatorias [véase Gumbel, 1935 y Embrechts et al.,1997]. Dicha metodología, en relación al cómputo del CaR, concede un mayor peso a las colas de la distribución; así pues, a la hora de modelar los datos de pérdidas sólo se utilizarán aquéllos que superen un umbral de pérdida elevado –el Comité [2006a: 153] propone 10.000 euros–. Esta premisa concede un notable grado de sensibilidad del modelo a la elección del umbral y al número de observaciones de pérdidas extremas (véase la discusión a este respecto de Carrillo y Suárez, 2006). Asimismo, Mignola y Ugoccioni [2005] y Chernobai et al.[2006] advierten de las posibles inconsistencias sobre las estimaciones de capital resultantes; estos autores hacen, especial hincapié, en el riesgo de sobrestimación del CaR, dado el percentil utilizado (99,9%). Por todo lo anterior, no es de extrañar que muchos autores sugieran la necesidad de recurrir a mixturas de distribuciones como, por ejemplo, la Lognormal-Gamma[Mignola y Ugoccioni, 2006] o Lognormal-Pareto[Carrillo y Suárez, 2006] a la hora de modelar las pérdidas operacionales.

Como ya hemos apuntado, la severidad es una variable continua mientras que la frecuencia sólo toma valores discretos. Por consiguiente, si queremos obtener la Distribución de Pérdidas Agregadas a partir de sendas distribuciones, debemos proceder, previamente, a la discretización de la severidad. Carrillo [2006] señala dos procedimientos para discretizar la severidad:

i. El método de concentración, el cual consiste en definir una malla de puntos y concentrar, en cada uno, la masa probabilística de la región circundante.

ii. El método de los momentos locales, más desarrollado que el anterior, impone dos condiciones: que la media y la varianza de la variable continua coincidan con la de la variable discretizada.

Imagen 7

Para la obtención de la función de pérdidas agregada G(x) se proponen cuatro posibles técnicas:

a) La Transformada Rápida de Fourier (Fast Fourier Transforms, FFT) ;[véase Klugman et al 2004 : cap. 6].

b) El Algoritmo Recursivo de Panjer [1981].

c) Enfoque de Simulación por Montecarlo, [véase Klugman et al2004: cap. 17].

d) La Aproximación de la Pérdida Simple (the Single-loss Approximation) [véase Böcker y Klüppelberg, 2005].

Una vez determinada la función de distribución agregada, para el cálculo del capital regulatorio vinculado a cada casilla, basta aplicar el concepto de Valor en Riesgo Operacional (OpVaR), es decir, calcular el percentil del 99,9% de dicha distribución. En sentido estricto, según advierte el Comité [2006a: 151], el capital económico (CaR) debería cubrir, a priori, sólo la pérdida no esperada (UL):

Imagen 8

Gráficamente, el proceso metodológico hasta aquí expuesto para la obtención del CaR se ilustra a través de la figura 3:

Imagen 9

5. El efecto de la diversificación
Hasta ahora, hemos operado bajo el principio de dependencia perfecta; en consecuencia, hemos aproximado el capital económico para el conjunto de la entidad como la simple suma del CaR de las diferentes celdas de la matriz. Esta presunción nos llevaría, al igual que en el enfoque Estándar [véase, Jiménez y Martín, 2005:60], a un modelo unifactorial caracterizado por una única fuente de riesgo, la variable aleatoria z. Así pues, la pérdida de cada una de las 56 casillas se cuantifica en función de su sensibilidad, βij, a dicha variable:

Imagen 10

Este esquema se aleja de la realidad, en un sentido estricto; ya que, si bien, es patente la existencia de riesgos con cierto grado de correlación –por ejemplo, el fraude interno y el externo– no es menos evidente que también subyacen riesgos cuyo coeficiente de correlación es claramente nulo o, cuando menos, discutible –por ejemplo, entre el fraude interno y los daños a activos físicos–. La hipótesis de dependencia perfecta acrecienta el grado de conservadurismo en el cálculo de capital, al no contemplar el efecto mitigador de la diversificación [véaseMarkowitz, 1952 y 1959]. Sin embrago, dicho efecto, en última instancia, dependerá del grado de subaditividad del OpVaR.

Según Artzner [1999] una medida coherente del riesgo debe cumplir una serie de propiedades, entre ellas la de subaditividad. En términos de OpVaR ello se traduce en:

Imagen 11

No obstante, McNeil et al. [2005] y Chavez-Demoulin et al.[2005] advierten una serie de características en las funciones de distribución de pérdidas (Lk) –asimetría extrema, colas pesadas y especial dependencia– que podrían provocar la ruptura del principio de subaditividad, fenómeno éste conocido con el nombre de superaditividad (superadditivity). En este caso, sucede justamente lo contrario, es decir, el todo es mayor que la suma de las partes, esto es:

Imagen 12

Llegados a este punto, debemos subrayar que bajo el supuesto de no subaditividad del OpVaR, las metodologías AMA podrían perder cierto atractivo, por cuanto, pudiera darse la circunstancia de que el CaR calculado con dicho enfoque fuese superior al determinado a través del Método Estándar o incluso del Básico. Consciente de ello, el Comité [2006a: 152] examina la posibilidad de incluir el efecto diversificación en el cálculo de los requerimientos de capital, aseverando textualmente que: “(…) el banco podrá estar autorizado a utilizar estimaciones internas sobre las correlaciones de pérdidas por riesgo operacional que existen entre las distintas estimaciones del riesgo operacional, siempre que pueda demostrar al supervisor nacional que sus sistemas para determinar las correlaciones resultan adecuados, se aplican en su totalidad y tienen en cuenta la incertidumbre que rodea a dichas estimaciones de correlación (especialmente en periodos de tensión). El banco deberá validar sus supuestos de correlación utilizando las técnicas cuantitativas y cualitativas más adecuadas”. En esta línea, la correlación entre las pérdidas agregadas de dos tipos de riesgo viene determinada, a su vez, por la dependencia que pueda existir entre las frecuencias o entre las severidades de las mismas o entre ambas. De esta forma, siguiendo a Frachot et al.[2004] y la notación anteriormente empleada, vamos a analizar, en un sentido genérico, la correlación entre dos tipos de riesgos diferentes. Así, L1 y L2, representarán la pérdida agregada de cada tipo de riesgo y L la pérdida agregada a nivel de la entidad, de esta forma:

Imagen 13

donde Ni simboliza la frecuencia anual de sucesos. Por lo que, estando N1y N2 perfectamente
correlacionadas y asumiendo que la frecuencia sigue una Poisson de parámetro, λ, entonces: λ1=λ2=λ. En la práctica, la correlación entre la frecuencia de dos tipos de riesgos vendrá condicionada por la sensibilidad de ambas a un determinado factor (por ejemplo, el volumen de negocio o el ciclo económico). Para cuantificar dicho grado de dependencia con solidez habrá que apoyarse en una base histórica de pérdidas amplia. En cuanto a la severidad, uno de los principios básicos del modelo LDA es asumir que las cuantías de las pérdidas registradas en una casilla de la matriz son independientes, entre sí. Por lo que, partiendo de esta premisa, es difícil concebir que si no hay correlación entre las severidades de las pérdidas dentro de un mismo tipo de riesgo, si la haya entre las severidades de dos categorías de riesgos distintos. Por tanto, la correlación de la pérdida agregada se debería computar, principalmente, en función del grado de dependencia de las frecuencias observadas:

Imagen 14

Imagen 15

IV. UNA APROXIMACIÓN AL CaR POR SIMULACIÓN MONTECARLO

1. Metodología y variables
Para ilustrar y contrastar el proceso metodológico expuesto para el cálculo del capital económico mediante el enfoque LDA, hemos desarrollado, por Simulación de Montecarlo, un análisis del CaR para distintos parámetros de dos de las distribuciones de frecuencia y severidad propuestas. A modo de ejemplo, han sido seleccionadas dos filas de la matriz “línea de negocio/tipo de riesgo”, concretamente las correspondientes a la Banca Minorista (BM) y a la Banca Comercial (BC). En un primer estadio, y con objeto de modelar la frecuencia, hemos elegido la distribución de Poisson, cuyo parámetro (λ) simboliza el número de sucesos medio al año. En esta línea, nos hemos basado en el análisis de datos del Operational Risk Loss Data Collection Exercise (LDCE) [Basel, 2002], recogido en el apéndice C; del cual se desprende que la Banca Minorista, debido a su mayor volumen de negocio y transacciones, presenta una mayor frecuencia de eventos de pérdidas que la Banca Comercial. Conscientes de ello, hemos intentado reflejar dicho efecto discriminando entre una lambda igual a 100, para la primera, e igual a 10, para la segunda.

Por otra parte, ambas unidades de negocio presentan, empíricamente, distribuciones de severidad con una clara asimetría positiva y un alto grado de leptocurtosis, lo cual se traduce en la existencia de una elevada concentración de pérdidas de bajo impacto económico –pensemos en las típicas diferencias de caja de las sucursales bancarias–, y una cola relativamente gruesa (fat tail)–por ejemplo, aquellos casos aislados de banca paralelao lavado de capitales–. A tenor de estos supuestos, hemos simulado una hipotética distribución para la severidad siguiendo un modelo Weibull, eligiendo, para tales unidades, un parámetro de forma (α) inferior a la unidad. No obstante, y habida cuenta de la mayor curtosisque presenta la distribución de pérdidas del negocio Minorista en la realidad [véase Moscadelli, 2004], hemos asignado un valor de alfamenor a este segmento respecto al de la Banca Comercial, precisamente para capturar este hecho. Asimismo, considerando que los importes negociados en las operaciones de Banca Comercial suelen ser superiores a los negociados en el nicho de mercado Minorista, hemos determinado un parámetro de escala (β) notablemente superior en la primera, confiriendo a ésta una mayor desviación típica. La modelación simulada queda ilustrada gráficamente en las figuras 4 y 5, respectivamente.

Imagen 16

Imagen 17

El análisis descriptivo realizado para las distribuciones de severidad simuladas se recoge en la tabla 2:

Imagen 18

Por último, para testar el efecto diversificación en la cuantificación del CaR agregado, hemos realizado un análisis de sensibilidad para distintos valores del coeficiente de correlación (ρBM,BC) entre las líneas de negocio objeto de estudio.

2. Resultados obtenidos

Una vez descritas las distribuciones de frecuencia y severidad, hemos procedido a la convolución de ambas usando el método de Simulación de Montecarlo mediante la generación de un total de 5.000 escenarios. Las distribuciones de pérdidas agregadas resultantes y los CaR asociados a éstas se detallan en la tabla 3.

Imagen 19

A la luz de los datos anteriores, el análisis de sensibilidad desarrollado sobre el CaR para distintos niveles de confianza (95%, 99% y 99,9%), pone de manifiesto el fuerte impacto que, sobre el consumo de capital, produce dicho parámetro. En este sentido, si bien el Acuerdo de Basilea pretende, con ello, cubrir posibles eventos extremos situados en la cola de la distribución, al mismo tiempo, este elevado grado de conservadurismo puede convertirse en un elemento casi confiscatorio en la estructura de capital de la entidad.

Por otra parte, al confrontar los resultados obtenidos entre ambas unidades de negocio, advertimos un mayor CaR en el segmento de Banca Minorista que en el Comercial, con independencia del nivel de confianza establecido.

En sentido estricto, el consumo de capital debe contemplar tanto la pérdida esperada (EL) como la no esperada (UL). Sin embargo, como ya apuntamos en líneas precedentes, el Comité [2006a: 151], en aquellos supuestos donde la entidad pueda demostrar la adecuada provisión de su pérdida esperada, admite un cómputo de capital basado exclusivamente en la no esperada –véase la fórmula [7]–. Esta otra acepción del CaR, nos conduce a reinterpretar de nuevo los datos. Al ser la pérdida no esperada superior en la Banca Comercial, se observa una jerarquía distinta, en términos de cargo de capital, entre ambas unidades. La explicación habría que buscarla en la propia naturaleza del negocio pues, si bien es cierto que, en media, se realizan un menor número de transacciones, los importes que se pueden llegar a negociar son muy superiores a los dela Banca Minorista, a la par que subyace una mayor desviación de dichos valores respecto a su media.

Por otro lado, los ratios calculados –“EL/OpVaR”y “UL/OpVaR”– proporcionan medidas relativas muy interesantes a la hora de reportar información financiera sobre riesgo operacional. Se trata de magnitudes porcentuales que indican la importancia relativa de la pérdida esperada o no esperada sobre el capital regulatorio. Bajo las directrices del último supuesto, en nuestro ejemplo, y para el caso de la Banca Minorista, el 51,07% del OpVaR correspondería a pérdidas esperadas (EL) que deberían ser cubiertas; mientras el 48,93% restante, la pérdida no esperada (UL) representaría el porcentaje asociado al capital regulatorio; de ahí que, con buen criterio, podamos bautizar a esta última cifra como la tasa de cobertura de riesgo operacional.

Los resultados hasta aquí descritos descansan en el supuesto de dependencia perfecta entre los riesgos inherentes a las distintas unidades de negocio. Ahora bien, si reconocemos la existencia de
Correlaciones imperfectas en la práctica, el efecto diversificación se materializa en un notable ahorro de capital; basta observar la tabla 4.

Imagen 20

Para abundar aún más si cabe en el efecto mitigador de la diversificación, la figura 6 ilustra gráficamente cómo para valores bajos del coeficiente de correlación, el CaR diversificado se reduce notablemente mientras el ratio de diversificación aumenta en consecuencia.

Imagen 21

3. Consideraciones finales
La El Método Básico y el Estándar, propuestos por el Comité para el cálculo del capital regulatorio por riesgo operacional, presentan ciertas deficiencias conceptuales, sobre todo en lo que se refiere a su indicador de exposición, esto es, los ingresos brutos. Y es que su cuantificación depende, en última instancia, del marco contable de cada país posibilitando, con ello, el arbitraje regulatorio. De la misma manera, nos hace plantearnos la cuestión de sí una entidad con unos elevados ingresos brutos pero con mejores prácticas de gestión, no podría tener menores riesgos operacionales. Además, el enfoque básico, ofrece un escaso incentivo en cuanto al desarrollo de los sistemas de control de riesgos en la entidad, pues no contempla, por parte del regulador, el cumplimiento de ningún requisito cualitativo para su implementación. Debido a lo anterior, ambos métodos son concebidos, a priori, como modelos de transición hacía estadios superiores, materializados en las metodologías avanzadas, siendo utilizados en la actualidad como “vías de escape” ante la inminente entrada en vigor del Nuevo Acuerdo.

Por tanto, las entidades financieras que pretendan administrar eficazmente su riesgo operacional deben aunar esfuerzos en el desarrollo y aplicación de técnicas avanzadas de medición (AMA). A este respecto, según las últimas directrices del Comité, el enfoque AMA que parece mejor posicionado es el Modelo de Distribución de Pérdidas (LDA), reforzado con el concepto de Valor en Riesgo Operacional u OpVaR. En esta línea, para asegurarla correcta implantación del enfoque LDA se antoja necesario disponer de información histórica de pérdidas operacionales, desglosadas por tipo de riesgo y línea de negocio, sobre las cuales modelar su frecuencia y severidad. No obstante, es justamente aquí donde la banca encuentra el principal obstáculo a la hora de aplicar los métodos avanzados, pues la ausencia de una base de datos interna de pérdidas operacionales suficientemente amplia y representativa resta robustez a dicho enfoque. En este sentido, aunque el Comité prevé la utilización de bases de datos externas –bajo determinadas circunstancias– éstas no parecen solventar el problema. Por tanto, el análisis de escenarios y la simulación de pérdidas se convierten en un recurso eficaz ante la escasez de información, al menos de momento. De otra parte, a efectos de cómputo del capital regulatorio, se establece un percentil excesivamente alto, esto es, un 99,9%. Así, el intervalo de confianza propuesto por el Comité de Basilea convierte el cálculo de capital por riesgo operacional en una medida harto conservadora. En particular, para aquéllas distribuciones de pérdidas con colas anchas (fat tails), ello puede conducir a cifras de OpVaR muy altas y, por consiguiente, a mayores consumos de capital. En cuanto al modelado delas variables se refiere, la distribución de Poisson es la más recurrente para ajustar la frecuencia, si bien, es preciso contemplar otras alternativas como la distribución Binomial o la Binomial Negativa. En relación a la severidad, nos encontramos con una serie de distribuciones paramétricas (Lognormal, Weibull, Pareto, etc.) que podrían ser, a priori, buenas candidatas para tal aproximación. No obstante, la evidencia empírica demuestra que, en la práctica, ninguna distribución simple se ajusta de manera exacta; de ahí la necesidad de recurrir a la denominada mixtura de distribuciones.

Por otra parte, el Comité contempla la posibilidad de incorporar el efecto diversificación en la medición del riesgo operacional. Bajo el principio de subaditividad del OpVaR, el capital económico resultante, también llamado CaR diversificado, es notablemente sensible al coeficiente de correlación. Si bien, para poder beneficiarse de la reducción de capital que ello supone, las entidades de crédito deberán articular los métodos de estimación oportunos para aproximar de manera conveniente los coeficientes de correlación. Paradójicamente, los estudios empíricos al respecto sitúan los valores de dicho coeficiente muy cercanos a cero, lejos del espíritu conservador que inspira el Nuevo Acuerdo de Capital en materia de riesgo operacional.

Para finalizar, habría que subrayar que si bien el enfoque LDA goza de una clara aceptación en la industria bancaria –especialmente en las entidades que ya venían utilizando enfoques avanzados–, aún adolece de robustez para una implementación práctica consecuente.

Introducción a Solvencia II

ÍNDICE

I. INTRODUCCIÓN
II. PILAR I
III. PILAR II
IV. PILAR III


I. INTRODUCCIÓN
Solvencia II es una iniciativa que surgió en la Unión Europea para establecer un esquema común en la administración de riesgos de las compañías de seguros y reaseguros, a través de la definición del requerimiento de capital de solvencia, así como la instalación de procesos y procedimientos para identificar, medir y gestionar los niveles de riesgo asumidos.

Esta iniciativa ha sido aceptada internacionalmente, por lo que son varios los países que están realizando acciones para adoptarla dentro de sus marcos regulatorios, México es uno de ellos.

Es importante resaltar que uno de los principales objetivos de Solvencia II es el desarrollo y establecimiento de un sistema que permita medir los recursos necesarios, para garantizar la solvencia de una aseguradora en función de los riesgos asumidos por ésta. La solvencia de una entidad no debería estar basada únicamente en datos financieros, sino que deben considerarse otros aspectos, tales como su exposición al riesgo; tamaño; estrategias; políticas de protección en reaseguro, etc.

Este marco regulatorio es necesario porque las empresas financieras pueden sufrir quebrantos importantes derivados de una mala administración de riesgos.

A nivel internacional existen varios ejemplos como:

1994. Bankers Trust (mala práctica por $150 millones). El banco se vio envuelto en un juicio con un cliente que lo acusó de prácticas comerciales inapropiadas. Aunque llegó a un acuerdo con la otra parte, el banco sufrió un deterioro reputacional, que derivó en la venta de la institución a Deutsche Bank.

1995. Barings (operación no autorizada por $1,300 millones). Nick Leeson, un ejecutivo compró y vendió instrumentos derivados sin contar con facultades dentro del banco para hacerlo durante dos años, esto acumuló pérdidas no reportadas, que llevaron a la compañía hasta la quiebra.

1996. Sumitomo (operación no autorizada por $2,600 millones). La reputación del banco se vio seriamente afectada por un agente de cobro que a lo largo de más de tres años acumuló pérdidas no registradas.

1997. Natwest (error de modelo por $127 millones). Kyriacos Papouis un operador de swaptions, utilizó volatilidades equivocadas en un modelo para valorar un swap. Esto le llevó a sobreestimar el valor de los contratos y generó grandes pérdidas que no pudo ocultar.

2004. City Bank. Integró una reserva de 5,000 millones de dólares por posibles demandas judiciales al verse implicado en los casos de Enron y Wordcom.

2008. Lehman Brothers, cuarto banco de inversión en Estados Unidos, se declaró en bancarrota tras 158 años de actividad ante el fracaso de las negociaciones con las dos entidades que en un principio se perfilaban como posibles compradores. En 2007 se vio seriamente afectada por la crisis financiera provocada por los créditos subprime. Acumuló enormes pérdidas por títulos respaldados por las hipotecas a lo largo de 2008. En el segundo trimestre fiscal, Lehman informó pérdidas de 2,800 millones de dólares y se vio obligada a vender 6,000 millones de dólares en activos. En el primer semestre de 2008, Lehman había perdido el 73% de su valor en bolsa.

2008. La Reserva Federal de Estados Unidos rescató a la aseguradora American International Group Inc. con 85 mil millones de dólares, lo que evitó su quiebra y brindó un aliciente para los agitados mercados de todo el mundo. AIG estuvo a punto de declararse en quiebra si no conseguía suficiente dinero para cubrir sus obligaciones. El gran problema era que si la aseguradora quebraba, dejaría sin garantizar el recobro de los préstamos a las entidades a las que avala, los bancos comenzarían a sufrir la insolvencia de los prestatarios y de la aseguradora por lo que la solvencia de muchas compañías estaría en riesgo.

Con la instrumentación de Solvencia II se busca lograr que cada aseguradora conozca cómo está afrontando los distintos riesgos que asume, la capacidad de gestión de los mismos y la incidencia que tienen en las distintas líneas de negocio. Todo esto para determinar el importe de recursos propios que debe destinar para sus coberturas.

En ese sentido, lo que se busca es:

• Reducir el riesgo de que una compañía no sea capaz de hacer frente a sus obligaciones.
• Disminuir las pérdidas asumidas por los asegurados, en caso que una compañía no sea capaz de hacer frente completamente a todas sus obligaciones.
• Ofrecer un sistema de aviso preventivo que permita a los reguladores actuar inmediatamente, en caso de que el capital a mantener caiga por debajo de los niveles mínimos requeridos.
• Fomentar la confianza en la estabilidad financiera del sector asegurador.
• Mejorar la eficiencia en los mercados.
• Establecer requerimientos de capital más acordes con el perfil de riesgo específico de las instituciones.
• Establecer principios sin ser excesivamente normativos (otorgando más responsabilidad a las propias entidades).
• Un Gobierno Corporativo sólido.
• Una mejor Administración de Riesgos.
• Mayor transparencia y revelación de información a los participantes del mercado.
• Ser coherente con los desarrollos del mercado (especialmente en materia de contabilidad con la IASB 1 (Internacional Accounting Standards Board: Junta Internacional de Normas de Contabilidad, la cual es un organismo independiente del sector privado que desarrolla y aprueba las Normas Internacionales de Información Financiera (NIIF))).

Es evidente que con las bases mencionadas, se logrará mejorar la protección tanto de los asegurados como de los beneficiarios, así como la rentabilidad de las aseguradoras, y la transparencia de los aseguradores en sus comunicaciones públicas y privadas, para crear disciplina en el mercado y por tanto generar confianza.

La iniciativa de Solvencia II está diseñada sobre tres pilares de actuación: el primero consiste en implantar un proceso de análisis de las reservas, activos y pasivos necesarios para cubrir las obligaciones aceptadas en las pólizas, así como cuantificar los requerimientos de capital para enfrentar los riesgos asumidos; el segundo se ocupa de definir las reglas de supervisión, control interno y gobierno corporativo; y el tercero busca establecer las obligaciones de información que las aseguradoras deberán presentar al mercado.

Imagen 1


II. PILAR I
El Pilar I es de naturaleza cuantitativa y a manera de síntesis podemos decir que se ocupa de tres elementos:

• Determinación de Fondos Propios
• Valuación de Reservas
• Requerimientos de Capital

Determinación de Fondos Propios
El esquema de Solvencia II está basado en la valuación económica del riesgo y el capital de las aseguradoras, lo que llevará a las aseguradoras a aplicar principios económicos cuando calculen el capital obligatorio y sus fondos propios. Un enfoque de valuación económica significa que se deben usar valores consistentes con el mercado (market-consistent) para valorar los activos y pasivos en el balance de las compañías. La diferencia entre el Valor de Mercado de los Activos (VMA) y el Valor de Mercado de los Pasivos (VMP) dará como resultado los Fondos Propios, los cuales deben ser suficientes para cubrir el Requerimiento de Capital de Solvencia.

Imagen 2

Valuación de reservas
Al ser el pasivo más importante de una aseguradora, las reservas deben también valuarse a mercado. En general no existe un mercado cuyos instrumentos permitan replicar los flujos de estos pasivos, por lo que se considera que para efectos de Solvencia II, éstas deben ser valuadas como la suma del Mejor Estimador más el Margen de Riesgo.

El Mejor Estimador se define como el valor esperado de los flujos futuros del portafolio de riesgos, entendido como la media ponderada por probabilidad de dichos flujos, considerando el valor temporal del dinero con base en las curvas de tasas de interés libres de riesgo de mercado. Por su parte, el Margen de Riesgo representa el costo de asegurar que el capital requerido estará disponible para mantener las obligaciones de seguros para los años subsecuentes.

Por lo tanto, la suma de ambos elementos indicará el valor del portafolio de riesgos asegurados, dado que incluye los flujos de posibles ingresos y egresos asociados al negocio suscrito y el costo del capital necesario para continuar la operación del mismo hasta su extinción.

Requerimientos de capital
El Requerimiento de Capital de Solvencia busca garantizar que habrá recursos patrimoniales suficientes para hacer frente a los riesgos y responsabilidades asumidas, en función de las operaciones y los riesgos a los que esté expuesta la institución.

Ese requerimiento debe contemplar los siguientes riesgos:

1. Suscripción o Técnicos. Para las operaciones de Vida, Accidentes y Enfermedades y Daños.

• El riesgo de suscripción de los seguros de Vida reflejará el derivado de la suscripción atendiendo a los siniestros cubiertos y a los procesos operativos vinculados a su atención. Considerará cuando menos los subriesgos de mortalidad, longevidad, discapacidad, enfermedad, morbilidad, de gastos de administración, caducidad, conservación, rescate de pólizas y de eventos extremos en los seguros de Vida.

• El riesgo de suscripción de los seguros de Accidentes y Enfermedades mostrará el que se derive de la suscripción como consecuencia tanto de los siniestros cubiertos, como de los procesos operativos vinculados a su atención. Tomará en cuenta cuando menos los riesgos de primas y de reservas, de mortalidad, longevidad, discapacidad, enfermedad, morbilidad, de gastos de administración y riesgo de epidemia.

• El riesgo de suscripción de los seguros de Daños reflejará el que se derive de la suscripción como consecuencia tanto de los siniestros cubiertos, como de los procesos operativos vinculados a su atención. Considerará cuando menos los riesgos de primas y de reservas, así como de eventos extremos en los seguros de Daños.

2. El Riesgo de Mercado. Este reflejará la pérdida potencial por cambios en los factores de riesgo que influyan en el valor de los activos y pasivos de las Instituciones y Sociedades Mutualistas, tales como tasas de interés, tipos de cambio, índices de precios, entre otros.

3. El Riesgo de Descalce entre Activos y Pasivos. Mostrará la pérdida potencial derivada de la falta de correspondencia estructural entre los activos y los pasivos, por el hecho de que una posición no pueda ser cubierta mediante el establecimiento de una posición contraria equivalente. En este caso se tomará en cuenta cuando menos, la duración, moneda, tasa de interés, tipos de cambio, índices de precios, entre otros.

4. El Riesgo de Liquidez. Reflejará la pérdida potencial por la venta anticipada o forzosa de activos a descuentos inusuales para hacer frente a obligaciones, o bien, por el hecho de que una posición no pueda ser oportunamente enajenada o adquirida.

5. El Riesgo de Crédito. Mostrará la pérdida potencial derivada de la falta de pago, o deterioro de la solvencia de las contrapartes y los deudores en las operaciones que efectúen las Instituciones y Sociedades Mutualistas, incluyendo las garantías que les otorguen. Adicionalmente, el Riesgo de Crédito deberá considerar la pérdida potencial que se derive del incumplimiento de los contratos destinados a reducir el riesgo, tales como los contratos de reaseguro, de reafianzamiento, de bursatilización y de operaciones financieras derivadas, así como las cuentas por cobrar de intermediarios y otros riesgos de crédito que no puedan estimarse respecto del nivel de la tasa de interés libre de riesgo.

6. El Riesgo de Concentración. Hará notorio el incremento de las pérdidas potenciales asociado a una inadecuada diversificación de activos y pasivos, que se deriva de las exposiciones causadas por riesgos de crédito, de mercado, de suscripción, de liquidez, o por la combinación o interacción de varios de ellos, por contraparte, por tipo de activo, área de actividad económica o área geográfica.

7. El Riesgo Operativo. Reflejará la pérdida potencial por deficiencias o fallas en los procesos operativos, en la tecnología de información, en los recursos humanos o cualquier otro evento externo adverso relacionado con la operación de las Instituciones y Sociedades Mutualistas.

Para calcular el Requerimiento de Capital de Solvencia se deben considerar:

• Continuidad de la suscripción de riesgos.
• Que todos los riesgos y responsabilidades sean considerados y analizados en el horizonte de tiempo que corresponda a su naturaleza y características.
• Pérdidas imprevistas en función de los riesgos y responsabilidades con un nivel de confianza de 99.5 por ciento.
• Períodos de recurrencias apropiados a las características de los riesgos catastróficos.
• La diversificación entre los riesgos.

Una vez que se cuenta con la determinación del “Requerimiento de Capital de Solvencia y los Fondos Propios” se debe calcular el “Índice de Solvencia”, el cual no puede ser menor a 1, porque representaría una insuficiencia de capital para cubrir los requerimientos de la misma.

Imagen 3

Para determinar los elementos ya descritos, las compañías pueden optar por usar un modelo estándar (generalmente propuesto por las autoridades y/o por asociaciones de seguros) o buscar un modelo interno.

El Estudio de Impacto Cuantitativo (QIS por sus siglas en inglés) plantea un modelo estándar para cuantificar el requerimiento de capital para los riesgos ya detallados en este documento, para valuar las reservas y determinar los fondos propios de las compañías de seguros.

En Europa se han realizado cuatro de estos estudios, actualmente se encuentra en desarrollo el quinto de ellos, a través de los cuales se han mejorado los modelos para valuar los diferentes riesgos considerados, lo que ha dado como resultado requerimientos de capital más precisos.

En la Unión Europea las empresas aseguradoras en esa región han avanzado en los siguientes aspectos:

• Un análisis de brecha entre la estructura y funciones actuales de sus órganos de gobierno corporativo y los necesarios para Solvencia II.
• El desarrollo de los elementos del modelo estándar o modelo propio.
• El diseño e integración de las estructuras de información necesarias para la operación de Solvencia II.


III. PILAR II
El Pilar II pretende la promoción de estándares mejorados y consistentes de gestión de riesgos. Estos requerimientos tendrán un gran efecto en las diversas actividades o aspectos de gestión de las instituciones. Los aspectos clave afectados drásticamente son los siguientes:

• Sistema de gestión y seguimiento del riesgo.
• Estrategia y apetito al riesgo.
• Autoevaluación del Riesgo y la Solvencia (ORSA por sus siglas en inglés).
• Función de control interno.
• Papel relevante de la función actuarial.
• El uso de la externalización (outsourcing)

La mayoría de los expertos consideran que cumplir con los requerimientos del Pilar II, será un reto mucho mayor para las aseguradoras que el contar con un modelo para la determinación de los requerimientos de capital.

Sistema de gestión y seguimiento del riesgo
Un sistema de administración de riesgos efectivo y un gobierno corporativo sólido en todos los niveles de la compañía constituyen las piedras angulares de un sistema de solvencia sólido. Mientras que resulta fundamental que las compañías efectúen cálculos de capital lo más ajustados a los riesgos reales a los que están expuestos, las decisiones de la alta dirección y la calidad de los grupos de control son potencialmente cruciales para asegurar la salud financiera a largo plazo de las instituciones. Un sistema de administración de riesgos efectivo y un gobierno corporativo sólido en todos los niveles de la compañía constituyen las piedras angulares de un sistema de solvencia sólido. Mientras que resulta fundamental que las compañías efectúen cálculos de capital lo más ajustados a los riesgos reales a los que están expuestos, las decisiones de la alta dirección y la calidad de los grupos de control son potencialmente cruciales para asegurar la salud financiera a largo plazo de las instituciones.

Las debilidades que pudiera padecer una compañía en estas áreas, la haría susceptible de sufrir problemas financieros en caso de presentarse eventos externos negativos.

En este sentido, Solvencia II exige a las compañías que definan de manera documentada las políticas, procesos y procedimientos de medición y seguimiento del riesgo, para ser empleados en la formulación/actualización del plan de negocio de la empresa.
Asimismo, se debe dar una adecuada periodicidad a la actualización de la información reportada a la alta dirección.

Estrategia y apetito al riesgo
Un aspecto de suma importancia consiste en disponer de un sistema eficaz de administración de riesgos, que comprenda estrategias y la aprobación de los límites y tolerancia a los mismos.

Solvencia II requiere, en tales casos, que la directiva de la empresa se involucre en el diseño de la estrategia de gestión de riesgos. Deben existir políticas y procedimientos documentados de seguimiento que reporten a la alta dirección los niveles de riesgos asumidos, así como el apetito por ellos, mismo que debe integrarse en el proceso de la toma de decisiones.

Autoevaluación del Riesgo y la Solvencia (ORSA)
Las compañías de seguros y reaseguros deben llevar a cabo una autoevaluación de los riesgos del negocio y el nivel de solvencia para mitigarlos. Una función de riesgos robusta asistirá a la compañía para llevar a cabo este proceso de autoevaluación de capital, que vincula la visión de la compañía sobre sus riesgos y sus necesidades de solvencia.

Esta evaluación interna de los riesgos y de la solvencia es un proceso de valoración interno que trata de asegurar que la directiva lleve a cabo una revisión de su perfil de riesgo y los niveles de capital de solvencia que sustente. Por lo tanto, esta evaluación debe reflejar el apetito al riesgo específico que podría llevar a las compañías a buscar niveles de confianza más altos -o en su caso mayores horizontes temporales- a los que Solvencia está establecido (99.5 por ciento).

Solvencia II exige, en este contexto, que las compañías cuenten con procesos y procedimientos para determinar los riesgos asumidos y argumentar los métodos usados en dicha evaluación. Es importante que este proceso de autoevaluación de capital se realice bajo una perspectiva de largo plazo, anticipando posibles evoluciones de los riesgos y el plan estratégico del negocio. La periodicidad del análisis debe estar en función de los cambios materiales en los riesgos expuestos por la entidad.

Función del control interno
El control interno ha sido una pieza clave dentro del sector asegurador desde hace mucho tiempo. Solvencia II valora de sobre manera el hecho de que las compañías de seguros y reaseguros dispongan de un sistema eficaz de control interno, que cuente con procedimientos administrativos y contables.

Este sistema debe establecer y contener mecanismos adecuados de información a todos los niveles de la empresa. La alta dirección será la encargada de aprobar las políticas que describa el marco instaurado. También requiere de validación periódica por parte del área de Auditoría Interna. Adicionalmente el órgano de administración, dirección y supervisión deberá asesorar en la verificación de los requisitos marcados por la directiva relacionados con el control interno. Como punto adicional, la auditoría externa será usada como medio para evaluar la adecuación de los procesos de gestión de riesgo contemplados.

Papel relevante de la función actuarial
Solvencia II requiere que la función actuarial se encargue de la valoración de las reservas técnicas (metodologías y calidad de los datos) y de la comunicación directa con la dirección acerca de estos puntos. Por tanto debe hacerse cargo del contacto y pronunciamiento ante el órgano de administración y dirección sobre las políticas de suscripción, técnicas de mitigación y riesgos asumidos.

Es también responsable del desarrollo del modelo para el requerimiento de capital de solvencia. De esta forma se genera una vinculación continua entre las funciones de riesgos y actuaría, influyendo sobre la definición del plan estratégico de negocio.

El uso de la externalización (outsourcing)
La externalización (outsourcing) de actividades se contempla dentro del Solvencia II, siempre y cuando las compañías de seguros y reaseguros respondan plenamente al cumplimiento de todas las obligaciones que conlleva traspasar el negocio fuera del alcance directo.

Todas aquellas funciones o actividades operativas críticas e importantes, no podrán realizarse fuera de la compañía cuando sean contrarias a la calidad y cumplimiento de los procesos establecidos dentro de la misma o que menoscaben la capacidad supervisora del regulador.

Por lo anterior resulta necesario enviar información continua y oportuna al regulador en caso de recurrir a la contratación de externos para las funciones antes mencionadas.

Finalmente las entidades deben asegurar que el servicio ofrecido a través de estas actividades, no afecta negativamente a los clientes de seguros.

IV. PILAR III
El Pilar III busca la transparencia a través de la publicación de información periódica sobre la situación financiera y de solvencia de la compañía. Supone establecer una disciplina de mercado para todas las instituciones de seguros y reaseguros, cuyo objetivo último es el apoyo para obtener metas regulatorias. Éste de un elemento muy importante dentro de Solvencia II y las compañías deben prepararse para publicar la información en base a la periodicidad y detalle establecido por el regulador.

La gestión de la transparencia y el reporte de riesgos al mercado configuran un aspecto que las entidades deben analizar con un enfoque amplio, ya que su éxito se basa en gran medida en el grado en que se integren internamente los diferentes elementos que conforman la gestión de riesgos.

En este sentido la implicación de los nuevos procesos de reporte de información comprenden tanto a la alta dirección, como a todos los niveles operativos de las compañías.

Por un lado, desde un nivel superior la coordinación de tres elementos claves (estrategia, cultura y valores) puede provocar que se amplíe la idea de transparencia a lo largo de la firma, y por el otro esta extensión se hará operativa en el resto de niveles a través del desarrollo de reporte y control tanto interno como externo.

La revelación de información prudencial de riesgos al mercado tiene como objetivo presentarle periódicamente a la directiva, una serie de datos cuantitativos (importes de riesgo) y cualitativos (políticas, procedimientos) que muestren la situación objetiva de la institución en lo que respecta a la gestión de riesgos.

Imagen 4

El diagrama siguiente ofrece un detalle sobre las características de la información que debe ser revelada al mercado, para el cumplimiento del Pilar III.

Imagen 5

FÓRMULA GENERAL DE SOLVENCIA II

El cálculo del Requerimiento de Capital de Solvencia (RCS) se divide en dos módulos:

• El Requerimiento de Capital de Solvencia Básico (RCSB).
• El Requerimiento de Capital de Solvencia por Riesgo Operativo

Imagen 6

Dentro del Requerimiento Básico de Solvencia se incluyen los riesgos técnicos, el de mercado y el de contraparte.

Los riesgos técnicos se dividen en los de suscripción de Vida y No Vida, incluyendo Accidentes, Gastos Médicos y Salud.

Los siguientes cuadros muestran los subriesgos a considerar dentro de los riesgos de suscripción.

Imagen 7

Los Seguros de Salud y las Coberturas Adicionales pueden, dependiendo de sus características, ser tratados usando técnicas similares a las de Vida a largo plazo o a las de No Vida a corto plazo, en cuyo caso podrían considerar otros subriesgos, tales como longevidad e incluso pandemias.

Imagen 8

En el modelo empleado para el QIS 4, una vez calculados los requerimientos de capital, éstos se agregan usando la matriz de correlación de riesgos, a través de la fórmula siguiente:

Imagen 9

La matriz de correlación planteada en QIS 4, para agregación de riesgos es:

Imagen 10

 Existen múltiples críticas sobre el uso de esta matriz de correlación, algunas evidentemente de naturaleza técnica y otras debido a su forma de construcción, la cual se basa en el “juicio experto” y tres niveles de correlación (0.25=bajo, 0.5 medio, 0.75=alto). No obstante, debe tenerse en cuenta que su uso se limita al modelo estándar de requerimiento de capital de solvencia y que para fines de modelos internos, puede emplearse otras técnicas para reconocer la diversificación de los riesgos.

Fuente:
-Informe del Comité de Solvencia II de AMIS (Asociación Mexicana de Instituciones de Seguros).

El proceso asegurador

Les comparto a continuación una breve explicación sobre el proceso asegurador. El fin es tener una idea global de dicho proceso que facilite la comprensión del mismo.

ÍNDICE

1.- Planteamiento.
2.- Modelo General que describe el proceso.
3.- Fórmula básica del modelo.
4.- Aplicaciones.


1.- Planteamiento.
El negocio asegurador se caracteriza por la variable aleatoria siniestralidad ampliamente estudiada en la Teoría de Riesgo Clásica cuyos dos objetivos fundamentales son estudiar la distribución de la siniestralidad a partir de las variables básicas (número de siniestros y la cuantía de un siniestro) y la estabilidad del negocio asegurador, analizando el efecto que las fluctuaciones de la siniestralidad producen en el mismo y las medidas para evitar que estas conduzcan a la empresa a la “ruina”.

La Teoría del Riesgo Clásica proporciona el marco científicamente aceptado para el planteamiento y resolución de los principales problemas que presenta la actividad de la empresa aseguradora. Es claro, que la incertidumbre es una de las características que definen la actividad aseguradora, por lo que la teoría del riesgo colectivo se encarga de variables aleatorias que afectan a dicha actividad, analizando las fluctuaciones de las mismas y su influencia en el resultado del negocio asegurador.

Sin embargo, la fluctuación aleatoria de la siniestralidad, riesgo característico de la empresa aseguradora, no es el único factor que puede comprometer la solvencia de la empresa de seguros.

El margen de solvencia es el conjunto de capitales libres cuya finalidad es hacer frente a los riesgos de explotación en general. Considerando esto, la Teoría del Riesgo Clásica no resulta suficiente para hacer un estudio adecuado y completo del mismo.

Así, cuando se pasa del negocio de seguros en sentido estricto (cobro de primas recargadas-pago de siniestros) a considerar la empresa aseguradora en su globalidad es preciso dar entrada al resto de las actividades que se realizan en su seno, así como las diversas circunstancias que determinan el entorno en el que actúa.

Podría hablarse de la Teoría del Riesgo en sentido amplio como aquella que se ocupa del estudio de las fluctuaciones aleatorias de los resultados de la empresa de seguros. Aquí ha de entenderse resultado como el debido al conjunto de actividades y no sólo la puramente aseguradora. Estos modelos han de contener, además de la siniestralidad, un mayor número de variables, lo que dificulta la obtención de resultados analíticos. Para un estudio realista del margen de solvencia en la vertiente de la propuesta de cuantía mínima para el mismo son precisamente estos modelos los adecuados, a nuestro entender.

Cabe destacar que en las dos últimas décadas han aparecido en la literatura actuarial un considerable número de trabajos en relación con este tipo de modelos: los trabajos iniciales de Pentikäinen (1975, 1976, 1978, 1980) que dieron paso al excelente trabajo de Pentikäinen y Rantala (1982) considerado el primer exponente de aplicación a la realidad (establecimiento de instrumentos y normas relativas al control de la solvencia en Finlandia) de esta Teoría del Riesgo ampliada. Asimismo hemos de hacer referencia a los trabajos del General Insurance Study Group (GSIC) Británico, que trató de aplicar los resultados del grupo finlandés al mercado asegurador del Reino Unido.

2.- Modelo General que describe el proceso.
Se describe de forma general el denominado modelo estocástico de la empresa aseguradora estudiando los posibles resultados que de él pueden derivarse principalmente para el análisis de la solvencia. Éste tiene como finalidad estudiar el comportamiento de un asegurador en diversas circunstancias y ha de servir tanto para un mejor conocimiento teórico y general del funcionamiento del negocio asegurador como para su aplicación a una empresa concreta una vez conocidos los datos relevantes de la misma.

En el gráfico 1, tomado del trabajo presentado al Congreso de Actuarios por los miembros del Finnish Insurance Modeling Group: Pentikäinen et al (1988), nos ilustra sobre las distintas variables (tanto de la propia empresa como de su entorno) y sus interrelaciones a considerar para construcción del modelo.

imagen-1

La incertidumbre, además, está relacionada con la reserva para siniestros pendientes y otras reservas también reflejadas en los resultados, así como los gastos inciertos y otros riesgos diversos. Por tanto, el proceso de simulación es crucial para estudiar a largo plazo el comportamiento dinámico del asegurador, imitando mediante este proceso las reacciones de la dirección, tanto para desarrollos favorables como adversos.

Nuevos caminos para la construcción del modelo y, más generalmente, para la Teoría del Riesgo se abrieron cuando la estocasticidad de los valores de los activos fue incorporada en sus consideraciones. Un trabajo pionero fue el presentado por Wilkie en 1986 que presenta un modelo para las clases de activos más importantes. Posteriormente, numerosos autores han propuesto variantes a este modelo.

Los modelos pueden ser utilizados para facilitar muchas clases de soluciones prácticas en los casos donde el resultado y la evaluación de las incertidumbres sean marcadamente complicados. Normalmente, el problema está restringido a un hecho concreto. Si los objetivos de los modelos son más ambiciosos proporcionan una visión global del comportamiento de una compañía cuando varían las circunstancias. El modelo asegurador puede ser construido para responder a una compañía real o puede ser un asegurador hipotético. Este último puede utilizarse para una investigación general de las capacidades de los aseguradores. Estas mismas investigaciones pueden ser aplicadas para los requisitos de solvencia impuestos por los reguladores.

Todos los reguladores tienen normalmente sistemas contables y de planificación empresarial. Usualmente ellos operan sobre unas bases determinadas. Probablemente, se podría utilizar un procedimiento apropiado para incorporar módulos estocásticos uno a uno.

3.- Fórmula básica del modelo.
La posición financiera de una asegurador puede ser descrita por su margen de solvencia U(t) que es el exceso de activos A(t) sobre las obligaciones L(t), de forma que: U(t) = A(t) – L(t), donde t es el año contable. El flujo de ingresos y gastos se calcula de acuerdo a la fórmula:

U(t) = U(t-1) + B(t) + J(t) – X(t) – E(t) – R(t) – D(t) (1)
donde:
B(t) : Ingresos por primas
J(t) : Rendimiento de las inversiones
X(t) : Siniestralidad
E(t) : Gastos
R(t) : Coste neto de reaseguro
D(t) : Dividendos

Denotando los ingresos por primas netas de gastos y netas de reaseguro por P(t), la ecuación anterior se reduce a la forma:

U(t) = U(t-1) + P(t) + J(t) – X(t) – D(t) (14)

En muchas ocasiones es conveniente trabajar con magnitudes absolutas como U(t) en lugar de relativas como el ratio:

u(t) = U(t) / P(t)

e igualmente el resto de las variables.

El siguiente paso en la explotación de este tipo de modelos consiste en “llenar de contenido” cada una de sus variables. Este es un punto importante ya que el resultado del mismo va a determinar las técnicas que es posible emplear para la obtención de resultados.

Así, en la medida en que caractericemos aleatoriamente algunas de las mismas (o simplemente se encuentren definidas por fórmulas complejas o bien existan múltiples relaciones entre las mismas) mayor dificultad existirán en obtener resultados analíticos y habrá que recurrir a técnicas como la simulación. Si el resultado del estudio a realizar se refiere a un asegurador particular las características de las citadas variables han de derivarse de la actuación concreta del mismo: ramos en que opera, su peso en la cartera total, política de liquidación de siniestros, composición de la cartera de inversiones, etc.

En el caso de un estudio general lo habitual es utilizar un “asegurador medio o estándar” intentando tomar las características generales del sector asegurador.

En orden a la aplicación de este tipo de modelos para el estudio del margen de solvencia, o más en concreto para la determinación de valores mínimos para éste, se trata de:
a. En el mejor de los casos, obtener la distribución de probabilidad del margen de solvencia y del ratio de solvencia para los distintos períodos del horizonte temporal fijado. Ya que en todo caso ha de depender de la distribución de la siniestralidad total, con el conocimiento de sus principales momentos puede bastar si es aplicable alguna aproximación (normal, NP). Fijada una probabilidad de ruina puede obtenerse el valor mínimo del margen de solvencia buscado. Esta es tarea difícil, e incluso imposible, cuando el modelo se complica por la introducción de más variables aleatorias.

b. Si lo anterior no es posible, podemos al menos obtener cierto conocimiento respecto a la evolución del margen de solvencia recurriendo a la simulación del modelo probando con distintos valores de la variables de decisión del modelo y de las que representan las circunstancias del entorno, llegando a poder estimar la probabilidad de ruina para cada conjunto de ellos.

4.- Aplicaciones.
A continuación se referencian algunas de las posibles formas en que se pueden considerar las distintas variables del modelo sin profundizar en exceso.

a).- Siniestralidad total: X(t).
La siniestralidad sigue siendo considerada la variable característica del negocio de seguros. Si se pretende su aplicación a las verdaderas circunstancias de la realidad de la empresa aseguradora su tratamiento ha de ser más amplio que el considerado en la Teoría del Riesgo Clásica.

Así, aunque se continúe en el marco de las distribuciones compuestas y en el caso del número de siniestros del modelo de Poisson ya no es suficiente con dar entrada a las posibles variaciones de corto plazo en las probabilidades básicas (lo que nos lleva a la distribución de Poisson ponderada) sino que, al ser habitualmente el horizonte temporal objeto de estudio medio y largo plazo es preciso dar entrada a variaciones de largo plazo en las citadas probabilidades producidas por el ciclo económico y tendencias de diversa naturaleza en las mismas. Es importante, asimismo, considerar el crecimiento de la cartera y la inflación en las cuantías de los siniestros.

Por otra parte, la lógica división de la cartera de la empresa aseguradora en ramos y modalidades tiene como consecuencia que la información disponible provenga inicialmente de las mismas. Es preciso integrar las características de la siniestralidad de las mismas para obtener la de la cartera total. La solución a este problema puede ser compleja de obtener si, como sucede en muchas ocasiones, no es posible aceptar la hipótesis de independencia de las siniestralidades.

Finalmente, un hecho a considerar en el estudio de la siniestralidad, que puede tener gran influencia en su fluctuación, es que los siniestros no se pagan en el momento de producirse y, en algunos ramos, el proceso de liquidación puede ser largo y afectado por circunstancias de difícil control por parte de la empresa aseguradora (sentencias de los tribunales de justicia, inflación, … ).

Estudiar cómo el denominado “run-off risk”, es decir, la variabilidad de la siniestralidad debida al citado hecho, puede considerarse como la diferencia entre el valor de la provisión para siniestros pendientes estimada y la siniestralidad real, es importante y, por tanto, debe ser introducido en el modelo. Ciertamente, las causas de error son de dos tipos: el error en la propia estimación de la cuantía de cada siniestro y, en su caso, el error respecto a las previsiones de rentabilidad de los activos en que se invierten las cantidades provisionadas.

En esta línea cabe citar el artículo pionero de Pentikäinen y Rantala (1986) y la incorporación a un modelo global realizado en el libro de Pentikäinen et al (1988), así como la importancia que siempre el British Solvency Working Party ha dado a este riesgo en sus estudios.

b).- Ingresos por primas: B(t).
Para un horizonte a medio y largo plazo es importante poder anticipar la evolución del volumen de primas. En la realidad el precio de un seguro no sólo depende de la experiencia de siniestralidad sino también de otro tipo de factores como son la estructura comercial de la empresa, previsiones respecto a la rentabilidad de sus inversiones, cuantía de capitales libres, así como la situación del mercado de seguros.

Siguiendo a Daykin, Pentikäinen y Pesonen (1990) puede considerarse la tarifa de primas como un problema de decisión que obedece a la expresión:

B = h (x , u , i , m , e)

donde:

x : representa la experiencia de la siniestralidad
u : la solidez financiera de la empresa medida por el margen de solvencia o ratio
de solvencia
i : la rentabilidad de las inversiones
m : el mercado y la estrategia del asegurador.

Las posibilidades de concreción varían ampliamente. Así el caso más simple implica la consideración de un crecimiento de primas, a partir de un nivel inicial, debido únicamente al efecto de la inflación y al crecimiento de la cartera, es decir:

B (t + s) = B(t) · r(t , t +s)

donde B representa el volumen de primas y r(t , t +s) el factor de crecimiento de las mismas debido a la inflación y al crecimiento de la cartera en el intervalo (t , t +s).

Pudiendo llegar a incluirse algún elemento de control que dependa de la evolución de diversos indicadores. Por ejemplo, puede hacerse que el nivel de primas varíe en función de la desviación del ratio de solvencia respecto a un valor ideal, u0, del mismo.

P(t) = P (0) + a (u0– u(t-2)) (con 0 <=a <=1)

c).- Rentabilidad de las inversiones: J(t).
La empresa aseguradora posee fundamentalmente dos fuentes de ingresos por inversiones, aquellos derivados de las inversiones propiamente dichas y los que proceden de la variación de los activos financieros.

La comprensión y, por tanto, la modelización de este aspecto de la actividad de la empresa aseguradora no es tarea fácil debido a que su resultado es fruto de diversos factores de difícil predicción. De esta forma, el ciclo económico (que tiene gran influencia en la siniestralidad e ingresos por primas) tiene gran relación con los rendimientos por inversiones. Pensemos en que es habitual un incremento en el valor de las acciones e inmuebles, por ejemplo, en épocas de auge económico; el incremento en los tipos de interés hará que disminuya su valor a la vez que incrementará la cuantía de los intereses recibidos en general.

Siendo evidente la relación directa que la rentabilidad de las inversiones posee sobre la solvencia de la empresa aseguradora, existe otra importante relación, quizás indirecta, también importante a señalar: los denominados períodos de “soft market” y ”hard market”. En períodos de elevada rentabilidad de inversiones puede producirse, por razones de competencia e incremento de la cuota de mercado, una disminución de las primas que se compensa con elevados rendimientos de las inversiones, pero un brusco descenso en los citados rendimientos unido a la dificultad de una readaptación de las primas a la nueva situación puede tener graves consecuencias sobre la solvencia de la empresa.

En la literatura actuarial encontramos distintas formas de introducir los rendimientos de las inversiones en el modelo que varían desde la rentabilidad fija en cada período para todos los activos invertidos hasta, en modelos más elaborados que intentan reflejar con mayor fidelidad la realidad de la actividad inversora (como el conocido “modelo de Wilkie” caracterizado por una mayor discriminación entre distintos tipos de activos y porque su evolución depende fundamentalmente de la inflación), la representación del resto de factores que influyen en la misma dentro de una variable aleatoria.

d).- Los activos.
Incluyen bonos, acciones y otros activos propiedad de la empresa en proporciones β1, β2 y β3 de forma que Σβ= 1. Los β son los parámetros de decisión de la empresa. Estos activos pueden seguir reinvirtiéndose a lo largo del proceso.

e).- Los dividendos.
Son calculados como un porcentaje cierto del beneficio de la compañía cuando este es positivo.

f).- La inflación.
Generada por una serie autorregresiva de grado 1, resultando un flujo cíclico irregular con un nivel medio dado. Los diferentes ramos tienen diferentes tasas de inflación y, por tanto, se calcula en base a la inflación general.

La inflación afecta, en primer lugar, a la cuantía a pagar por siniestros pendientes ya que la cuantía de estos (en muchas ocasiones) se incrementa fuertemente debido a la demora en el pago. En concreto, la inflación de los costes de los siniestros se debería tener en cuenta a la hora de calcular las primas. El asegurador puede basarse en la experiencia de años anteriores para calcular la inflación de los siniestros futuros. En cualquier caso, a menos que se tome la inflación real, las primas podrían calcularse de forma inapropiada, lo cual puede tener serias consecuencias para la viabilidad del asegurador hasta el punto de que unas primas inadecuadas pueden poner pronto en peligro la solvencia si su inadecuación no se reconoce rápidamente.

g).- El mercado.
La oferta disponible en el mercado también tiene un importante impacto en el negocio asegurador ya que ésta influye en los precios, especialmente en algunos ramos de seguro como el reaseguro y las líneas comerciales. La oferta excesiva tiene una tendencia a empujar hacia abajo las primas y, contrariamente, la carencia de oferta fuerza a subir los precios.

AUTORAS:
Eva Mª del Pozo García, Irene Albarrán Lozano. Profesoras Doctoras del Departamento de Economía Financiera y Actuarial .Facultad de C.C. Económicas y Empresariales. U.C.M.

Constitución de Reservas Técnicas

Esta publicación tiene como propósito presentar generalidades respecto a la constitución de reservas técnicas de las instituciones de seguros, así como los aspectos más relevantes de su utilización.

ÍNDICE

I. INTRODUCCIÓN
II. DEFINICIONES GENERALES
III. RESERVA MATEMÁTICA Y RESERVA DE RIESGO EN CURSO
1. Seguro de vida
2. Seguros de Accidentes y Enfermedades
3. Seguros de Daños
IV. RESERVA DE OBLIGACIONES PENDIENTES DE CUMPLIR
1. Reserva de Siniestros Pendientes de Pago
2. Reserva de Siniestros Ocurridos y No Reportados
V. RESERVA DE RIESGOS CATASTRÓFICOS
VI. RESERVA TÉCNICAS ESPECIALES
1. Reserva para fluctuación de inversiones
2. Reserva especial de contingencia
3. Reserva compensadora
4. Reserva para calce de las reservas matemáticas
5. Otras reservas


I. INTRODUCCIÓN
Las instituciones aseguradoras deben cumplir con las obligaciones que han contraído con los asegurados, lo que consiste fundamentalmente en hacer frente a las reclamaciones futuras que hagan los asegurados, para lo cual las aseguradoras deben contar con los recursos financieros suficientes. El principal recurso con que cuenta una aseguradora para tales efectos son las reservas técnicas.


II. DEFINICIONES GENERALES
1. Prima de tarifa: Es el costo del seguro, el cual está compuesto por el costo esperado de la siniestralidad, el costo de adquisición, el costo de administración y el margen de utilidad.

2. Prima de riesgo: Corresponde al costo esperado de la siniestralidad y es la porción de la prima de tarifa que debe destinarse para el pago de las reclamaciones por concepto de siniestros.

3. Costo de adquisición: Corresponde al costo total que se deriva de la contratación del producto, específicamente lo correspondiente a la publicidad y comisiones pagadas a los agentes.

4. Costo de administración: Se refiere al costo de los gastos que debe efectuar la institución, derivados de la administración del plan, entre otros, pagos de sueldos, equipos, etc.

5. Margen de utilidad: Es la porción de prima que será destinada a la utilidad de la compañía.

6. Reserva matemática: Es la reserva correspondiente a los seguros de vida y pensiones.

7. Reserva de riesgo en curso: Se refiere a las reservas correspondientes a la prima no devengada de los seguros de no Vida (Daños y Salud).

8. Reservas técnicas: Son las reservas ligadas directamente con los riesgos que se encuentran en curso, incluyendo obligaciones pendientes, provisiones para contingencias y fondos catastróficos. Cabe aclarar que algunas de estas reservas pueden estar integradas en el margen de solvencia y ser conceptualizadas como patrimonio de la aseguradora. Para mayor información sobre el margen de solvencia ingrese al siguiente link: Margen de solvencia.


III. RESERVA MATEMÁTICA Y RESERVA DE RIESGO EN CURSO
En un contexto general, la reserva de riesgo en curso se puede definir técnicamente como la parte de la prima que debe ser utilizada para el cumplimiento de las obligaciones futuras por concepto de reclamaciones, a lo que también se le llama “Prima no devengada”. Esta definición se traduce a una serie de cálculos actuariales que pueden resultar de mayor o menor complejidad dependiendo del tipo de seguro, por lo que para hacer una mejor explicación es importante hacer la distinción de los diferentes tipos de seguros y referirnos a los métodos de constitución de reservas correspondiente a cada uno de ellos. Es importante también aclara que cuando se trata de seguros de vida o pensiones es más común llamar a la reserva “Reserva matemática”, en tanto que para los seguros de daños así como de salud se le conoce como “Reserva de riesgos en curso”.

1. Seguro de vida
En los seguros de vida, la constitución de la reserva matemática se realiza dependiendo de la temporalidad del plan y de la forma de pago de la prima. En el caso de seguros cuya temporalidad es superior a un año, la constitución de la reserva debe realizarse mediante métodos actuariales de carácter universal que se encuentran preestablecidos a nivel internacional, por lo que resulta necesaria la asesoría de un actuario con conocimientos en la materia.

En los seguros de vida con temporalidad de varios años es frecuente que el pago de las primas se haga en forma nivelada y anual. La forma de operación de estos seguros origina la necesidad de constituir una reserva, ya que la prima nivelada anual al principio del tiempo es superior a la mortalidad esperada y a partir de cierto número de años transcurridos, esta prima es inferior a la mortalidad esperada anual.

Lo anterior se debe a que el riesgo de muerte es creciente con la edad de los asegurados mientras que la prima nivelada, al ser un valor promedio, no corresponde al valor esperado de la mortalidad anual.

imagen-1

Como se aprecia en el gráfico, al principio del tiempo la prima nivelada que paga el asegurado es superior a la cantidad que debería pagar, por lo que existe un exceso llamado prima de ahorro, que debe ser reservado para años futuros cuando esta situación se invierta y la prima nivelada resulte insuficiente para el pago de la siniestralidad esperada anual.

Los procedimientos (fórmulas) de valuación de estas reservas son muy variados y dependen de las características particulares de cada plan, por lo que para lograr una adecuada regulación, se debe procurar que el procedimiento de valuación que será utilizado quede indicado en una Nota Técnica la cual es conveniente que quede registrada ante el organismo regulador y que la fórmula de valuación sea definida por un actuario o profesionista con conocimientos en la materia. Por tales razones sólo es conveniente mencionar los principios técnicos más importantes que deben ser tomados en cuenta en el procedimiento de constitución de estas reservas.

El principio general que define una reserva matemática, es que su saldo debe corresponder a la diferencia entre el valor presente actuarial de las obligaciones futuras de la aseguradora (pago de siniestros futuros, VPACt) y el valor presente actuarial de las obligaciones futuras del asegurado (pago de primas futuras, VPAAt). Por lo anterior, se puede decir que la reserva matemática de cualquier tipo de plan con temporalidad superior a un año se puede representar en términos actuariales como:

imagen-2

Es común que la constitución de la reserva de estos planes se haga, como ya se explicó, conforme a la diferencia entre el valor presente de obligaciones correspondientes a siniestros esperados futuros y el valor presente correspondiente a las primas de riesgos futuras que pagará el asegurado, sin embargo, también es frecuente que se reserve, en su caso, la parte correspondiente a los gastos de administración futuros, para que se vayan devengando conforme transcurra la vigencia del plan, sobre todo cuando se trata de planes con una forma de pago a prima única.

En estos casos se puede establecer un sistema de reservas mediante la prima de tarifa neta de los costos de adquisición, con lo cual la reserva matemática estará “cargada” por los gastos de administración futuros que habrán de reservarse y devengarse en el tiempo.

Los parámetros que se encuentran implícitos en los conceptos actuariales para el cálculo de las reservas matemáticas son las tasas de mortalidad o supervivencia y la tasa de interés técnico que se utiliza para calcular los valores presentes de las obligaciones.

En la regulación para la constitución de reservas matemáticas, usualmente establecen las tablas de mortalidad, invalidez y muerte de inválidos entre otras, que habrá de utilizarse para los cálculos actuariales. Tales tablas deben corresponder a la experiencia del sector asegurador del país que se trate, sin embargo, en caso de que la experiencia de un país no resulte suficiente para la elaboración de una tabla, se puede tomar la experiencia de un país extranjero con características demográficas análogas.

Las tablas de mortalidad también pueden ser elaboradas y aplicadas de manera especial y diferenciada para ciertos tipos de seguros o inclusive especialmente para alguna aseguradora. Es común por ejemplo, utilizar tablas de mortalidad diferentes para seguros de grupo, seguros individuales y seguros de pensiones, esto se debe a que el comportamiento de la mortalidad en tales colectividades es distinto, por lo que surge la necesidad de que la tabla de mortalidad particularmente, deba ser elaborada especialmente para cada uno de estos tipos de seguros, lo mismo tablas de invalidez, morbilidad etc.

La tasa de interés técnico es uno de los parámetros que tienen más impacto sobre la constitución de reservas matemáticas. El valor máximo debe corresponder a un valor conservador de las tasas de rendimiento promedio sobre inversiones a largo plazo, que pueda ser obtenida sin grandes dificultades por la compañía de seguros, para evitar con esto el riesgo de insolvencia por rendimientos insuficientes para la constitución de las reservas matemáticas.

Aunque las reservas matemáticas son constituidas para enfrentar las obligaciones futuras por concepto de siniestros, su utilización no se realiza disponiendo de la reserva en forma directa, la reserva se va ajustando gradualmente con el tiempo mediante el cálculo periódico (anual) que realizan los actuarios y su saldo puede resultar en un incremento o decremento dependiendo del momento en que se encuentre la vigencia del plan, por lo que las reclamaciones por concepto de siniestros del año deben pagarse con los diferenciales que resulten entre las primas cobradas y el incremento o decremento de la reserva matemática, ya sea que tales diferenciales resulten suficientes o no para el pago de siniestros. Para una mayor profundización en el cálculo de reservas matemáticas puede visitar mi publicación sobre este tema en el siguiente link: Cálculo de reservas matemáticas.

Por otra parte, la constitución de la reserva para seguros cuya temporalidad es igual o inferior a un año, se debe realizar con la parte no devengada de la prima de riesgo (también puede reservarse el gasto de administración y el margen de utilidad e irse devengando conforme transcurra el año). La parte no devengada se calcula como la parte proporcional de la prima de riesgo respecto al tiempo que falta por transcurrir para el vencimiento de la vigencia de la póliza. En estos casos, en términos técnicos la reserva de riesgos en curso se puede expresar como:

imagen-3

De la misma manera que en la reserva matemática de planes a largo plazo, para la reserva de riesgos en curso de planes con temporalidad igual o inferior a un año, se debe definir la tabla de mortalidad a utilizar y la tasa de interés técnico.

En el caso de las Pensiones o Rentas vitalicias, la prima de este tipo de planes generalmente es una prima única, en consecuencia la reserva matemática se constituye con base en dicha prima única, por lo que en términos actuariales la reserva matemática de estos planes corresponde al valor presente actuarial de las obligaciones futuras de la aseguradora, por concepto de pago de rentas.

Existen dos aspectos que resultan especialmente relevantes en estas reservas, los cuales son: la definición de una tabla de supervivencia y la definición de un valor máximo de la tasa de interés técnico que se utilizará para el cálculo de la citada reserva. La tabla que se debe utilizar para estos planes, a diferencia de las tablas de mortalidad, las cuales con frecuencia suponen que la edad máxima de supervivencia de las personas es de 100 años, deben prever edades de supervivencia hasta los 110 años como mínimo, con la finalidad de que las reservas matemáticas permanezcan constituidas hasta esas edades en caso de supervivencia del asegurado. La tasa de interés técnico debe establecerse con la finalidad de que este supuesto no afecte la constitución de la reserva matemática y la solvencia de la institución, ya que la utilización de una tasa muy grande traería como consecuencia el cobro de primas pequeñas y exigirán la obtención de altas tasas de rendimiento de las inversiones correspondientes exponiendo a la compañía de seguros al riesgo de pérdida por rendimientos insuficientes, cuando éstos resulten inferiores a la tasa de interés técnico supuesta.

Otro aspecto que resulta relevante es la creación de una reserva especial, mediante una parte de la utilidad técnica, que sirva como apoyo a la reserva matemática, en caso de que la experiencia por supervivencia resultara adversa con el paso del tiempo, por un efecto natural de aumento en las expectativas de vida de los asegurados como consecuencia de avances científicos y aumentos de los niveles de vida en el ámbito social y económico. Análogamente, es necesaria la creación de una reserva especial que tenga como objeto, compensar las pérdidas producidas por rendimientos insuficientes de las inversiones, tal reserva se constituye con las utilidades técnicas producidas por rendimientos en exceso a los esperados o necesarios para la constitución de la reserva matemática y gastos de administración.

2. Seguros de Accidentes y Enfermedades
La temporalidad de los seguros de accidentes y enfermedades, salvo pocas excepciones, es de un año, por lo que la reserva de riesgos en curso se constituye con la parte de la prima no devengada, sin embargo, la prima que se debe utilizar para el cálculo de la reserva debe ser la prima de tarifa menos el costo de adquisición. A diferencia de los seguros de vida, en estos planes la parte correspondiente al gasto de administración y el margen de utilidad deben reservarse junto con la prima de riesgo e irse devengando en el tiempo hasta el vencimiento de la póliza. En términos técnicos la reserva de riesgos en curso para este tipo de planes debe calcularse como:

imagen-4

Es importante destacar que en este tipo de planes, la constitución de la reserva de riesgos en curso es análoga a la forma en que se constituye para los seguros de vida con vigencia igual o inferior a un año, sin embargo, la diferencia fundamental radica en que los gastos de administración y el margen de utilidad también se reservan y se van devengando en el tiempo, esto obedece fundamentalmente a la forma de operación de este tipo de planes, que requieren de una atención permanente en el pago de siniestros, ajustes, trámites, entre otros elementos, que generan gastos en forma continua, por lo que la porción de prima cobrada para tales efectos es con frecuencia superior a la de los seguros de vida.

3. Seguros de Daños
De manera semejante a los seguros de accidentes y enfermedades, los seguros de daños son en su mayor parte de vigencia anual o inferior, por lo que la constitución de la reserva de riesgos en curso es similar y puede llevarse a cabo de manera exacta, póliza por póliza. También se pueden establecer fórmulas de cálculo de reserva que en lugar de días sean por meses, trimestres, quincenas o semanas, para el devengamiento de la reserva, tal es el caso de los métodos de veinticuatroavos, doceavos, octavos, etc.

imagen-5

En los seguros de daños existe también la modalidad de seguros con vigencia superior a un año, por lo que se debe establecer un esquema de constitución de reservas para estos casos. La reserva de planes con vigencia superior a un año se calcula con la parte no devengada de la prima correspondiente al año más el 100% de las primas correspondientes a años futuros actualizadas a una tasa que no debe ser inferior a la inflación.

imagen-6

Es importante aclarar que este método presupone el cobro de una prima única en la cual están incluidos los costos de administración, adquisición y margen de utilidad futuros. En este caso el asegurado no tiene obligación futura de pago de primas por lo cual la reserva se constituye sólo con el valor esperado de las obligaciones futuras de la aseguradora, que corresponde a las primas no devengadas que deberán ser guardadas para el pago de siniestros de años futuros o devueltas al asegurado en caso de que el bien asegurado desaparezca.

Otro aspecto que es importante aclarar es que el pago fraccionado de la prima no modifica el procedimiento de cálculo de la reserva, por lo que el cálculo debe realizarse como si la prima se hubiese pagado en su totalidad al inicio de vigencia del plan, sin embargo, para evitar una distorsión en la contabilidad se debe permitir a la aseguradora que reconozca en sus estados financieros el saldo deudor de las fracciones de primas que faltan por cobrar.

IV. RESERVA DE OBLIGACIONES PENDIENTES DE CUMPLIR
La reserva de obligaciones pendientes de cumplir corresponde a la suma de dos reservas distintas, por una parte, la reserva de siniestros pendientes de pago, y por otra, la reserva por siniestros ocurridos y no reportados; ambas reservas constituyen obligaciones pendientes de cumplir, sin embargo su metodología de constitución es distinta.

1. Reserva de Siniestros Pendientes de Pago

La reserva de obligaciones pendientes de cumplir por concepto de siniestros pendientes de pago es, junto con la reserva de riesgos en curso, esencial para asegurar la solvencia de la compañía de seguros. Esta reserva se constituye con los saldos de las obligaciones derivadas de reclamaciones recibidas por la compañía y que por alguna razón no se han liquidado o pagado. En los casos más comunes, se constituye cuando la institución tiene conocimiento de la ocurrencia de un siniestro, pero su valor no ha quedado totalmente definido por el ajustador o no se ha logrado determinar si la reclamación es procedente. Cuando se origina el siniestro, la compañía, por práctica de mercado o por norma regulatoria, debe constituir la reserva provisional correspondiente a la reclamación, hasta en tanto se realice el ajuste respectivo.

Esta reserva, por su naturaleza, no tiene un procedimiento de cálculo específico, ya que la misma se constituye con los saldos estimados por los ajustadores de siniestros que hayan ocurrido y se tengan que liquidar en el futuro. Asimismo, dentro de esta reserva deben incluirse otros gastos ligados al siniestro, como son gastos de ajuste, intereses por mora, devoluciones de primas, penalizaciones, entre otros.

2. Reserva de Siniestros Ocurridos y No Reportados
La reserva por siniestros ocurridos y no reportados es una reserva técnica que corresponde al pasivo que se produce cuando los siniestros que ocurren en un determinado año, por diversas causas no son reclamados en el mismo, sino en años posteriores, con la consecuente obligación que debe reconocerse en estados financieros.

Existen variados métodos para la constitución de esta reserva, sin embargo, el criterio general para su valuación está dado como el valor estimado de la suma de los siniestros ocurridos y no reportados (SONR) que se espera pagar en el futuro, sobre un periodo de tiempo n que se conoce como periodo de desarrollo y que provienen de un determinado año de origen i.

imagen-7

La reserva se debe ajustar anualmente, conforme a los resultados que se obtengan de la valuación actuarial incorporando las nuevas tendencias que la institución tenga en siniestralidad.

Una parte complementaria de la reserva de Siniestros Ocurridos y No Reportados es la reserva de gastos de ajuste asignados al siniestro que se constituye de la misma forma que la reserva por siniestros ocurridos y no reportados, y tiene como objeto reconocer las obligaciones que se generen por los gastos de ajuste que se derivan de los siniestros ocurridos y no reportados.

Uno de los procedimientos más sencillos para calcular la reserva de siniestros Ocurridos y No Reportados es el llamado método de la razón, el cual consiste en lo siguiente:

Suponiendo que una compañía tiene n años de experiencia en siniestralidad (suponiendo que los siniestros ocurridos se reportan con a lo más n años de retraso), se debe organizar la estadística de los n años, en un arreglo matricial, clasificando los siniestros por año de origen y año de desarrollo. Se le llama año de origen i al año de donde se originó la ocurrencia del siniestro y año de desarrollo j al año en que se reclamó el siniestro, de tal manera que un siniestro que proviene del año i y se reclamó en el año j se le denota Sij , con lo que la matriz se construye de la siguiente forma:

imagen-8

imagen-9

Asimismo la matriz de siniestros acumulados se elabora de la siguiente forma:

Imagen 10.jpg

imagen-11

imagen-12

imagen-13

imagen-14

imagen-15


V. RESERVA DE RIESGOS CATASTRÓFICOS
La reserva de riesgos catastróficos resulta necesaria para seguros de ciertos riesgos cuyo efecto, en caso de siniestro, puede ser de carácter catastrófico y poner en riesgo la situación financiera de la institución. Los riesgos más comunes que pueden tener efectos catastróficos son: terremoto, huracán, granizo, incendio, inundación, entre otros.

Estos riesgos se caracterizan por que su ocurrencia puede afectar de manera simultánea a diversos bienes, trayendo consigo pérdidas económicas de gran importancia para la compañía de seguros, ya que la prima cobrada no resultará suficiente para enfrentar el costo de las reclamaciones.

Por lo anterior es indispensable que para este tipo de riesgos exista una reserva técnica especial que ayude a solventar el pago de siniestro en caso de que ocurra un evento de tal naturaleza.

Es evidente que puede ser común un incendio o una inundación, lo que es poco común es que produzcan daños catastróficos, entendiendo como tales, aquellos cuyos efectos puedan causar daños importantes en la región donde ocurren. Lo más natural es que la ocurrencia de tales eventos sea esporádica, y por tanto haya un amplio período de tiempo entre la ocurrencia de un evento y otro; a tal período de tiempo se le llama regularmente período de recurrencia.

Durante el período de recurrencia, la compañía aseguradora estará cobrando primas sin tener casi siniestros, por lo que habrá excedentes de tales primas que deben ser reservados acumulativamente en un fondo para enfrentar un posible evento catastrófico en el futuro. Esta finalidad se cumple con la constitución de una reserva de riesgos catastróficos, la cual se forma con la parte que se va devengando de las primas de riesgo y los productos financieros que se obtengan de la inversión de la reserva. Por lo anterior, la constitución de la reserva de riesgos catastróficos se puede expresar como la suma de las primas de riesgo de retención capitalizadas con sus productos de inversión.

imagen-16

Esta reserva es acumulativa durante todo los años hasta el monto máximo que se establezca como límite. El monto máximo que se debe utilizar como límite debe estar asociado a la pérdida máxima probable que se espera en caso de ocurrencia de un evento catastrófico.

El empleo de esta reserva debe ser exclusivamente para el pago de siniestros de tipo catastrófico, por lo que no debe ser utilizado para otros fines.

Por otra parte, en el caso de terremoto, resulta importante que los organismos de supervisión establezcan mecanismo de control de cúmulos en zonas geográficas de alto riesgo de terremoto y tomen en cuenta la concentración de éstos, mediante requerimientos de capital, reserva catastrófica y coberturas de reaseguro de exceso de pérdida, que eviten poner en riesgo la solvencia de la institución como consecuencia de las posibles pérdidas extraordinarias que se pueden producir en dichos cúmulos, ante un evento catastrófico.

VI. RESERVA TÉCNICAS ESPECIALES
Se ha hablado de las reservas técnicas más comunes, sin embargo, pueden existir reservas técnicas especiales que se necesiten crear con fines específicos, en todo caso, éstas deben ser autorizadas de manera especial por las autoridades reguladoras, analizando las características de cada caso y cuidando que su objeto no sea duplicado con el de otras reservas ya constituidas.

1. Reserva para fluctuación de inversiones
Esta reserva tiene como objeto enfrentar la posible pérdida que se produce cuando, por efecto de fluctuaciones y situaciones imprevistas en los mercados financieros, no se logran obtener los rendimientos mínimos necesarios para el incremento de otras reservas, o se producen pérdidas por la inversión en ciertos instrumentos financieros.

La constitución de esta reserva se realiza con aportaciones periódicas que se derivan de la utilidad o excedentes en los productos financieros de la inversión de las reservas técnicas y su límite quedará definido por una cantidad que corresponda a la pérdida esperada anual, por una fluctuación imprevista en los instrumentos financieros del mercado de inversión.

2. Reserva especial de contingencia
Esta reserva se crea cuando no se conoce con certidumbre los resultados que se obtendrán en el futuro en determinados tipos de seguros o en nuevos productos, porque se carece de una experiencia y estadísticas para efectuar los estudios correspondientes. En estos casos la reserva se constituye con el objeto de hacer frente a resultados adversos que se produzcan específicamente por la operación de los seguros en cuestión. Se constituye con los sobrantes que se producen de la prima de riesgo que se cobra en cada año o mediante cualquier otro procedimiento que establezca el regulador, y se utiliza en caso de que se presenten de manera imprevista cúmulos de
reclamaciones que produzcan resultados adversos.

3. Reserva compensadora
Esta reserva también puede tener otros nombres como reserva ecualizadora de previsión, niveladora, etc. Tiene por objeto crear un fondo para compensar las pérdidas técnicas que resulten de la operación del seguro en un año determinado, como consecuencia de una desviación en los patrones de siniestralidad.

La constitución de esta reserva tiene un fundamento técnico que se deriva de las hipótesis actuariales con que las instituciones y sociedades mutualistas de seguros determinan la prima de riesgo. La prima de riesgo es un valor esperado determinado con base en la experiencia de la siniestralidad, que se espera se cumpla en el tiempo. Sin embargo, en un sólo ejercicio la experiencia real puede ser inferior o superior al valor esperado, lo cual dará como resultado pérdida o utilidad técnica.

De acuerdo con el principio de “compensación en el tiempo”, para asegurar la estabilidad financiera de una institución, se debe constituir una reserva que ayude a prever los casos de pérdida técnica que se produzcan por la fluctuación natural de la siniestralidad o por fenómenos atípicos que desvíen los patrones de dicha siniestralidad.

La constitución de esta reserva permite que las instituciones cuenten con los recursos necesarios para hacer frente a esta situación, que en otras circunstancias afectarían el patrimonio de la institución y pondría en peligro su solvencia y los intereses de los asegurados.

4. Reserva para calce de las reservas matemáticas
En muchos seguros a largo plazo, especialmente en los seguros de pensiones, se establece una hipótesis financiera para realizar cálculos actuariales (tasa de interés técnico), en los que se presupone que la reserva matemática obtendrá productos financieros de largo plazo, equivalentes a dicha tasa, sin embargo puede haber años en que los productos financieros sean superiores a los previstos, con lo cual se genera una utilidad por rendimientos financieros, o resulten ser inferiores a los previstos con los que se genera una pérdida. Para evitar estas fluctuaciones, la institución puede constituir una reserva con las eventuales utilidades por rendimientos, para compensar las pérdidas que se produzcan en algún año específico cuando no se pueda obtener la tasa de rendimiento prevista en las hipótesis actuariales.

Es importante señalar que este mecanismo puede ser complementario a una regulación de calce basada en requerimientos de margen de solvencia, que se hacen cuando el plazo de los instrumentos en que se encuentran invertidas las reservas sean menores al periodo en que estarán vigentes.

5. Otras reservas
Pueden constituirse otros tipos de reservas especiales siempre que resulten necesarios para hacer frente a algún riesgo extraordinario que se derive de la operación de seguros, tal es el caso de reservas para insuficiencia de primas, reserva para extralongevidad en los seguros de pensiones, reserva para siniestros con efectos catastróficos, etc., sin embargo, se debe procurar que no exista una duplicidad en el objeto y aplicación de reservas así como evitar la constitución de muchas reservas por separado (estratificación), siempre que pueda quedar incluida en reservas de aplicación más general, ya que la constitución de muchos tipos de reservas conlleva a una difícil administración por parte de la compañía y difícil supervisión por parte de organismos regulador, en tanto que la constitución de reservas de aplicación más general ayudan a la optimización de recursos ya que se da el apalancamiento de recursos, por ejemplo la constitución de una reserva compensadora global para toda la operación de seguros de daños, excepto terremoto, permitiría hacer uso de la misma por pérdidas técnicas en cualquiera de los ramos en que surgiera y en una magnitud superior, que no sería posible si se constituyera la reserva para cada ramo por separado y sólo fuera posible afectar la reserva del ramo en donde se presenta la pérdida.

Fuente:

-Asociación de Superintendentes de Seguros de América Latina – ASSAL. Criterios Generales de Solvencia-Constitución de Reservas Técnicas. Abril de 2000

El análisis estadístico de grandes masas de datos: Algunas tendencias recientes

Navegando en internet encontré el siguiente artículo, el cual me pareció interesante dado que lo que más existe actualmente es información, mucha información. Como actuarios considero es importantísimo estar al día sobre algunas tendencias recientes para el análisis estadístico de grandes masas de datos. A continuación se los comparto.

Autor del artículo:
Antonio Cuevas / Departamento de Matemáticas / Universidad Autónoma de Madrid

ÍNDICE

I. INTRODUCCIÓN
1. Algunos comentarios sobre el significado de la Estadística y su relación con otras ciencias
2. El planteamiento general de este artículo
II. UN VISTAZO GENERAL A LA ESTADÍSTICA PARAMÉTRICA CLÁSICA
1. Relación de la Inferencia Estadística con la Teoría de la Probabilidad: la densidad normal y otros modelos paramétricos
2. Los tres problemas clásicos en Estadística Paramétrica
III. LA ESTIMACIÓN FUNCIONAL NO PARAMÉTRICA: UNA ALTERNATIVA A LOS MODELOS CLÁSICOS
1. Del humilde histograma y sus virtudes
2. Los estimadores kernel: una versión sofisticada de los histogramas
3. Aplicaciones de los estimadores no paramétricos de la densidad al análisis de conglomerados (clustering)
4. La opción no paramétrica en los problemas de regresión
5. Ventajas e inconvenientes de los métodos no paramétricos
6. Sobre la popularidad de la estadística no paramétrica: programas informáticos disponibles
IV. ESTADÍSTICA CON DATOS FUNCIONALES


I. INTRODUCCIÓN

1. Algunos comentarios sobre el significado de la Estadística y su relación con otras ciencias
La Estadística es la ciencia de los datos, entendiendo como “datos” un conjunto de observaciones generalmente (pero no necesariamente) numéricas, obtenidas mediante la observación reiterada de un experimento de interés.

La metodología de trabajo habitual en las ciencias experimentales incluye la elaboración de modelos para explicar un determinado fenómeno y la verificación posterior de estos modelos a partir de la observación experimental que suele conducir a la obtención de datos. Así pues, en cierto sentido, la Estadística es una “ciencia transversal” a las demás, que ayuda a interpretar los datos empíricos obtenidos en cualquier campo.

La Estadística es también una “ciencia de servicio” en el sentido de que los temas de investigación que llevan al desarrollo de nuevas técnicas deben estar directamente motivados por las demandas de los usuarios (biólogos, ingenieros, físicos, economistas, …) más que por las necesidades de coherencia formal o desarrollo interno de la teoría.

El desarrollo matemático de la Estadística ha sido más reciente que el de otras ciencias matemáticas. Si aceptamos como un indicio de la madurez y consolidación de una ciencia la presencia de programas académicos establecidos, con un cuerpo común que se considera básico en las universidades de todo el mundo, podemos advertir algunas diferencias objetivas entre la Estadística y, por ejemplo, el Análisis Matemático. Así, puede señalarse que mientras la estructura de los cursos académicos avanzados de Análisis, con un planteamiento y notación similares a las que hoy conocemos (incluyendo un estudio rigurosos de la teoría de funciones, límites, diferenciabilidad, continuidad, series, …), estaba ya más o menos establecida hacia 1880 (a partir de las lecciones de Weierstrass en la Universidad de Berlín), los primeros libros de texto “modernos” y generales de Estadística Matemática no llegaron hasta mucho más tarde. Así, la obra clásica de Harald Cramer Mathematical Methods of Statistics, que sirvió de modelo para tantos otros textos posteriores, se publicó en 1945.

Por lo demás, la ciencia estadística se encuentra actualmente en un buen momento. La teoría central se ha desarrollado y enriquecido de tal manera que los cursos clásicos de los años 60 y 70 del sigo XX pueden considerarse hoy como superados en gran medida. Incluso observando el progreso de la investigación con la perspectiva más cercana de los últimos 10 años se puede apreciar un progreso evidente y consolidado. Tomando de nuevo el mundo académico como indicador: la comparación de la obra de Hastie, Tibshirani y Friedman The Elements of Statistical Learning (que está probablemente llamada a convertirse en un clásico de los principios del siglo XXI) con el texto de Cramer citado antes, deja poco lugar a dudas sobre el cambio de panorama que se ha producido.

Conviene advertir aquí que la palabra Estadística tiene, al menos, dos sentidos, claramente distintos aunque muy relacionados:
Estadística descriptiva (llamada modernamente Análisis de datos): Conjunto de técnicas orientadas a extraer información de un gran conjunto de datos, mediante medidas (media, mediana, moda, varianza) que resumen sus principales rasgos, y mediante herramientas gráficas. Este aspecto descriptivo representa quizás la imagen más común de la Estadística para el público no especializado, ya que constituye el aspecto más destacado de la presencia de esta ciencia en los medios de información, a través de las estadísticas oficiales, la divulgación científica, los datos económicos, la publicidad, etc.

Inferencia Estadística: Su objeto es obtener información sobre el modelo probabilístico que subyace en un determinado experimento aleatorio consistente en la observación de una cierta cantidad (o “variable”) aleatoria. Un ejemplo típico de problema de inferencia, que comentaremos más adelante, sería estimar la media de una variable aleatoria de interés (por ejemplo, la media de la variable X= “consumo mensual de electricidad en los domicilios particulares”).

Como veremos a continuación, todos los métodos estadísticos requieren experimentación, es decir, obtención de muestras (se llama “muestra” al conjunto de datos resultante de la observación reiterada de una variable aleatoria).

2. El planteamiento general de este artículo
La Estadística clásica está en buena parte dominada por la teoría de la inferencia basada en “muestras pequeñas”, es decir, para situaciones en las que se dispone de pocos datos (típicamente, menos de 30). Por ejemplo, toda la teoría de los tests de hipótesis basados en la t de Student puede situarse dentro de esta metodología para muestras pequeñas. Actualmente, estos métodos siguen siendo muy importantes y utilizados, pero han surgido nuevos problemas relacionados con la sobreabundancia de datos, más que con su carestía. La creciente facilidad para almacenar y procesar información por medio de potentes ordenadores, unida a la capacidad de evaluar con precisión en “tiempo continuo” gran cantidad de procesos (temperaturas, cotizaciones bursátiles, audiencias de televisión, …) han conducido a la existencia de enormes masas de datos que plantean problemas, teóricos y prácticos, para su manejo útil.

La frase “We are drowning in information and starving for knowledge” citada por Hastie, Tibshirani y Friedman resulta particularmente acertada y describe muy expresivamente una situación que es cada vez más frecuente.

La palabra “recientes” que aparece en el título debe entenderse en un sentido amplio. En realidad, la estimación funcional no paramétrica dista mucho de ser una novedad, ya que su origen se remonta a mediados de los años 50. Sin embargo, el gran progreso que se ha experimentado en los últimos diez o quince años, unido a la relativa popularización reciente de estas técnicas (que ahora son realmente accesibles a los usuarios gracias a los modernos ordenadores) permiten considerar a los métodos no paramétricos como incorporaciones recientes al núcleo de los métodos estadísticos que no sólo importan a los investigadores sino también a los usuarios. Por otra parte, las tendencias actuales tienen a acentuar la importancia de estos métodos como instrumentos auxiliares de otras técnicas (clasificación, análisis de conglomerados, …) que están típicamente asociadas al manejo de grandes masas de datos.

La estadística con datos funcionales sí puede considerarse, sin mayores reservas, como una teoría “reciente”. El primer manual general sobre este tema se debe a Ramsay y Silverman y ha sido publicado en 1997. Como siempre, pueden detectarse aquí y allá (desde, al menos, el principio de los años 80), artículos de investigación que abordaban estas ideas, pero aún hoy no hay una teoría sistemática.

II. UN VISTAZO GENERAL A LA ESTADÍSTICA PARAMÉTRICA CLÁSICA

1. Relación de la Inferencia Estadística con la Teoría de la Probabilidad: la densidad normal y otros modelos paramétricos

Generalmente, la estadística inferencial se aplica al estudio de una cierta magnitud aleatoria o “variable aleatoria” (v.a.). En muchos casos, esta variable corresponde a la observación de una cierta característica en los individuos de una gran población y por eso se emplean a veces las palabras población y “poblacional” para referirnos a X y a sus características. La teoría de la probabilidad proporciona las herramientas para identificar y definir las características de esa variable que interesa estudiar (distribución, media, varianza, …) y proporciona algunos modelos típicos que aparecen con frecuencia en las aplicaciones.

imagen-1

imagen-2

La densidad normal (cuya gráfica tiene una típica forma de campana) es un ejemplo importante de función de densidad que se emplea muchas veces para caracterizar la distribución de una v.a. Esta distribución es casi omnipresente en las aplicaciones de la Probabilidad y la Estadística a las ciencias experimentales porque, según establece el Teorema Central del Límite, (enunciado en términos informales) la distribución de cualquier variable que pueda expresarse como suma de muchas otras variables independientes, cada una de las cuales tiene un efecto pequeño sobre la variable total, sigue aproximadamente una distribución normal. Esta es la razón de la importancia fundamental de la distribución normal en Física (Teoría de Errores, Mecánica estadística, …), en Genética (estudio de la distribución de los caracteres cuantitativos), etc.

imagen-3

A continuación se presentan brevemente algunos ejemplos concretos que corresponden a situaciones reales en las que interesa estudiar una variable aleatoria cuya distribución puede elegirse dentro de algún modelo paramétrico conocido.

imagen-4

imagen-5

imagen-6

imagen-7-y-8

Estos ejemplos muestran que la teoría de probabilidades proporcionan una amplia “caja de herramientas” para elegir y manejar modelos que sean adecuados a diferentes situaciones pero, en general, no permite determinar completamente la distribución más adecuada para cada caso. Por ejemplo, en los enfoques paramétricos, estos modelos están determinados salvo uno o varios parámetros que no son conocidos. Aquí entra en juego la Estadística.

2. Los tres problemas clásicos en Estadística Paramétrica

imagen-9

imagen-10imagen-11

La Estadística Paramétrica clásica proporciona procedimientos generales para construir y analizar estimadores adecuados para algún parámetro de interés del cual depende la distribución de la variable estudiada. Naturalmente, esto incluye otras situaciones en las que el “estimador adecuado” no aparece de una manera tan directa y natural como en el ejemplo anterior.

Estimación por intervalos de confianza
Se trata de dar un intervalo de valores que cubre, con alta probabilidad, el valor desconocido del parámetro.

Quizás el ejemplo más popular (aunque en modo alguno el más importante) de estimación por intervalos de confianza es la obtención de las llamadas “horquillas de predicción” en las encuestas electorales.

Otro ejemplo más relevante surge en la metodología de control estadístico de calidad, donde los clásicos control charts de Sewhart aparecen muy relacionados con ideas de intervalos de confianza.

También en otros muchos campos, como la investigación de mercados, resultan útiles los intervalos de confianza. Como ejemplo de aplicación en este último ámbito, consideremos el siguiente estudio de mercado:

La compañía Apple Computer lanzó en 1998 el nuevo modelo iMac. La demanda inicial fue excelente. Sin embargo, la compañía estaba interesada en conocer si iMac estaba atrayendo de manera significativa “nuevos compradores” (es decir, personas que adquirían por primera vez en su vida un ordenador). Se realizó un estudio sobre 500 compradores resultando que 83 de ellos eran nuevos compradores. La proporción estimada de nuevos compradores entre los usuarios de iMac fue, por tanto, 83/500=0.617. El intervalo de confianza al 95% (obtenido con técnicas elementales de inferencia paramétrica) va de 0.13 a 0.20. Esto proporciona una información más completa que la simple estimación puntual.

Contraste de hipótesis
Esta técnica, no siempre bien comprendida ni utilizada, ayuda a optar entre dos posibles alternativas respecto al valor de un parámetro. En general, un contraste de hipótesis es un procedimiento que permite responder racionalmente (y siempre con una cierta probabilidad, controlada, de error) a preguntas del tipo:

  • ¿Hay suficiente evidencia estadística para poder afirmar que un determinado fármaco baja, en promedio, la presión arterial de los pacientes una hora después de haberlo ingerido?
  • ¿Hay suficiente evidencia estadística para poder afirmar que la cantidad media de detergente contenida en los paquetes de una determinada marca es inferior al valor nominal (1 kg) indicado en la etiqueta?
  • ¿Es superior la “dieta mediterránea” a una dieta “baja en grasas” recomendada por la American Heart Association?

En todos los casos, la idea básica es obtener una muestra y decidirnos por la hipótesis que se cuestiona cuando los datos muestrales resultarían muy improbables en el caso de que esta hipótesis no fuera cierta. Por ejemplo, en el último de los casos citados, se realizó un estudio sobre 605 supervivientes de un ataque cardíaco. De ellos, 303 recibieron dieta mediterránea y 302 la dieta AHA. Los resultados (publicados en 1998) fueron muy significativamente a favor de la primera en vista del porcentaje de personas en ambos grupos que sufrieron enfermedades durante un cierto período de tiempo.

III. LA ESTIMACIÓN FUNCIONAL NO PARAMÉTRICA: UNA ALTERNATIVA A LOS MODELOS CLÁSICOS

Como hemos visto en el apartado anterior, la estadística clásica depende fuertemente de suposiciones “paramétricas” (llamada frecuentemente “modelos paramétricos”) sobre la distribución de la variable que genera los datos. La palabra “paramétrica” alude aquí al hecho de que estos modelos fijan completamente la distribución excepto por el valor de uno o varios parámetros reales que deben ser estimados. El ejemplo más típico, y el modelo paramétrico más utilizado es, con diferencia, el modelo normal. Sin embargo, hay muchas situaciones prácticas en que un sencillo análisis exploratorio de los datos muestra claramente que la suposición de normalidad es inadecuada. Lo mismo ocurre con otros modelos paramétricos usuales.

1. Del humilde histograma y sus virtudes
Consideremos el siguiente ejemplo clásico, correspondiente a la observación a lo largo de los días 1 a 8 de agosto de 1978, de 107 valores correspondientes a tiempo (medidos en minutos) entre erupciones consecutivas de un geyser, llamado “Old Faithful”, en el parque norteamericano de Yellowstone y también a la duración de las erupciones de dicho geyser durante el período indicado. La simple representación de estos dos conjuntos de datos, mediante dos clásicos histogramas (ver figuras 2 y 3) resulta muy significativa.

imagen-12imagen-13

A la vista de estas figuras nadie podría decir razonablemente que la distribución de ninguna de estas variables es normal (la curva normal “más cercana” a los datos aparece sobrepuesta). Estas gráficas sugieren más bien que, en ambos casos, la población observada está dividida en dos “subpoblaciones” correspondientes a las dos “modas” que se observan en el gráfico. Como curiosidad, puede decirse que los resultados obtenidos a partir de un conjunto semejante de datos obtenido un año después (en agosto de 1979) fueron casi idénticos. Parece que el “Old Faithfull” tiene costumbres regulares.

A la pregunta: “si la variable observada no tiene distribución normal, entonces ¿cuál es su distribución?”, puede responderse simplemente: “olvidemos las distribuciones paramétricas preestablecidas. Utilicemos el propio histograma como si fuese (aproximadamente) la función de densidad de la variable”. Para entender por qué esta interpretación es razonable, conviene explicitar la definición formal de histograma:

imagen-14imagen-15imagen-16

Recapitulando, el histograma tiene dos aspectos, complementarios e igualmente importantes:
a) La vertiente más conocida del histograma es su utilidad como herramienta de análisis y visualización de datos. Este aspecto resulta especialmente valioso cuando el número de datos es enorme (actualmente es muy habitual manejar bases con decenas de miles de datos) y se desea tener una primera idea rápida y “visualizable” acerca de su estructura.

b) El segundo aspecto, menos popular quizás, está relacionado con la inferencia: el histograma es, en realidad, un estimador no paramétrico de la función de densidad que puede utilizarse para reemplazar a los modelos paramétricos usuales (y, en particular, al omnipresente modelo normal) cuando hay razones para dudar de ellos.

El histograma es “no paramétrico” en el sentido de que su uso no requiere ninguna suposición del tipo de que la distribución de la variable bajo estudio esté confinada en ninguna familia paramétrica de distribuciones (como la normal, la logarítmico normal, la gamma, etc.).

La discusión anterior pone de relieve algunos rasgos característicos de la estimación no paramétrica:
• Los estimadores no paramétricos dependen de un parámetro (llamado parámetro de suavizado) cuya elección es, hasta cierto punto, arbitraria. La elección adecuada de este parámetro (la anchura de los intervalos, en el caso de los histogramas) es uno de los problemas más delicados de la estadística no paramétrica y ha sido objeto de una investigación intensiva a lo largo de los años 80 y 90. El problema es muy controvertido y no tiene aún una solución uniformemente aceptada por la comunidad estadística. Sin embargo, se ha producido un enorme progreso en esta dirección que facilitará la incorporación (no realizada aún plenamente) de estas técnicas a los paquetes comerciales de software.

• Los estimadores no paramétricos requieren muestras “grandes” (de al menos 100 datos, típicamente). Hay dos razones para esto: primero, los métodos de estimación no paramétricos son “locales”: para estimar la densidad de probabilidad en un punto se utilizan principalmente los puntos muestrales cercanos a punto en cuestión. Si la muestra es demasiado pequeña, puede ocurrir que apenas se tengan datos en las proximidades de dicho punto. La segunda razón es que, en su inmensa mayoría, las motivaciones teóricas actualmente disponibles para los métodos no paramétricos son de carácter asintótico, es decir, se basan en propiedades relativas al comportamiento de los estimadores cuando el tamaño muestral tiende al infinito.

• Desde un punto de vista matemático-formal, puede considerarse que la Estadística no paramétrica es una extensión de la Estadística clásica (paramétrica) en la que el “parámetro de interés” es una función, es decir, un elemento de un espacio de dimensión infinita, en lugar de un número real o un vector de números reales.

2. Los estimadores kernel: una versión sofisticada de los histogramas
Los histogramas, del tipo de los que se muestran en las Figuras 2 y 3, pueden resultar útiles e ilustrativos para muchos propósitos pero son decididamente inadecuados bajo otros puntos de vista. En concreto:
• Los histogramas son siempre, por naturaleza, funciones discontinuas; sin embargo, en muchos casos es razonable suponer que la función de densidad de la variable que se está estimando es continua. En este sentido, los histogramas son estimadores insatisfactorios.

• Como los histogramas son funciones constantes a trozos, su primera derivada es cero en casi todo punto. Esto los hace completamente inadecuados para estimar la derivada de la función de densidad.

• Parcialmente relacionado con el punto anterior está el hecho de que los histogramas no son tampoco adecuados para estimar las modas (si se define moda como un máximo relativo de la función de densidad). A lo sumo, pueden proporcionar “intervalos modales”, pero esto puede resultar demasiado burdo en casos en que se requiere mayor precisión.

Los estimadores de tipo núcleo (o kernel) fueron diseñados para superar estas dificultades. La idea original es bastante antigua y se remonta a los trabajos de Rosenblatt y Parzen en los años 50 y primeros 60. Los estimadores kernel son, sin duda, los más utilizados y mejor estudiados en la teoría no paramétrica. Se definen mediante la expresión

imagen-17imagen-18imagen-19imagen-20imagen-21imagen-22imagen-23

El problema de determinar f para distintos países ha sido extensivamente estudiado. En Gran Bretaña se realizó un estudio particularmente detallado, en el que se estimó la densidad f, utilizando estimadores no paramétricos y modelos paramétricos para cada año del período comprendido entre 1968 y 1981. En la Figura 5 se muestran las densidades estimadas por métodos no paramétricos (trazo continuo) basados en una muestra de 6711 datos (reescalados dividiendo por la media) correspondientes al año 1975.

imagen-24

La diferencia entre ambos estimadores es muy llamativa: en el estimador no paramétrico aparecen muy claramente dos modas que de ninguna manera pueden aparecer en el modelo paramétrico lognormal que, por definición, tiene sólo una moda. Este mismo hecho se observa, de manera sistemática, a lo largo de todo el período observado e incluso, hacia el final del período se acentúa la moda de la izquierda (que correspondería a la clase económicamente más débil). No cabe duda de que en este problema, la existencia de una moda o de dos no es un hecho irrelevante ya que la presencia de dos modas sugiere claramente una cierta estructura de clases sociales que está necesariamente oculta en el modelo lognormal que, además, sobreestima el peso relativo de la clase alta. En definitiva, este ejemplo muestra que la mayor flexibilidad de los estimadores no paramétricos les permite en ocasiones describir la realidad de manera más objetiva y precisa.

3. Aplicaciones de los estimadores no paramétricos de la densidad al análisis de conglomerados (clustering)

imagen-25imagen-26imagen-27imagen-28-y-29


4. La opción no paramétrica en los problemas de regresión

imagen-30imagen-31-y-32imagen-33imagen-34-y-35imagen-36imagen-37-y-38imagen-39imagen-40imagen-41


5. Ventajas e inconvenientes de los métodos no paramétricos
La exposición anterior va, en gran parte, orientada a motivar el interés de los métodos no paramétricos frente a las alternativas más clásicas que involucran modelos paramétricos.

Nuestro objetivo ha sido mostrar que los modelos no paramétricos:
• Son más flexibles y “dejan hablar a los datos” permitiendo en ocasiones revelar rasgos importantes de la variable bajo estudio que permanecen necesariamente ocultos por un modelos paramétrico.

• Dependen en mucha menor medida que los paramétricos de suposiciones difíciles de verificar y, en muchos casos, de dudosa validez práctica.

• Proporcionan herramientas auxiliares muy valiosas para el análisis de datos y otras técnicas estadísticas (análisis de conglomerados, remuestreo, reconocimiento de formas,…) en las que los modelos paramétricos resultan frecuentemente demasiado rígidos.

Sin embargo, es justo también mencionar algunos inconvenientes importantes de estos procedimientos:

• Requieren, en general, tamaños muestrales más grandes. Este rasgo se hace particularmente agudo cuando los métodos no paramétricos se utilizan en “altas dimensiones” (en la práctica, para datos numéricos formados por vectores de dimensión superior a 4). En estas situaciones se requieren tamaños muestrales desmesuradamente grandes para obtener inferencias fiables. Este fenómeno se denomina the curse of dimensionality (“la maldición de la dimensionalidad”).

• Todos ellos dependen fuertemente de la elección de un “parámetro de suavizado” que introduce un considerable grade de arbitrariedad en la estimación. En los últimos años se ha avanzado mucho en la obtención de procedimientos para la asignación “objetiva” de estos smoothing parameter, pero, en general, el problema aún no está resuelto de una forma que pueda considerarse como universalmente aceptada.

• Su motivación teórica es, casi siempre, asintótica. Esto significa que los resultados matemáticos que avalan estos procedimientos están generalmente relacionados con su comportamiento cuando n tiende al infinito. Por contraste, en la Estadística clásica hay algunos resultados importantes de optimalidad válidos para un tamaño muestral fijo.

• Relacionado con el punto anterior está el hecho de que la Estadística no paramétrica presenta muchas más dificultades para construir intervalos de confianza o realizar contraste de hipótesis, si bien las llamadas técnicas de remuestreo (bootstrap) son muy útiles para desarrollar este tipo de inferencias, actuando en combinación los métodos no paramétricos.

6. Sobre la popularidad de la estadística no paramétrica: programas informáticos disponibles
La estimación no paramétrica de funciones se hará realmente popular solamente cuando consiga ser de “dominio público” entre los usuarios de la Estadística. Esto está empezando a ocurrir en los últimos años pero, para convertirse en una tendencia consolidada, es necesario que la estimación no paramétrica de la densidad y de la regresión (y sus métodos asociados) se incorporen plenamente al software estadístico comercial. En la actualidad, esta condición no se cumple plenamente para los programas estadísticos más populares, pero ya hay accesibles diferentes “paquetes de software” (algunos, incluso, de distribución gratuita) que permiten usar de manera cómoda y sencilla los principales métodos no paramétricos.

Sin ninguna pretensión de exhaustividad, se podrían citar los siguientes:

imagen-42

IV. ESTADÍSTICA CON DATOS FUNCIONALES
Del mismo modo que en la sección anterior nos hemos ocupado de los problemas estadísticos en los que el “parámetro” a estimar es una función, en esta sección comentaremos brevemente las situaciones en que los propios datos disponibles son funciones.

El seguimiento de procesos tecnológicos o industriales, el control de las condiciones atmosféricas, la observación del “mercado continuo” en la Bolsa, etcétera, proporcionan observaciones aleatorias que pueden considerarse como funciones.

Naturalmente este punto de vista “funcional” requiere un cierto proceso de abstracción y de modelización porque, en realidad, las observaciones se obtienen casi siempre en versión “discretizada”. Sin embargo, este es un caso en el que claramente, un pequeño nivel de sofisticación matemática conduce a un enfoque mucho más sencillo y más natural. Por ejemplo, si se observa la evolución de la temperatura de veinte sistemas análogos y para cada uno de ellos se dispone de 1440 mediciones de temperatura tomadas a intervalos de un minuto, resulta mucho más natural “interpolar” las 1440 mediciones obtenidas en cada sistema para definir con ellas una función continua, y considerar así que disponemos de una muestra de 20 funciones, que manejar nuestra información muestral como un conjunto de 20 vectores de dimensión 1440. Esta situación no es tan rara en matemáticas, donde con frecuencia “lo continuo” es más sencillo de manejar que “lo discreto”. Además, hay razones técnicas que surgen muy claramente, por ejemplo, en la teoría de la regresión, que desaconsejan el uso de vectores de dimensión muy alta con componentes altamente correlacionadas.

Naturalmente, cuando las funciones entran en juego, también surge de inmediato la necesidad de utilizar algunas herramientas de Análisis Matemático (por ejemplo, la teoría de operadores).

En el resto de esta sección ofreceremos una breve panorámica parcial de las aplicaciones y el ambiente matemático en el que se desenvuelve este nuevo campo de la Estadística. El libro de Ramsay y Silverman proporciona una interesante perspectiva de este tema, con una orientación más aplicada que teórica.

1. Regresión con datos funcionales

imagen-43imagen-44imagen-45imagen-46-y-47

2. Otras tendencias en el análisis de datos funcionales
La utilización de datos funcionales sugiere algunos problemas interesantes, de planteamiento muy sencillo y natural, que constituyen líneas de investigación actuales aún no completamente cerradas:
• “Ordenación” de los datos”: Dada una muestra de funciones obtenidas por la observación de un cierto fenómeno en tiempo continuo, ¿qué criterios razonables pueden usarse para decidir cuáles son las “observaciones extremas” (outliers) que están más lejanas del “núcleo central” de los datos?¿Cuál es la función “más interior” de la muestra?.

Comparación de medias en diferentes poblaciones (“análisis de la varianza funcional”): Supongamos, por ejemplo, que se miden “on line” (en tiempo continuo) los consumos eléctricos en n domicilios particulares elegidos al azar. Supongamos que este experimento se repite de manera independiente en 4 barrios de una gran ciudad. Se obtienen, por tanto, 4 muestras de n funciones cada una de ellas. Puede preguntarse: ¿Hay suficiente evidencia estadística para afirmar que las “funciones medias de consumo” son diferentes en los 4 barrios?.

Métodos numéricos para el tratamiento de datos funcionales: El tratamiento computacional efectivo de funciones requiere generalmente algún proceso de aproximación numérica que involucra un cierto grado de discretización. En este sentido, puede decirse que el cálculo numérico es un auxiliar indispensable para las técnicas estadísticas con datos funcionales. En particular, las técnicas de ondículas, las aproximaciones de Fourier y la solución numérica de ecuaciones desempeñan un importante papel aquí.

Fuente:
http://www.google.com.ni/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&ved=0ahUKEwifm_3qm8DRAhVBKiYKHb-PABUQFggfMAE&url=http%3A%2F%2Fwww.mat.ucm.es%2F~rrdelrio%2Fdocumentos%2Facuevas.pdf&usg=AFQjCNHr9oUAqqOrpvje9MxI4eHNdYtDTg&bvm=bv.144224172,d.eWE

Margen de solvencia

Este post tiene el propósito de presentar criterios generales respecto al establecimiento y determinación del Margen de solvencia en las Instituciones aseguradoras.

ÍNDICE

I. INTRODUCCIÓN
II. DEFINICIONES GENERALES
1. Requerimiento Mínimo de Capital (RMC)
2. Cobertura del Requerimiento Mínimo de Capital (CRMC)
3. Margen de solvencia
III. CLASIFICACIÓN DE RIESGOS
1. Riesgos técnicos.
2. Riesgos de Inversión.
3. Riesgos no técnicos.
IV. REQUERIMIENTOS DE CAPITAL
1. Modelos de capitalización
2. Criterio general para el Requerimiento Mínimo de Capital
2.1 Requerimiento para los seguros de no vida:
2.2 Requerimiento para los seguros de vida:
2.3 Requerimiento para los riesgos de inversión:
V. COBERTURA DEL REQUERIMIENTO MÍNIMO DE CAPITAL
1. Cobertura con requisitos sobre el capital:
2. Cobertura con requisitos sobre el activo
3. Criterio general para la cobertura


I. INTRODUCCIÓN
Dentro de los instrumentos legales de salvaguardia de la solvencia de las empresas de seguro, junto a otros tales como las reservas técnicas, el control de activos e inversiones, de tarifas y bases técnicas, etc., aparece con fuerza propia el denominado capital regulatorio, conocido en el sector asegurador con el nombre de margen de solvencia.

Este elemento, complementario del capital económico, se refiere a los fondos mínimos que permiten a la entidad dar estabilidad a su actividad aseguradora.

La solvencia, de manera general, se refiere a la capacidad financiera de una empresa para hacer frente a sus obligaciones en tiempo y forma y puede conceptuarse como la suficiencia de los activos sobre los pasivos consumidos.

Es tradicional en el mundo académico aproximarse al concepto de solvencia distinguiendo entre estos dos conceptos: solvencia estática y solvencia dinámica.

Se entiende por solvencia estática a la capacidad del asegurador para hacer frente a los compromisos adquiridos como consecuencia de su actividad aseguradora y se plasma a través de las reservas o provisiones técnicas.

Por el contrario, con la solvencia dinámica se pretende expresar la capacidad del asegurador para cumplir los compromisos que pudieran aparecer como consecuencia de su actividad futura.

La solvencia estática contempla la capacidad del asegurador en un momento dado para hacer frente a las indemnizaciones, contraprestaciones de las primas cobradas. Dicho precio representa el valor medio de la siniestralidad, y en tanto no se aparte de dicho valor medio, el asegurador, prescindiendo de otras circunstancias como pudieran ser los gastos de administración o la política de reaseguro, debe contar, en principio, con disponibilidades suficientes para hacer frente a la siniestralidad. Sin embargo, el importe de la siniestralidad puede experimentar fluctuaciones alrededor de su valor medio, que debe coincidir con la prima de riesgo, y por ello surge el segundo aspecto, el dinámico.

Efectivamente, la suficiencia de las primas para hacer frente a la siniestralidad es objeto de estudio de la llamada Teoría del Riesgo; supone que la prima de riesgo representa el valor medio de la siniestralidad y ésta es la previsión que en la práctica debe controlarse, ya que si las primas son insuficientes se produciría un endeudamiento progresivo. Aún suponiendo que las primas estén bien calculadas y sean suficientes, la siniestralidad real es contingente y variable dado su carácter aleatorio, pero debiendo oscilar siempre alrededor de su valor medio. Este riesgo de fluctuación justifica la necesidad de exigir al empresario de seguros una solvencia adicional a las reservas técnicas.


II. DEFINICIONES GENERALES

1. Requerimiento Mínimo de Capital (RMC)
Debido a la naturaleza de los riesgos, en una institución de seguros no es posible predecir totalmente la experiencia en siniestralidad, aún con el empleo adecuado y eficiente de técnicas actuariales y estadísticas. No obstante, aunque una prima de riesgo sea calculada con los parámetros más conservadores, ésta puede ser insuficiente debido a las desviaciones sobre los valores esperados.

Para absorber las posibles desviaciones, las autoridades en el mundo han establecido la necesidad de requerir a las aseguradoras una determinada cantidad de recursos adicionales, lo que constituye el “Requerimiento Mínimo de Capital”, referido también como Capital o Fondo Mínimo de Garantía.

En este contexto, se puede definir al RMC como el nivel o monto mínimo de recursos patrimoniales que las aseguradoras deben mantener para responder a las variaciones adversas por lo que respecta a la totalidad de sus obligaciones y responsabilidades asumidas.

2. Cobertura del Requerimiento Mínimo de Capital (CRMC)
Se refiere a la cantidad de recursos patrimoniales con los que la aseguradora realmente cuenta para cubrir el requerimiento mínimo de capital. Si la autoridad supervisora enfoca el análisis de esta cobertura a través de los conceptos de capital, generalmente se le denomina “capital o fondo de garantí”. Por otra parte, en caso de que la autoridad supervise la cobertura a través de los activos que respaldan al requerimiento, se refiere como “activos afectos al requerimiento mínimo de capital”.

3. Margen de solvencia
Cuando una aseguradora cuenta con un nivel de recursos (CRMC) por lo menos mayor al nivel mínimo requerido (RMC) se considera que mantiene un margen de solvencia. Si los recursos caen por debajo del nivel requerido de capital la autoridad supervisora podrá contar con el tiempo suficiente para determinar las medidas necesarias que recuperen la estabilidad de la situación financiera de la institución.

III. CLASIFICACIÓN DE RIESGOS
Existen diversas clasificaciones de los riesgos a los que generalmente se encuentran expuestas las aseguradoras. A continuación se indica la clasificación establecida por la Unión Europea, en donde los riesgos se dividen en tres grandes rubros:

• Riesgos técnicos
• Riesgos de inversión
• Riesgos no técnicos

Esta clasificación puede presentar algunos traslapes, ya que ciertos riesgos no pueden ser considerados como independientes. La siguiente tabla muestra los riesgos individuales que conformen a los tres rubros anteriores:

imagen-1

A continuación el listado de los distintos tipos de riesgos:

1. Riesgos técnicos.
Riesgo de desviación: Se refiere a las desviaciones estadísticas de los riesgos, tales como cambios en la mortalidad, morbilidad, mejoras en la esperanza de vida, criminalidad, incremento de precios y salarios, caída de tasas de interés, etc.
Riesgo de prima insuficiente: Representa el riesgo de que las primas cobradas resulten ser muy bajas. Este tipo de riesgo puede presentar traslapes, ya que puede clasificarse como riesgo de desviación cuando la prima es insuficiente a pesar de haber realizado una valuación cuidadosa y responsable con toda la información disponible.
Riesgo de valuación de reservas técnicas: Se presenta cuando existe una incorrecta valuación de los riesgos, y por lo tanto las reservas técnicas son insuficientes para cubrir las obligaciones derivadas de los contratos de seguros.
Riesgo de reaseguro: Es el riesgo de quiebra o insolvencia de los reaseguradores y la mala calidad de los mismos. También puede clasificarse dentro de los no técnicos.
Riesgo de los gastos de operación: Se refiere al riesgo de que los gastos de operación incluidos en la prima de tarifa sea insuficiente para cubrirlos en el futuro.
Riesgo de acumulación o catastrófico: Se trata del riesgo existente de la acumulación de siniestros causados por un solo evento (terremoto, tormenta, etc.).
Riesgo de liquidación: Se refiere al riesgo de que los fondos o capital existente de la aseguradora no sean suficientes para cumplir con todas sus obligaciones, en cuyo caso debería salir del negocio y terminar los contratos existentes de seguros.

2. Riesgos de Inversión.
Riesgo de depreciación: Es el riesgo de la pérdida de valor de una inversión debido a cambios en los mercados de capitales, en el tipo de cambio e incumplimiento derivado de la quiebra de los acreedores.
Riesgo de liquidez: Se refiere al riesgo de que las inversiones no puedan liquidarse en el momento adecuado, causando que la aseguradora sea incapaz de cumplir con el vencimiento de sus obligaciones financieras.
Riesgo de descalce o reinversión: Se presenta cuando los activos de una institución de seguros, en términos del plazo y tasa de interés, no cubren en los mismos términos a las reservas técnicas.
Riesgo de mercado: Es el riesgo que corre la situación financiera de una aseguradora como resultado de movimientos adversos en los precios de mercado de los valores de los activos que componen el portafolio de una aseguradora, independientemente de la naturaleza de sus pasivos.
Riesgo de crédito: Se presenta cuando la contraparte de una operación financiera no cumple con la obligación que tiene con la aseguradora.
Riesgo de valuación de inversiones: Se refiere al riesgo de que una inversión sea valuada de manera incorrecta.
Riesgo relacionado con el uso de instrumentos financieros derivados: El uso de derivados también se encuentra sujeto a los riesgos de mercado, crédito y liquidez.

3. Riesgos no técnicos.
Riesgo de gestión: Se refiere a los riesgos a los que una aseguradora se encuentra expuesta por la calidad, competencia e intenciones de sus administradores.
Riesgo relacionado con las garantías a favor de terceros: Se trata del riesgo de que la capacidad económica de una aseguradora se vea afectada en caso de que no puedan liquidarse las garantías aportadas por terceros.
Riesgo de cuentas a cargo de terceros: Es el riesgo de que terceras partes externas a la institución de seguros no cumplan sus obligaciones, ya sea bajo el esquema de reaseguro, coaseguro o contratos de intermediación.

IV. REQUERIMIENTOS DE CAPITAL
Generalmente las autoridades supervisoras cuentan con diferentes medidas para prevenir y disminuir los riesgos mencionados en el apartado anterior, sin embargo, no es posible eliminarlos completamente. En este sentido, resulta necesario para las autoridades establecer reglas para determinar un margen de solvencia, cuyo objetivo consista en ofrecer un mecanismo adicional de protección y permita a contar con herramienta de alerta oportuna.

Asimismo, es importante resaltar que a través del establecimiento de criterios generales de solvencia la autoridad supervisora cuenta con estándares más objetivos y uniformes para realizar la comparación entre diferentes instituciones de seguros, tanto en el ámbito local como internacional.

1. Modelos de capitalización
Todo modelo matemático que pretenda establecer criterios generales de capitalización identifica claramente los factores de riesgo y su influencia en la solidez financieras de la institución de seguros. Algunos modelos se enfocan principalmente en los factores de riesgo relacionados con las fluctuaciones de los pasivos, mientras que otros aplican mayor énfasis sobre los riesgos de los activos. Asimismo, ciertos modelos suponen aditividad de los diferentes riesgos individuales, mientras que otros suponen correlación entre los riesgos.

Debido a que el modelo de solvencia de la Unión Europea ha comprobado ser robusto en el tiempo, los criterios generales que a continuación se muestran están fundamentados en este modelo, sin embargo, se sugieren algunas medidas adicionales fundamentadas en el entorno económico propio de Latinoamérica.

2. Criterio general para el Requerimiento Mínimo de Capital
Tomando en consideración que el Requerimiento Mínimo de Capital (RMC) es el monto mínimo de recursos patrimoniales que las instituciones de seguros deben mantener para respaldar las desviaciones extraordinarias en la siniestralidad, la exposición a quebrantos por insolvencia de reaseguradores y la exposición a las fluctuaciones adversas en el valor de los activos que respaldan a las obligaciones contraídas con los asegurados, se recomienda que el criterio general incluya, por lo menos, los siguientes tipos de riesgo:

imagen-2

Es importante señalar que la determinación del RMC es un cálculo extracontable que no se refleja en los estados financieros de la aseguradora. Este requerimiento se refiere conceptualmente a un nivel mínimo de recursos patrimoniales que debe ser suficiente para hacer frente a las desviaciones mencionadas anteriormente. Para su determinación se utilizan generalmente series históricas que reflejen la tendencia de la siniestralidad, coeficientes de desviación de la misma, así como otros elementos indicativos de las variaciones en los riesgos asumidos. Respecto a los conceptos contables utilizados en la determinación del RMC se considera conveniente que éstos hayan sido previamente corregidos de los efectos inflacionarios.

2.1 Requerimiento para los seguros de no vida:
a) Criterio general:
Para este tipo de seguros se recomienda que el requerimiento de capital (k1) se determine como la cantidad que resulte mayor de aplicar dos criterios: base primas (k1(p)) y base siniestros (k1(s)).

K1= Max((k1(p)), (k1(s)))

El criterio base primas considera la cifra neta de recaudación de las primas emitidas de la institución durante un período (Pei), multiplicada por el porcentaje de retención de la institución (%Reti), y se le aplica un factor de desviación de las primas del mercado (FDP).

k1(p) = Pei *%Reti *FDP

El criterio base siniestros considera los siniestros ocurridos de la institución durante el mismo período (Sni) actualizados por la inflación y multiplicados por el porcentaje de retención de la institución (%Reti), y se le aplica un factor de desviación de siniestros del mercado (FDs).

k1(s) = Sni *%Reti *FDs

Al elegir la cantidad que resulte mayor de ambas, el criterio busca garantizar el tratamiento estrictamente equitativo de todas las instituciones de seguros, de acuerdo con su experiencia siniestral, sin importar sus políticas y criterios de tarificación. De esta manera, si la selección de riesgos no es correcta o la tarificación no se fundamenta en bases técnicas adecuadas, prevalecerá el criterio base siniestros. En este sentido, una institución que realice su cálculo a través de este criterio verá agravado su requerimiento de capital en relación con otra de idéntica recaudación de primas, pero con una selección más cuidadosa en su cartera y/o con una tarificación más conservadora de sus riesgos.

b) Consideraciones especiales
• Requerimiento adicional por prácticas de fronting
Adicionalmente, y con objeto de que las aseguradoras operen como tales y que a través de un incremento en el requerimiento de capital se eviten las prácticas de “fronting”, así como para cubrir parte del riesgo de crecimiento, se recomienda que el porcentaje de retención de la institución (%Reti) sea por lo menos igual o mayor al del mercado.

%Reti >=%Retm

Otra opción que podría adoptar la autoridad sería la de establecer retenciones mínimas con el propósito de fortalecer la constitución de un mercado robusto en el caso de mercados con altos niveles de cesión. Sin embargo, esta práctica implica un cierto grado de complejidad relacionado al establecimiento de ese nivel técnico de retención mínima.

• Requerimiento adicional por calidad del reaseguro
Finalmente, debido a que la calidad del reaseguro tiene un impacto fundamental sobre la solvencia de una aseguradora, se recomienda que ésta sea considerada dentro de los requerimientos de capital. De esta forma los riesgos que la institución haya cedido a reaseguradores de mala calidad se considerarán como retenidos, y por lo tanto se recomienda que el requerimiento de capital sea incrementado en la misma proporción que los riesgos cedidos a reaseguradores de mala calidad (CReas) representen del total de riesgos retenidos de la institución (RRet).

K1= Max((k1(p)), (k1(s)))*[1+ (CReas/ RRet)]

c) Determinación de los factores de desviación
Los factores de desviación indican el grado de variación de las primas y siniestros que debe ser cubierto por el requerimiento de capital. En este sentido, deben reflejar las desviaciones entre los valores reales de primas y siniestros respecto de los promedios históricos. Por lo anterior, se recomienda que la metodología empleada para determinar los factores anteriores, generalmente expresados como porcentajes, se fundamente en modelos actuariales de funciones de distribución de probabilidad de pérdidas potenciales. En general, el factor aplicable al monto expuesto en cada tipo de riesgo se considera suficiente para que el requerimiento de capital cubra las pérdidas probables, con un 95% de confianza.

Los valores de los factores de desviación propios de cada país dependerán de la cantidad y calidad de los datos históricos de cada mercado, las funciones estadísticas que determinen la subdivisión de los factores entre las diferentes líneas de negocios, así como del nivel de confianza deseado por la autoridad.

2.2 Requerimiento para los seguros de vida:
a) Criterio general:
Para los seguros de vida se sugiere que el requerimiento de capital (k2) se determine como la cantidad que resulte de aplicar un porcentaje de desviación (%d) al monto total de la suma asegurada que se encuentre en riesgo (Mriesgo) multiplicada por el porcentaje propio de la institución (%Reti).

K2= %d * Mriesgo * %Reti

b) Consideraciones especiales
• Requerimiento adicional por prácticas de fronting
Al igual que en los seguros de no vida, y con objeto de que las aseguradoras operen como tales y que a través de un incremento en el requerimiento de capital se eviten las prácticas de “fronting”, así como para cubrir parte del riesgo de crecimiento, por lo que la autoridad debe establecer que el porcentaje de retención de la institución (%Reti) sea por lo menos igual o mayor al del mercado.

%Reti >=%Retm

• Requerimiento adicional por calidad del reaseguro
Asimismo, para reconocer la calidad del reaseguro en este tipo de seguros, también se recomienda que el requerimiento de capital sea incrementado en la misma proporción que los riesgos cedidos a reaseguradores de mala calidad (CReas) representen del total de riesgos retenidos de la institución (RRet).

K2= (%d * Mriesgo * %Reti )*[1+ (CReas/ RRet)]

c) Determinación de los factores de desviación
Al igual que en los seguros de no vida, el porcentaje de desviación indica el grado de variación de la siniestralidad de vida, lo que debe ser cubierto por el requerimiento de capital. También se recomienda que la metodología empleada para determinar este porcentaje se fundamente en modelos, y su valor dependerá de la cantidad y calidad de la información, así como del nivel de confianza deseado por la autoridad.

2.3 Requerimiento para los riesgos de inversión:
Los riesgos de inversión son un componente inevitable de las operaciones de los mercados de capitales, dinero y cambios. Los activos que mantienen las aseguradoras se encuentran expuestos a estos riesgos, por lo que resulta necesario que la autoridad establezca una normatividad específica sobre el régimen de inversión que especifique los activos admitidos en la cartera de inversión de las aseguradoras de acuerdo a requisitos de calidad, seguridad, rentabilidad y liquidez apropiadas. De esta forma, los riesgos de inversión pueden minimizarse a través del establecimiento de límites de inversión que procuren la diversificación de instrumentos y emisores admitidos. En este contexto, el objetivo principal de la autoridad consiste en determinar si estos riesgos son excesivos con relación a la situación financiera de la aseguradora o si estos no han sido identificados de una manera adecuada de tal forma que presenten prácticas peligrosas y poco sanas. Por lo anterior, los riesgos que pudieran afectar el valor de las inversiones de las aseguradoras deben ser considerados en el requerimiento de capital.

Se recomienda que el requerimiento de capital por las inversiones (k3) contemple los siguientes tres riesgos:
• Riesgo por falta de calce entre activos y reservas técnicas (kca)
• Riesgo de crédito (kcr)
• Riesgo de mercado (km)

k3= kca+ kcr+ km

a) Determinación del requerimiento por falta de calce:
En una aseguradora los activos que respaldan a las reservas técnicas deben encontrarse invertidos en valores e instrumentos que correspondan a la misma tasa de interés, tipo de moneda y plazo de vencimiento, ya que existen diferencias entre ellos, existe el riesgo de que la institución no cumpla con sus obligaciones de pago en los términos contractuales pactados previamente. De esta forma se sugiere que el requerimiento por falta de calce se encuentre formado por cuatro requerimientos individuales:

imagen-3

Donde:

kca= Requerimiento por falta de calce
kca1= Requerimiento por falta de calce general
kca2= Requerimiento por falta de calce en tasas de interés
kca3= Requerimiento por falta de calce en tipo de moneda
kca4= Requerimiento por falta de calce en vencimientos (Liquidez)

Los requerimientos podrán calcularse aplicando un porcentaje de riesgo específico a cada uno de los montos de los recursos que no se encuentren calzados, también definidos como faltantes.

Ki= %R * Monto del faltante

El porcentaje de riesgo (%R) será la cantidad de capital que la autoridad estime conveniente que la aseguradora mantenga para respaldar cada riesgo, y dependerá también de los criterios generales que la autoridad mantenga respecto a la inversión de las reservas técnicas.

b) Determinación del requerimiento por riesgo de crédito
El riesgo de crédito se refiere al riesgo de que un emisor o contraparte incumpla en una obligación hacia la aseguradora. Las autoridades supervisoras deben reconocer al riesgo de crédito como un riesgo de importancia que encaran las aseguradoras al llevar a cabo sus actividades de inversión en valores y derivados. Por lo anterior, se recomienda que el requerimiento de capital por riesgo de inversiones incluya provisiones para este tipo de posible incumplimiento por parte de terceros.

Tomando en cuenta los criterios de capitalización para instituciones bancarias establecidos por el Comité de Supervisión Bancaria de Basilea respecto al riesgo de crédito financiero, se sugiere que los activos financieros que respaldan a las reservas técnicas de las aseguradoras sean clasificados en atención al riesgo de crédito de los emisores, de acuerdo a los siguientes cuatro grupos:

• Valores respaldados por el gobierno
• Valores respaldados por instituciones financieras que se encuentran supervisadas por una autoridad gubernamental.
• Valores calificados por una agencia internacional, de acuerdo a los requisitos y calificaciones mínimas determinadas por la autoridad supervisora.
• Valores no comprendidos en las categorías anteriores.

La determinación del requerimiento por el riesgo de crédito financiero (kcr) puede hacerse aplicando a los saldos clasificados en los cuatro grupos anteriores un determinado porcentaje de riesgo, preferentemente asignando un 0% para los emisores de menor riesgo y considerando un máximo de 8% para homologarlo a las instituciones bancarias.

Kcr=%1 Activos1 + %2 Activos2 + %3 Activos3 + %4 Activos4

c) Determinación del requerimiento por riesgo de mercado
Las autoridades supervisoras deben considerar los riesgos asociados con la pérdida de valor de los activos y por lo tanto con la posibilidad de que sean inadecuados para cubrir las responsabilidades asumidas. En este sentido, es importante que dentro del requerimiento por inversiones se incluya al riesgo que representan los posibles movimientos adversos en las tasas o precios de mercado sobre los valores que mantienen las instituciones.

El método más utilizado para poder cuantificar los riesgos de mercado que asumen una institución es el cálculo del Valor en Riesgo (VaR), que es una medida que estima la pérdida máxima esperada que se presentaría en el valor del portafolio de inversión de la institución ante la simulación de cambios en los factores de riesgo, con cierto nivel de confianza en un período determinado.

El criterio de VaR tiene una aplicación relativamente reciente a nivel mundial, sin embargo, existe un reconocimiento creciente por parte de las autoridades supervisoras de los mercados financieros por incorporar este cálculo de los requerimientos regulatorios.

Se sugiere que el requerimiento por riesgos de mercado sea el resultado de aplicar un porcentaje de capitalización (%c) al valor en riesgo de la institución (VaRi), en el período de referencia.

Km= %c * VaRi

Para la aplicación de este requerimiento se recomienda que la autoridad determine previamente los criterios generales para la administración de riesgos financieros de las aseguradoras, que incluyan los principios con los que se realizara la valuación de los activos, la selección de los factores de riesgo y la metodología para llevar a cabo la simulación de escenarios.

V. COBERTURA DEL REQUERIMIENTO MÍNIMO DE CAPITAL
El RMC es el nivel de recursos que la aseguradora debe mantener para enfrentar el riesgo inherente de su actividad, mientras que la cobertura de este RMC se refiere al monto de recursos con los que la institución realmente cuenta para cubrir dicho requerimiento.

1. Cobertura con requisitos sobre el capital:
En la mayoría de los países el análisis de esta cobertura se realiza a través de los conceptos de capital. En este tipo de enfoques se considera que el RMC puede ser cubierto por el monto de capital “propio” de la institución, deduciendo a éste el monto que representan ciertos activos que no son “admisibles” por su naturaleza intangible o por no ser admitidos conforme la legislación aplicable.

CRMC= Capital Propio – Activos inadmisibles

En este enfoque, dentro de la CRMC se considera el capital pagado, reservas de capital, reservas de igualación, utilidades no distribuidas de en ejercicios anteriores, utilidades del ejercicio en curso, entre otros. A este monto se le resta el importe total que representan los activos inadmisibles como son los cargos y comisiones pagados por anticipado a agentes, anticipos a funcionarios o directores, etc.

2. Cobertura con requisitos sobre el activo
Un enfoque alternativo para analizar la CRMC se fundamenta en la teoría de que los mismos conceptos de capital se encuentran respaldados por determinados activos. Desde esta perspectiva, en lugar de deducir al capital propio los activos no admisibles se consideran los rubros de activo admisibles para cubrir al RMC, de acuerdo con requisitos establecidos claramente por la autoridad supervisora.

3. Criterio general para la cobertura
Debido a que a través de la CRMC con activos la autoridad puede mejorar los mecanismos para la supervisión de los riesgos financieros a los que se encuentran expuestos los recursos que respaldan al RMC, y puede establecer incentivos para que las instituciones adopten procedimientos de administración de riesgos, se recomienda adoptar este enfoque como criterio general. Bajo esta perspectiva, la supervisión de las inversiones que realizan las aseguradoras puede ser aplicada bajo tres posibles esquemas:

Enfoque conservador: El régimen de inversión de los activos que respaldan a las reservas técnicas se aplica por igual a los activos que respaldan al RMC y a otros pasivos, tomando como supuesto fundamental la universalidad de los activos.

Enfoque liberal: El régimen de inversión únicamente se aplica a los activos que respaldan a las reservas técnicas y no existen limitaciones para las inversiones que respaldan al RMC y a otros pasivos.

Enfoque intermedio: Los requisitos de los activos y los límites a la inversión de los activos que respaldan al RMC son más flexibles que los aplicables a las reservas técnicas, tomando como supuesto fundamental que se trata de los recursos que sirven para respaldar las desviaciones en las obligaciones asumidas.

Tomando en consideración lo anterior, los criterios generales que sirvan de base para identificar los activos que respaldan a la CRMC deberán incluir lo siguiente:

• Especificación de los activos en donde pueden estar invertidos los recurso que respaldan a la CRMC, y
• Especificación de los límites de inversión que deben respetarse para garantizar la disponibilidad de los recursos de la CRMC, en caso de presentarse las desviaciones extraordinarias.

3.1. Activos admisibles
Los activos que se considerarán como admisibles podrán ser todos aquellos permitidos para la inversión de las reservas técnicas, ya que si la autoridad los admite como respaldo de la obligación principal se infiere que los admitirá para las desviaciones de dichas obligaciones. Es importante señalar que estos activos que respaldan a la CRMC serán adicionales de aquellos que se destinen para la cobertura de las reservas técnicas de las aseguradoras. Adicionalmente se sugieren se consideren otros activos no permitidos para la inversión de las reservas técnicas siempre y cuando no se trate de aquéllos que a juicio de la autoridad involucren un alto nivel de riesgo, ya sea por ser incobrables o no realizables. En este sentido podrían considerarse el mobiliario y equipo, los préstamos y documentos por cobrar a cargo de terceros, etc.

3.2. Límites de inversión
Con objeto de propiciar una adecuada diversificación del portafolio de inversión de los activos afectos al RMC, y con ello reducir el riesgo de la insolvencia causada por variaciones adversas en el valor de tales activos, se recomienda que la autoridad determine límites de acuerdo a lo siguiente:

a) Límites de inversión por tipo de valores, títulos, bienes, créditos y otros activos, y
b) Límites por tipo de emisor o deudor, procurando en este rubro evitar la piramidación de capital entre las diferentes instituciones financieras que puedan formar parte de un mismo conglomerado financiero.

3.3. Margen e Índice de Solvencia
Cuando una aseguradora cuenta con la capacidad financiera para responder a variaciones adversas por lo que respecta a la totalidad de sus obligaciones y responsabilidades asumidas con los asegurados, es considerada solvente. En este sentido, la solvencia es la condición principal para que una aseguradora pueda ofrecer seguridad a los usuarios del seguro y público en general.

Debido a que la RMC es el nivel de recursos que la institución debe mantener para enfrentar el riesgo inherente de su actividad, y la CRMC es el monto de recursos con los que la institución realmente cuenta para cubrir dicho riesgo, el MS es el monto que resulta después de deducir a la CRMC el RMC:

MS= CRMC – RMC, sólo si es > 0

Asimismo, el MS puede ser expresado como “índice de solvencia”, interpretando el número de veces que la CRMC es mayor al RMC:

IS= CRMC/RMC, sólo si es > 1

Por el contrario, cuando el margen de solvencia adopta valores negativos o el índice es menor a la unidad, se entiende que existe un faltante en la CRMC y, en consecuencia, deben tomarse las acciones necesarias para requerir su adecuación, fijándose los plazos y condiciones para ello.

Finalmente, es importante señalar que no obstante que una institución presente un margen de solvencia igual a cero o un índice igual a uno, la autoridad deberá adoptar un nivel de solvencia adicional para enfrentar las desviaciones de corto plazo.

Algunas de las medidas que la autoridad supervisora puede aplicar en caso de insolvencia son:
• Aplicar sanciones sobre los montos de los faltantes y las irregularidades detectadas.
• Solicitar a la aseguradora un plan en donde se especifiquen las acciones que esta tomará para reconstituir el faltante en la CRMC.
• Limitar la promoción de nuevos productos o la emisión de primas.
• Restringir la disposición de ciertas inversiones.
• Cesión de cartera total o parcial.
• Intervenir a la empresa o incuso
• Revocar la autorización en caso de que la aseguradora no haya regularizado su situación luego de transcurridos los plazos máximos previstos en la legislación aplicable.

Es de mencionar que el resultado del margen de solvencia es una medida de alerta temprana, más no supone ser el elemento determinante en el análisis de la situación de una aseguradora, ni pretende sustituir el análisis de la constitución y cobertura de sus reservas técnicas. Más aún, a pesar de que no se presenten indicadores que muestren insuficiencia en la constitución y cobertura de las reservas técnicas y del margen de solvencia, una aseguradora puede estar en una situación financiera peligrosa debido a una mala tarificación, excesivos gastos de operación, cobertura de reaseguro insuficientes o incluso por inversiones poco rentables y poco dispersas.

Fuente:

-Asociación de Superintendentes de Seguros de América Latina – ASSAL. Criterios Generales de Solvencia-Margen de solvencia. Agosto de 1999.

-Melgarejo Armada, Joaquín. El margen de solvencia de las entidades aseguradoras en Iberoamérica. Fundación Mapfre Estudios. 2004.

Evolución de los métodos cuantitativos económico-financiero-actuariales

Hace unos días encontré en internet un artículo muy interesante sobre la evolución de métodos cuantitativos aplicados en nuestra profesión, por lo que se los comparto a continuación:

Autores:

Julio G. Villalón. F.de Cc. Económicas. Universidad de Valladolid.

Antonio Seijas Macías. F. de Economía e Empresa. Universidade da  Coruña

ÍNDICE

I. RESUMEN
II. INTRODUCCIÓN
III. MÉTODOS CUANTITATIVOS ECONÓMICO FINANCIERO ACTUARIALES
IV. RELACIONES DEL CÁLCULO CLÁSICO CON EL CÁLCULO ESTOCÁSTICO
V. CONCLUSIONES


 I. RESUMEN

Los métodos cuantitativos económico-financiero-actuariales han experimentado un gran avance a lo largo del tiempo. Los economistas se han visto obligados a aplicar, de forma creciente, nuevos métodos para resolver los distintos problemas que han ido apareciendo y la relación de tales problemas aumenta continuamente. La habilidad de los economistas para plantear los problemas, refleja un cuerpo de teoría bien desarrollado, modos de análisis que enfatizan la lógica e instrumentos cuantitativos sofisticados.

Las  Matemáticas  y  la  Estadística en el ámbito económico-financiero-actuarial,  han jugado un papel central en el análisis económico, lo que ha proporcionado un mayor avance en el campo, particularmente financiero, al permitir a los economistas establecer rigurosamente sus teoremas y a contrastar la validez empírica de sus teorías.

Por  lo  que  se  refiere  a  la  Teoría  Financiera,  hace  más  de  50  años,  ésta  se  reducía  en términos generales, a un solo aspecto: Cálculo de los valores financiero actuariales. Ahora bien, los  economistas  financieros comenzaron  a  utilizar  una  gran  variedad  de  técnicas  estadísticomatemáticas cada vez más sofisticadas como: Teoría de la Probabilidad, Optimización, Procesos Estocásticos, Cálculo Estocástico, Ecuaciones Diferenciales Estocásticas, etc.

Pues  bien,  el  trabajo  que  presentamos  hace  referencia  a  la  evolución  de  las  técnicas matemáticas y sus aplicaciones, anteriormente mencionadas.


II. INTRODUCCIÓN

Después  de  hacer  algunas  referencias  a  la  evolución  de la ciencia  económico-financiero-actuarial a lo largo del tiempo, consideramos que para modelar y analizar el comportamiento  de  los  fenómenos  económicos  en  ambiente  de  incertidumbre, modernamente se vienen utilizando diversos métodos del cálculo estocástico como son la  integral  estocástica,el  Lema  de  Itô,  las  ecuaciones  diferenciales  estocásticas,  la estabilidad  estocástica  y  el  control  óptimo  estocástico,algunos  de  tales  aspectos consideramos a continuación.


III. MÉTODOS CUANTITATIVOS ECONÓMICO FINANCIERO ACTUARIALES

La  Ciencia  Financiero  Actuarial  en  su  nacimiento  en  el  siglo  XVII  se  dedicó fundamentalmente  a  las  operaciones  del  seguro  de  vida:  Cálculo  de  primas  para  las operaciones de rentas, capitales diferidos de supervivencia nex y operaciones de los seguros  de  vida  entera primas-unicas.  Pronto  se  vio  que  eran  necesarias  las  técnicas financiero actuariales para calcular las reservas matemáticas reservas-matematicas. En este aspecto, la ciencia financiero actuarial mostró los primeros rudimentos del cálculo estocástico hace más de un siglo. Las ecuaciones diferenciales para las reservas de una póliza del seguro de vida las obtuvo T. Nicolai Thiele en 1875 y para la probabilidad de ruina eventual de un  seguro  de  vida,  Filip  Lundberg  en  1903,  en  momentos  en  los  que  la  noción  de proceso estocástico no se había definido de forma concreta.

Aparte de su trabajo práctico en el “seguro de vida” y su tesis doctoral en 1903, Filip Lundberg (1876-1965) fue pionero en el seguro de enfermedad, utilizó la técnica del seguro de vida para la obtención de la reserva. Así mismo, fue pionero en el campo del reaseguro y de la “Swedish Actuarial Society” en 1904. Creó su original “Collective Risk Theory” publicada en sueco en 1906 y 1926 y en alemán en 1909 y 1930. En su tesis doctoral consideró ya la descripción “estocástica” de la corriente de pagos como un proceso  de  Poisson  compuesto.  Donde  los  momentos  de  los  pagos  constituían  un “Proceso  de  Poisson”  en  el  tiempo;  las  cantidades  sucesivas  pagadas  eran independientemente obtenidas de una distribución de la masa de riesgo. Probablemente este  fue  el  primer  ejemplo  en  el  cual  se  introdujo  y,  a  parte  del  trabajo  de  Louis Bachelier en 1990 y el Erlang en 1909, constituyen un ejemplo pionero importante de la definición y uso de los procesos estocásticos en tiempo-continuo. En la tesis, prueba el Teorema Central del Límite para los procesos, utilizando de forma original la ecuación de  futuro  para  la  función  de  distribución  del  proceso,  es  decir,  Lundberg  introdujo  el “proceso  de  riesgo”  que  describía  el  superávit,  donde  los  ingresos  eran  continuos  al tanto dado por la prima y el desembolso era un “proceso de Poisson compuesto”. Para este  proceso,  consideró  la  “probabilidad  de  ruina”,  probabilidad  de  que  el  resultado fuera negativo, como función del resultado inicial, el tanto de prima y la distribución de la masa de riesgo. Hay una ecuación integral para la probabilidad de ruina, que se utiliza para deducir la famosa desigualdad de Lundberg”:ruina, donde u es el superávit  y R es  el  “coeficiente  de  ajuste”,  una  medida  de  la  dispersión  de  la distribución de la masa de riesgo.

Por otra parte, Harald Cramer (1955) estudió la “Teoría del riesgo” consistente en  el  análisis  matemático  de  las  fluctuaciones  aleatorias  en  la  empresas  de  seguros  y discusión de los diversos medios de protección frente a sus efectos adversos.

En la “Teoría del riesgo individual”, la ganancia o pérdida de la compañía que surge durante un tiempo dado sobre una póliza se considera una variable aleatoria y el desarrollo  matemático  de  la  teoría  está  basado  en  un  estudio  de  la  distribución  de probabilidad de variables de este tipo. Las ganancias o pérdidas totales de la compañía durante el mismo tiempo será la suma de las variables aleatorias asociadas a las pólizas individuales en vigor en la compañía. De acuerdo con el Teorema Central del Límite, esta suma será aproximadamente normalmente distribuida si el número de pólizas es lo suficientemente grande y se pudiera obtener los tipos de las sumas aseguradas de todas las pólizas individuales, sería posible obtener los valores aproximados de las diversas posibilidades ligadas a las ganancias o pérdidas de la compañía bajo ciertas condiciones.

Respecto  a  la  “Teoría  del  Riesgo  Colectivo”  fundada  y  desarrollada  por  F. Lundberg en una serie de trabajos (1903/48), el riesgo empresarial de una compañía de seguros  se  consideraba  como  un  total,  como  un  juego  de  azar  continuo  entre  la compañía  y  la  totalidad  de  los  accionistas.  En  el  curso  de  este  juego,  ciertos  sucesos aleatorios:  las  “reclamaciones”  acaecen  durante  un  intervalo  de  tiempo,  tienen  que considerarse por la compañía mientras que por otra parte la compañía recibe una corriente continua  de  primas  de  riesgo  de  los  accionistas.  Mediante  ciertas  hipótesis simplificadoras, es posible estudiar las distribuciones de probabilidad de las variables aleatorias  fundamentales  asociadas  a  este  juego,  tal  como  el  montante  total  de  las reclamaciones que acaecen durante un intervalo de tiempo dado; la ganancia total de la Compañía que surge durante el mismo intervalo, etc.

La “Teoría del Riesgo Colectivo”, constituye una parte de la teoría general de los procesos estocásticos, que posteriormente tuvo un gran desarrollo y ha encontrado un gran número de aplicaciones importantes. Se ha demostrado que se puede presentar desde un punto de vista unificador el de la teoría de los procesos estocástico. El negocio del  riesgo  de  una  Compañía  de  seguros  constituye  un  caso  particular  de  un  proceso estocástico. El proceso de riesgo es un proceso estocástico que pertenece a la clase de los procesos estocásticos con incrementos estacionarios e independientes.

funcion-del-proceso-de-aseguramiento

En  el  siglo  XX,  la  revista  “Astin”,  jugó  un  papel  esencial  en  lo  relativo  a  los métodos financiero-actuariales que se habían aplicado a las operaciones de seguro no-vida (seguro  del  automóvil,  incendios,  etc.)  Emergió  una  nueva  clase  de  actuarios: “Actuarios  de  segunda  clase”,  donde  se  dio  entrada  a  las  técnicas  de  pensamiento probabilista: Actuarios vida y Actuarios no-vida. Posteriormente, un nuevo desarrollo, dio  lugar  a  la  emergencia  del  Actuario  de  la  tercera  clase,  grupo  de  expertos matemáticos  que  extendieron  sus  técnicas  a  lo  relativo  a  la  inversión  del  seguro  y Banca.

Tan pronto como pensemos respecto a la inversión en términos estocásticos se presentó  el  gran  problema  de  que:  los  riesgos  de  inversión  son  típicamente dependientes, y por tanto, desequilibrados. La contestación a este problema: como no hay  ninguna  ley  matemática  que automáticamente  equilibre  el  riesgo  de  inversión implica  crear  nuevos  instrumentos  artificiales  para  este  fin:  las  opciones  call,  put  y futuros. Por tal motivo se crearon técnicas avanzadas. La base estadística matemática debía  sustancialmente  ampliarse  para  los  economistas  financiero-actuariales,  con nociones como la teoría de los proceso estocásticos, integración estocástica, Fórmula de Itô, Fórmula de Black-Scholes. En resumidas cuentas, dar entrada al cálculo estocástico. Nueva clase de especialistas en las aplicaciones del “cálculo estocástico”.

El  término  “estocástico”  significa  “el  arte  de  suponer”.  En  primer  lugar  fue utilizado por Jacob Bernoulli en su libro “Ars Conjuctandi” en 1773 en el que probó la primera  ley  de  los  grandes  números.  Stochastic  modern  day,  es  un  dominio  de  las matemáticas  aplicadas.  Comprende,  (entre  otras,  la  Teoría  de  la  Probabilidad,  los Procesos Estocásticos y la Estadística). Se utilizan para examinar los sucesos aleatorios, desarrollos temporales y estructuras especiales tratando de encontrar las regularidades posibles.  Los  métodos  estocásticos  son  aplicables  a  todas  las  disciplinas  científicas, obteniéndose  ventajas  del  comportamiento  mediante  los  computadores  modernos.  Lo estocástico  ha  llegado  a  ser  un  instrumento  inestimable  para  las  ciencias  naturales, desarrollo tecnológico y economía.

El  cálculo  que  estudiamos  en  los  primeros  cursos  de  matemáticas  nos proporciona  los  instrumentos  analíticos  para  las  funciones  deterministas.  Ahora  bien, cuando modelamos la incertidumbre futura de un objeto, por ejemplo, el precio de un título  o  los  tantos  de  interés  a  lo  largo  del  tiempo,  estos  son  aleatorios  en  cualquier momento considerado, por tanto, son llamados proceso estocásticos.

El  cálculo  estocástico  es  el  instrumento  analítico  adecuado  para  los  procesos estocásticos.  Entonces  con  tales  instrumentos,  podemos  predecir  el  comportamiento futuro de estos aspectos y cuantificar los riesgos asociados a ellos. Esto es por lo que tiene gran importancia.

La  Teoría  de  los  Procesos  Estocásticos,  estudia  los  acontecimientos  aleatorios asociados al tiempo regidos por las leyes de probabilidad.

El cálculo estocástico se refiere a una clase específica de procesos estocásticos que son estocásticamente integrables y frecuentemente expresados como soluciones de ecuaciones diferenciales estocásticas.

Las primeras aplicaciones financieras de los procesos estocásticos, aparte de lo mencionado relativo a Lunberg y Cramer datan de 1900 cuando el matemático francés Louis Bachelier aplicó un proceso estocástico especial llamado movimiento Browniano o proceso de Wiener para describir los precios de los títulos en su tesis doctoral.

En 1982 Louis Bachelier llegó a París para continuar su educación universitaria en la Universidad de la Sorbonne. Allí tuvo un insigne cuadro de profesores: Paul Apell, Joseph Bousiness y Henri Poincaré. El desarrollo como científico fue bastante rápido y escribió su interesante tesis “Teoría de la Especulación” sobre la aplicación de la Teoría de la probabilidad a los mercados de títulos. Este se considera ahora históricamente el primer  intento  de  utilizar  las  matemáticas  avanzadas  en  la  matemática  financiero – actuarial y testimoniar la introducción del movimiento Browniano. De acuerdo con la tradición de la época, también defendió una segunda tesis sobre una materia elegida por la universidad sobre la mecánica de fluidos. Su título refleja el bagaje educativo de L. Bachelier “La resistencia de una masa líquida indefinida dotada de fricciones interiores regidas por las fórmulas de Navier, a los pequeños movimientos variados de traslación de  una  esfera  sólida,  sumergida  en  una  masa  y  adherente  a  la  capa  fluida  que  la contacta”.

La  primera  parte  de  la  tesis  de Louis Bachelier,  “Teoría  de  la  Especulación”, contiene una descripción detallada de los productos disponibles en aquel momento en el mercado de títulos en Francia, tales como contratos a plazo (forward) y opciones. Sus especificaciones fueron completamente diferentes de los productos correspondientes en el mercado americano; por ejemplo todos los pagos estaban relacionados con una fecha dada y no se tenía necesidad de pensar en el descuento o cambio numerario. Después de los preliminares financieros Louis Bachelier comenzó con la modelación matemática de los  movimientos  y  fórmulas  de  los  precios  de  los  títulos,  el  principio  de  que  “La esperanza del especulador fuera nula”. Obviamente, interpretaba mediante la esperanza condicionada dada por la información pasada. Es decir, implícitamente aceptaba como axioma  que  el  mercado  valoraba  los  activos  utilizando  una medida “martingala”.  La hipótesis  posterior  era  que  el  precio  evolucionaba  como  un  proceso  de  Markov continuo,  homogéneo  en  el  espacio  y  el  tiempo.  Louis  Bachelier  demostró  que  la densidad de las distribuciones unidimensionales de este proceso satisfacía la relación,ahora  conocida  como  la  ecuación  Chapman-Kolmogorov  y  observó  que  la  densidad Gaussiana  con  la  varianza  lineal  creciente  resolvía  esta  ecuación.  La  cuestión  de  la unicidad  no  se  discutía  pero  Louis  Bachelier  proporcionó  algunos  argumentos  para confirmar esta conclusión. Llegó a la misma ley considerando el proceso de los precios como  límite  de  las  trayectorias  aleatorias.  Louis  Bachelier  también  observó  que  la familia de funciones de distribución de los proceso satisfacía la ecuación del calor.

El modelo se aplicó para calcular algunos precios de las opciones. Teniendo en cuenta las opciones americanas y dependientes de la trayectoria, Louis Bachelier calculó la probabilidad de que el movimiento Browniano no excediera un nivel fijo y obtuvo la distribución del supremum del movimiento Browniano.

La tesis de Louis Bachelier se puede considerar como el origen de la “financiera matemática moderna” y de varias ramas importantes de cálculo estocástico tal como la teoría  del  movimiento  Browniano,  procesos  de  Markov  (1856-1922),  procesos  de difusión e incluso de la convergencia libre en los espacios funcionales. Evidentemente, el  razonamiento  no  fue  riguroso  pero  a  nivel  intuitivo  básicamente  correcto.  Esto  es realmente asombroso ya que a comienzos del siglo XX los fundamentos matemáticos de la  probabilidad  no  existían.  A.  Markov  comenzó  sus  estudios  sobre  lo  que  ahora llamamos cadenas de Markov en 1906 y el concepto de esperanzas condicionadas con respecto a una variable arbitraria o σ-álgebra fueron desarrollados en 1930.

El informe de Henri Poincare, firmado por P. Apell y J. Bousssines, tribunal que juzgó  la  tesis  de  Louis  Bachelier  contiene  un profundo  análisis  no  solamente  de  los resultados  matemáticos  sino  también  una  penetración  en  la  leyes  de  mercado.  En contraste  con  la  leyenda  de  que  la  nota  de  evaluación  “honorable”  significaba  algo como que los examinadores fueron escépticos respecto a la tesis, esta parece que fue la nota más alta que podía habérsele reconocido a una tesis que estaba esencialmente fuera de las matemáticas y que tenía algunos argumentos lejos de ser rigurosos. La nota de excelente” usualmente se asignaba a memorias que contenían la solución al cambiante problema en una disciplina matemática bien establecida.

Creemos  que  el  informe  mostraba  que  H. Poincare  era  un  lector  atento  y benévolo  y  su  moderada  crítica  fue  positiva.  La  crítica  que  expresó  fue  que  Louis Bachelier no estudiaba con detalle la relación descubierta de los procesos estocásticos con  las  ecuaciones  en  derivadas parciales,  podía  interpretarse  que  fue   realmente intrigado, viendo allí ulteriores perspectivas. El informe de Poincare y la conclusión fue publicar la tesis en las revistas prestigiosas de aquel tiempo, contradecía lo que algunos consideraron  como  la  decepción  de  “honorable”.  Se  podía  conjeturar  que  Louis Bachelier  no  fue  galardonado  con  la  nota  de  “muy  honorable”  debido  a  una presentación  más  débil  de  su  segunda  tesis  (pero  el  correspondiente  informe  de  P. Appell fue muy positivo).

No es necesario decir que las ideas innovadoras de Louis Bachelier estuvieron por encima del nivel prevaleciente en la teoría financiera existente en aquella época lo cual fue ciertamente percibido.

Los  notables  resultados  obtenidos  por  Louis  Bachelier  en  su  tesis  sobre  la “Teoría  de  la  Especulación”  en  1900  permanecieron  en  una  especie  de  “limbo científico” durante más de 75 años, hasta que el célebre economista premio Nóbel Paul Samuelson influenciado por el insigne profesor de estadística William Feller, corrigió a Louis Bachelier, en 1965, reemplazando el movimiento Browniano por su exponencial (geométrica),  evitando  así  obtener  como  resultados  valores  negativos  del  modelo  y,luego comenzó a jugar un papel esencial en el cálculo de los precios de las opciones mediante la famosa fórmula de Black-Scholes en 1973.

Desde  1980  se  ha  comprobado  la  explosión  de  lo  modelos  matemático financieros  junto  con  los  productos  financieros,  todos  a  su  vez  llegados  a  ser  más complejos.

Toda  esta  tecnología  existe  debido  a  que  algunos  conceptos  matemáticos financieros  simples  y  universales  han  permitido  construir  una  “Teoría  matemática financiera de las leyes de los mercados” basada en principios tales como que los precios de  un  activo  a  lo  largo  del  tiempo  tienen  la  estructura  probabilista  de  un  juego equitativo, es decir, una “martingala”. A partir de este concepto, poco a poco, se ha ido construyendo  toda  la  teoría  de  los  procesos  estocásticos,  pilar  sobre  el  cual  se  ha desarrollado  la  “Teoría  Matemática  del  Arbitraje”  por  Delbaen  y  Schahermayor  en 1994.

Desde  comienzos  de  1990,  la  matemática  y  particularmente  la  teoría  de  la probabilidad han jugado un papel creciente, en general y particularmente, en el campo económico financiero actuarial influenciado por las investigaciones de A. Kolmogorov relativas a los procesos temporales continuos.

A  partir  de  la  tesis  de  Louis  Bachelier  surgió  el  nuevo  nacimiento  de  los procesos estocásticos y, por otra parte, la estrategia de tiempo continuo para la cobertura de riesgos financieros.

Aunque Louis Bachelier estableció en su tesis la conexión entre el precio de los instrumentos financieros y algunos cálculos de probabilidad relativos a ciertos procesos estocásticos, el problema de la cobertura correspondiente al riesgo fue resuelto mediante los  trabajos  de  Black/Scholes/Merton  en  1973.  En  aquella  época  la  idea  de diversificación  estaba  vigente  debido  a  los  trabajos  pioneros  de  Markowitz  en  1952 (Nóbel de Economía en 1990) relativos a la optimización de la cartera.


IV. RELACIONES  DEL  CÁLCULO  CLÁSICO  CON  EL  CÁLCULO
ESTOCÁSTICO

Respecto de las relaciones del “Cálclulo Clásico” con el “Cálculo Estocástico” procede hacer la siguientes consideraciones.

imagen-1

imagen-2

imagen-3

Ahora bien, esta relación clásica no es aplicable para las funciones reales que se presentan  en  la  Matemática  Financiera.  Cuando  el  matemático  alemán  Weierstrass construyó  una  función  real  continua,  pero  no  diferenciable  en  ninguna  parte,  esto  se consideró  como  una  curiosidad  matemática.  Desgraciadamente,  esta  “curiosidad”  está en el corazón de la Matemática Financiera. Los gráficos de los tantos de cambio, de los tantos de interés y de los activos líquidos son prácticamente continuos, como los disponibles  hoy  en  día  que  presentan  datos  de  alta  frecuencia,  pero  son  de variación  ilimitada  en  todo  el  intervalo  de  tiempo.  En  particular,  no  son diferenciables  en  ninguna  parte.  Por  tanto,  el  Cálculo  Clásico  necesita  una extensión a funciones de variación no acotada, tema estudiado por los matemáticos durante mucho tiempo.

Este déficit se cubrió mediante el desarrollo del “Cálculo Estocástico” que se  puede  considerar  como  la  teoría  de  la  diferenciación  e  integración  de  los procesos estocásticos.

Existen numeros libros recientemente publicados que desarrollan ampliamente el cálculo  estocástico  con  énfasis  sobre  las  aplicaciones  a  los  mercados  financieros  a diferentes niveles de sofisticación matemática (Föllmer y Schied, 2010).

imagen-4

Esta no fue, la nuevamente aparición del segundo término, lo que creó la principal dificultad para desarrollar el Cálculo Estocástico. Para funciones de variación cuadrática finita este término F”es una integral bien definida Lebesgue-Stieltjes. El cambio real consiste en dar un significado preciso a la primera integral donde tanto el argumento del integrando y del integrador son de varición  no-acotada  sobre  todo  el  intervalo de tiempo, arbitrariamente pequeño. Esta cuestión fue resuelta en primer lugar por Itô, de ahí  el  nombre  de  la  “fórmula  de  Itô”  para  la  relación (1) y la integral  de Itô para la primera integral de la (2).

Utilizando el enfoque a lo largo de una trayectoria de Föllmer, podemos deducir la fórmula de Itô y la integral de Itô sin recurrir a la teoría  de  la  probabilidad. Observando un proceso estocástico “paso a paso”, se puede dar un significado preciso a las expresiones (1) y (2) utilizando solamente instrumentos elementales del análisis real clásico.  Solamente  se  necesita  la  teoría  de  la  probabilidad, posteriormente  cuando consideramos la acción recíproca de todas las trayectorias de los procesos estocásticos como difusiones y semimartingalas.

imagen-5

Observemos que la regla de la multiplicación final es la crucial que da el término complementario.

Un  argumento  análogo,  nos  proporciona  una  regla  cuando  tenemos  varios procesos Itô basados en el mismo movimiento Browniano.

imagen-6


V. CONCLUSIONES

Después de haber realizado una revisión de los métodos cuantitativos a lo largo del tiempo se observa que el Lema de Ito, es el instrumento central de la diferenciación en  el  cálculo  estocástico.  No  son  demasiadas  cuestiones  básicas  las  que  hay  que recordar  para  poder  utilizarle.  En  primer  lugar,  la  fórmula  ayuda  a  determinar  las diferenciales  estocásticas  para  los  derivados  financieros  dados  los  movimientos  del activo subyacente. En segundo lugar, las fórmulas son completamente dependientes de la definición de la integral de Ito. Esto significa que las igualdades se deben interpretar dentro de la equivalencia estocástica. Finalmente, desde un punto de vista práctico, se debe  recordar  que  las  fórmulas  estándar  utilizadas  en  el  cálculo  determinista proporcionan  resultados  significativamente  diferentes   de  los  obtenidos  mediante  el cálculo  estocástico.  En  particular,  si  se  utilizan  las  fórmulas  estándar,  esto  supondría que todos los procesos en observación tendrían volatilidad infinitesimal nula. Por otra parte, hemos visto que ésta no es una hipótesis adecuada cuando se trata de valorar el riesgo utilizando los derivados financieros.

Fuente:https://dialnet.unirioja.es/descarga/articulo/4749588.pdf