Séminaire technique

PETIT-DÉJEUNER
5 novembre 2021 /
8 h 45 min - 12 h 15 min

To participate and receive the event link, please register below:


PROGRAM OF THE SEMINAR:

  • 8.45 – 9.00 – 15′

Xavier Milhaud, member of the DIALog team

Some words on the project (where we are, back to the axis, our focus at the moment, …)

  • 9.00 – 9.45 – 35′ + 10′ Q&A

Mathias Valla, PhD student member of the DIALog team

Time-dynamic of the data: collection and management of a dataset for future modelling challenges

Abstract: Policyholder behaviour analysis is of critical importance to decision making in insurance, yet its dynamical and hardly measurable or trackable nature make it difficult to grasp.
One of the practical reasons that makes such an analysis complex is that data tracking behaviour markers of a large number of policyholders is rarely available and of good quality.
With the goal of taking into consideration the dynamic nature of policyholders behaviours, we built a dataset based on CNP data including all that information.

In this presentation, we will look at how such a dataset was built, what kind of covariates it contains, what type of research questions it could potentially answer and what kind of analysis it can help to conduct.

Résumé : L’analyse du comportement des assurés relève d’une importance capitale pour la prise de décision dans le secteur assurantiel. Cependant, la nature dynamique de ces comportements et la difficulté à les mesurer ou en suivre l’évolution compliquent cette analyse.Une des raisons pratiques qui explique cette difficulté d’analyse est que des données de bonne qualité, mesurant régulièrement des marqueurs du comportement assuré sont rarement disponibles et exploitables.
Dans le but de prendre en compte cet aspect dynamique des comportements, nous avons construit une base de données – issue des données de la CNP – contenant justement ces informations.

Dans cette présentation, nous discuterons de la construction de la base de données, des variables qu’elle contient, des questions de recherche qui pourraient bénéficier d’une analyse sur de telles données

  • 9.45 – 10.15 : pause

 

  • 10.20 – 11.10 – 40′ + 10′ Q&A

Pierrick Piette, invited speaker, Seyna and associate researcher at ISFA

Applying economic measures to lapse risk management with machine learning approaches

Abstract: Modeling policyholders’ lapse behaviors is important to a life insurer, since lapses affect pricing, reserving, profitability, liquidity, risk management, and the solvency of the insurer. In this paper, we apply two machine learning methods to lapse modeling. Then, we evaluate the performance of these two methods along with two popular statistical methods by means of statistical accuracy and profitability measure. Moreover, we adopt an innovative point of view on the lapse prediction problem that comes from churn management. We transform the classification problem into a regression question and then perform optimization, which is new to lapse risk management. We apply the aforementioned four methods to a large real-world insurance dataset. The results show that Extreme Gradient Boosting (XGBoost) and support vector machine outperform logistic regression (LR) and classification and regression trees.

Résumé : La modélisation des comportements assurés est essentielle en assurance vie. En effet, ces derniers ont un impact significatif sur la tarification, le provisionnement, la rentabilité et la gestion des risques. Ainsi, la solvabilité de la compagnie est hautement sensible à cette modélisation. Nous appliquons dans cet article deux techniques de Machine Learning pour modéliser les comportements, puis évaluons les performances de ces deux méthodes avec différents indicateurs (statistique et économique). La nouveauté de notre travail réside également dans l’approche adoptée concernant le problème de prévision des résiliations. Nous transformons ce problème de classification en un problème de régression et optimisons nos mesures de performance. Les applications sont menées à l’aide d’un jeu de données réel, et les résultats montrent que le Gradient Boosting et les SVM présentent les meilleurs résultats.

  • 11.15 – 12.05 – 40′ + 10′ Q&A

Pierre-Olivier Goffard, member of the DIALog team

Sequential Monte Carlo samplers to fit and compare insurance loss models

Abstract: Insurance loss distributions are characterized by a high frequency of small amounts and a lower, but not insignificant, occurrence of large claim amounts. Composite models, which link two probability distributions, one for the “belly” and the other for the “tail” of the loss distribution, have emerged in the actuarial literature to take this specificity into account. The parameters of these models summarize the distribution of the losses. One of them corresponds to the breaking point between small and large claim amounts. The composite models are usually fitted using maximum likelihood estimation. A Bayesian approach is considered in this work. Sequential Monte Carlo samplers are used to sample from the posterior distribution and compute the posterior model evidences to both fit and compare the competing models. The method is validated via a simulation study and illustrated on insurance loss datasets.

Résumé : La distribution des montants indemnisés en assurance non vie est caractérisée par une forte occurrence de petits montants (attritionnels) et une occurrence plus faible sans être négligeable de montants importants (atypiques ou extrêmes). Des modèles « composites » se sont développés dans la littérature actuarielle pour prendre en compte cette particularité. Ces modèles combinent deux lois de probabilités, la première modélise la partie attritionnelle tandis que la deuxième se focalise sur la partie atypique ou extrême de la distribution des montants indemnisés. Les paramètres de ces modèles synthétisent la sinistralité, l’un des paramètres joue le rôle de seuil permettant de distinguer les sinistres graves des autres sinistres. La calibration de ces modèles s’effectue généralement en utilisant la technique du maximum de vraisemblance. Ce travail de recherche propose d’utiliser une approche bayésienne reposant sur un algorithme d’échantillonnage de Monte Carlo séquentiel. La méthode est validée sur des données simulées et illustrée sur des jeux de données réelles.

  • 12.10 – 12.15 – 5′

Anani Olympio, Head of Research and Strategic Foresight at CNP Assurances & Xavier Milhaud, member of the DIALog team

Closing word