https://www.actuaris.fr/wp-content/uploads/2017/03/Addactis_17_ImageDeFond_Montagne_3.jpg
Accueil Conseils Big Data

Big Data

De l’exploitation des données internes aux données externes

 

Traditionnellement, la tarification s’est attachée à expliquer la sinistralité en se basant sur les données décrivant le risque (l’auto, l’habitation), le détenteur du risque (l’assuré) et la sinistralité historique. Ces modèles se sont d’abord attachés à utiliser les données disponibles en interne. Ce qui a contribué à faire enrichir les bases de données des assureurs avec toujours plus de données dans ces catégories. Mais des limites ont été trouvées à cette démarche dont celle au recueil et à la conservation des informations, mais aussi à la restitution d’un algorithme tarifaire complexe au point de vente.

Le recours à des données externes permet de contourner ces limites.

Parmi ces données externes il en existe certaines plus facilement exploitables que d’autres. Il existe deux limites à cette utilisation : la connectabilité et le pouvoir prédictifs de ces données.

 

Connectabilité

Il existe des données plus facilement connectables que d’autres, par exemple, les données INSEE sont connectables via le code-postal, les données fichier SIV via le n° d’immatriculation. Les traces internet laissées par le détenteur de risques (Facebook, Twitter, Blogs…), peuvent être plus difficilement mises en correspondance (à moins que le client accepte de fournir le lien).

Pouvoir prédictif des données

Par ailleurs, une fois que ces données seront connectées, il faut pouvoir identifier ce que celles-ci peuvent apporter comme information permettant de mieux connaitre le risque. Dans cette catégorie les données capturées par les capteurs semblent être à même d’apporter des informations pertinentes que l’interprétation plus hasardeuse résultant d’analyse de photographies ou de textes.

Ainsi, les capteurs attachés directement aux risques (port OBD des autos, et pourquoi pas : domotique dans le futur pour la MRH et les capteurs physiologiques en santé) sont ceux qui semblent le mieux placés pour apporter la contribution la plus forte à l’amélioration de la connaissance du risque.

En effet, ces dispositifs ont un avantage incomparable par rapport aux autres, ils ne s’attachent plus à apporter des paramètres qui permettraient d’identifier des populations ayant en moyenne un comportement les exposant aux risques, mais d’apporter directement les paramètres permettant d’identifier les comportements à risque. Ainsi les dispositifs embarqués en standard maintenant dans les autos permettent, grâce à l’algorithme adéquat, d’identifier les comportements à risques : coups de volant intempestifs, freinages brusques, conduites nocturnes sur voies rurales…

Une limite à l’utilisation des données externes dans les modèles de tarification réside dans les algorithmes d’exploitation de ces données. En effet, une fois  ces données connectées au portefeuille, il faut pouvoir les faire parler. Par exemple, il faut un algorithme puissant permettant d’identifier ce qui constitue un « coup de volant intempestif » dans un fichier composé de milliers de lignes prises à une seconde d’intervalle comprenant coordonnées GPS, vitesse… ce type d’algorithme permet d’établir un score sur le comportement de conduite particulièrement prédictif.

Sous la pression réglementaire (cf. Loi Hamon), il convient d’identifier que le processus tarifaire va devoir contraint ou forcé évoluer vers plus de sophistication.

Où trouver ces données ? D’abord en interne puis aussi en externe. Il existe déjà des pistes encore trop peu utilisées de données « connectables » et disposant d’algorithme permettant de les exploiter avant de devoir rechercher des données qui ne seraient pas encore dans cette catégorie. Donc, il est vrai que l’assurance va devoir s’attaquer au domaine du « Big Data », mais le sous-ensemble qui doit être exploité est déjà un terrain connu et exploité par d’autres marchés, il n’est pas (encore) nécessaire d’explorer l’inconnu.