Algorithmes, big data et IA : menace ou opportunité pour le monde de l’assurance ?
Si l’innovation technologique facilite la vie, augmente le bien-être et améliore les services aux consommateurs, il est essentiel de se questionner sur son utilisation et ses possibles conséquences négatives. Alors que les algorithmes, le big data et l’intelligence artificielle s’invitent de plus en plus chez les assureurs, il nous faut réfléchir à ces enjeux.
- En bref : Innovation technologique et assurances, bien évaluer les risques
- Depuis quelques années, des outils tels que les algorithmes, le big data et l’ IA changent le modèle assurantiel.
- Les encadrements législatifs concernant la protection des données personnelles des consommateurs sont encore trop légers, et les risques de dérives sont réels.
Secteur de l’assurance et de l’innovation : compagnons inséparables ?
La technologie a toujours eu un rôle clé dans le monde l’assurance. Grâce à elle, il est plus facile de prévenir les risques. Cependant, de nos jours, avec la démocratisation de la domotique et des intelligences artificielles – ou IA –, technologie et assurances sont désormais indissociables.
À présent, les assurés peuvent être couverts grâce à des offres nouvelle génération, parfois 100 % digitales et surtout plus modulables. Le modèle assurantiel évolue au même rythme que celui de l’innovation technologique, souvent pour le meilleur. Mais comme toujours, l’utilisation de la technologie au service des citoyens peut avoir des revers désagréables, des conséquences pas toujours anticipées par les acteurs des différents marchés de services.
Une enquête menée par les autorités des marchés financiers néerlandais – ou AFM – mettait récemment en lumière la façon dont les compagnies d’assurances aux Pays-Bas faisaient de plus en plus appel aux algorithmes ainsi qu’au big data pour valider les souscriptions à leurs contrats. C’est ce qu’explique le site de la RTBF dans un article très complet, « Assurances : les algorithmes auront-ils raison de vous ? ». Le journal précise : « Dans le futur, [les assureurs] pourront être en mesure de connaître la moindre information de votre vie. Des informations comme les derniers médicaments qui vous ont été prescrits, votre fréquence d’activité sportive hebdomadaire, ou encore le nombre de fois que vous êtes allés au restaurant. Toutes ces informations peuvent être collectées à tout moment grâce aux différents objets connectés. »
L’utilisation des données personnelles des assurés afin de déterminer s’ils méritent ou non d’être couverts et le montant de leur prime pose quantité de questions d’ordre éthique. Évidemment, l’évaluation des risques fait partie des missions premières d’un assureur, mais l’on entre ici dans un domaine différent. Si l’utilisation des algorithmes et du big data dans le cadre des assurances n’était pas supervisé, des dérives seraient évidemment possibles. Selon les informations collectées à leur sujet, privées de tout contexte, des consommateurs pourraient ainsi être écartés de l’offre assurantielle.
Outils prédictifs : anticiper pour mieux assurerL’arrivée des outils prédictifs dans le monde assurantiel se fait doucement, mais sûrement. L’un de ceux les plus utilisés par les assureurs, à l’instar de la Maif, d’Allianz France ou même Covéa, est par exemple Predictice, une plate-forme créée par la legaltech du même nom, fondée en 2016. Son but ? Permettre l’analyse et la recherche « des millions de décisions de justice » rapidement, estimer le taux de succès d’une action contentieuse et chiffrer le risque financier, explique la start-up sur son site.
Algorithmes et assurances : tout est une question d’utilisation
Cela ne signifie pas que l’on doit se passer des avantages de telles technologies pour améliorer le modèle de l’assurance, mais plutôt qu’il importe d’en maîtriser l’usage. Un algorithme peut être un outil très efficace pour l’assureur, afin de mieux identifier les besoins de ses clients et d’élaborer des solutions de couverture plus cohérentes avec la réalité de leur vie. Pour Gilles Loupe, chercheur au CERN et professeur en IA à l’Université de Liège, « [l’assureur] peut mieux estimer le risque d’assurer un client ou non, explique-t-il à la RTBF. De plus, l’algorithme fait faire l’association de données et augmenter les risques. Mais ça reste des associations, ça n’a pas valeur de causalité. C’est là qu’on peut se poser des questions. ».
« Les algorithmes d’apprentissage automatique et d’intelligence artificielle n’intègrent pas une modélisation du monde capable de distinguer de façon fiable la vérité du mensonge », écrit la mathématicienne, data scientist et ex-analyste de Wall Street Cathy O’Neil dans son livre Algorithmes, la bombe à retardement (2016, Les Arènes). La scientifique rappelle, à raison, que les algorithmes ne sont pas des outils objectifs, mais qu’ils possèdent des biais, à la fois ceux des données qu’ils traitent, mais aussi des personnes qui les conçoivent. À ses yeux, aujourd’hui, l’utilisation que l’on a des algorithmes est désastreuse.
En 2018, dans un entretien, elle expliquait au Monde l’ampleur des dégâts pouvant être causés par le big data d’un point de vue sociétal : « Il s’agit d’utiliser des informations qui ne paraissent pas pertinentes au premier abord, comme des “j’aime” sur les réseaux sociaux, des retweets, des recherches Google, ou bien le genre de site médical que vous visitez… Toutes ces informations sont utilisées pour créer un profil et voir si vous êtes quelqu’un de privilégié dans la vie. S’ils décident que vous l’êtes, alors ces algorithmes feront de vous quelqu’un d’encore plus privilégié. Et inversement. Ils exacerbent les inégalités. »
Aujourd’hui, nous sommes donc à l’aube d’une réflexion générale sur les différents enjeux entourant l’utilisation du big data, des algorithmes et de l’intelligence artificielle. Ceux-ci sont à la fois moraux, juridiques et éthiques, et tous sont cruciaux afin d’envisager la société de demain. Il reste aux entreprises à se donner les moyens d’employer l’innovation à bon escient. Car à l’heure où les consommateurs demandent plus de transparence de la part de leurs assureurs, tout porte à croire que ceux qui pourront certifier la protection de la vie privée de leurs clients auront tout à y gagner.
Protection des données personnelles : le changement, c’est lentementMalgré la lenteur du processus, l’Union européenne continue d’instaurer des règles pour encadrer l’utilisation des nouvelles technologies et protéger les consommateurs. Début septembre 2019, suite au G7, le « Global Partnership for AI », ou partenariat mondial pour l’intelligence artificielle, a par exemple été institué. Le but ? Réfléchir à l’échelle mondiale à l’utilisation de l’IA pour en prévenir les éventuelles dérives.