Pourquoi mettre en place une IA éthique ?
Malakoff Humanis est une Assurance Santé, Prévoyance, Épargne et Retraite Complémentaire. C’est donc notre cœur de métier de prendre soin de nos clients, de nos collaborateurs et de nos partenaires. L’IA est, pour nous, un véritable levier d’innovation qui peut nous assister dans cette mission. Concrètement, elle peut par exemple aider à cibler rapidement les clients en attente d’une réponse urgente ou à identifier un dossier potentiellement frauduleux.
Cependant, pour le grand public, l’IA fait peur. Les citoyens ne connaissent pas son mode de fonctionnement, ne savent pas quand ils sont confrontés à une IA et comment elle peut influencer leurs choix et leurs décisions. Des polémiques telles que la discrimination à l’embauche gérée par une IA chez Amazon ou les nouveaux langages inventés par les IA chez Facebook ont entretenu ces craintes, à juste titre.
Pour l’interne également, malgré une envie forte de l’utiliser compte tenu de ce qu’elle peut nous apporter, l’IA pose question. Celles et ceux qui y ont recours dans leur métier souhaitent mieux comprendre nos systèmes d’IA afin de pouvoir leur faire confiance, prendre des décisions éclairées et améliorer la performance de leurs activités.
Ainsi, dès la mise en œuvre de nos premiers systèmes d’IA, nous avons compris chez Malakoff Humanis la nécessité de mettre en place une Intelligence Artificielle Responsable. Nous avons instauré des processus pour évaluer notre niveau de confiance en nos systèmes et sensibiliser l’interne à leurs enjeux éthiques. Un travail de pédagogie et de transparence est assuré et nous laissons une place significative à l’humain dans les phases de conception, de construction et d’amélioration. L’histoire de chaque système d’IA doit pouvoir être racontée et partagée de manière claire et précise.
De quoi les organisations ont-elles besoin pour mettre en œuvre une IA Responsable ?
La mise en œuvre d’une IA éthique au sein de notre organisation nous a permis de nous questionner sur un certain nombre de risques, de les comprendre, et de mieux les maîtriser dès la phase de conception. Ces risques peuvent être d’ordre réglementaires (non-conformité d’utilisation des données personnelles ou finalité interdite), sécuritaires (cybersécurité), mais aussi éthiques et humains (amplification de biais existants ou un manque de maîtrise des données, des algorithmes et de leurs résultats). Par exemple, chez Malakoff Humanis, nous avons décidé de nous assurer que nos algorithmes ne déterminent pas seuls les dossiers suspects qui déclencheraient une contre-expertise par un médecin. Nous recommandons aussi de constituer des équipes pluridisciplinaires spécialisées en data science, en juridique, en conformité, en gestion des risques, en systèmes d’information… Une IA éthique implique de nombreux métiers et chacun doit apporter sa vision, sa sensibilité, ses questions, ses doutes et ses éléments de réponse à chaque étape des projets d’IA.
Il est indispensable de disposer et de suivre précisément les bonnes informations et indicateurs (sur la qualité des données utilisées, le profil des données, indicateurs de performance de l’algorithme, explication ou interprétation des résultats…) pour mettre en œuvre à diverses échelles un système d’IA de confiance. Une fois l’application d’IA lancé, ces résultats doivent également être supervisés pour s’assurer de leur « stabilité » et confrontés au retour terrain des utilisateurs internes ou externes.
Enfin, une gouvernance des données et de l’IA est essentielle pour structurer des processus et une comitologie (procédure de prise de décisions normatives) pour accompagner et challenger les systèmes d’IA. Elle permettra tout au long de leurs cycles de vie de :
- rassembler les bonnes expertises,
- partager une culture data et IA Responsable,
- continuer à s’interroger sur les risques éthiques,
- challenger et comprendre les évolutions apportées aux IA,
- anticiper les risques stratégiques pour les entreprises.
Un label pourrait-il aider les organisations dans la régulation de leur IA ?
Un label offre un cadre structuré et simple à dérouler pour les organisations. Il pourrait accompagner les entreprises dans l’identification et l’évaluation du niveau de risques éthiques de leurs algorithmes, dans la bonne compréhension et l’application d’exigences opérationnelles tant au niveau gouvernance qu’au niveau des systèmes d’IA. De plus, grâce à l’intervention d’un auditeur indépendant, cela permettra d’identifier des axes de progression pour s’améliorer en continu.
Enfin, cet outil permet aussi de réunir des entreprises engagées dans une démarche d’Intelligence Artificielle Responsable et de favoriser une émulation positive. Ensemble, elles pourront partager de nouveaux leviers pour mieux gérer opérationnellement les risques éthiques des IA qu’ils mettent en œuvre.