Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d’une stratégie française et européenne en intelligence artificielle (2018)

Quelle est votre perception aujourd’hui de l’IA en tant que mathématicien mais également en tant que personnalité politique ?

Pour moi, l’IA n’est pas seulement un sujet pragmatique mais aussi un sujet de réflexion théorique, aussi bien pour ses algorithmes que pour ses implications sociales, humaines voire philosophiques. Dans notre société, nous souffrons de nombreux biais, acceptés par tous, dont nous n’avons pas forcément conscience. Par exemple, lors d’un procès, le sort d’un accusé peut être différent selon la ville, le pays, le dossier ou encore la personnalité du juge. Et ces biais humains peuvent être amplifiés par l’IA. Aux Etats-Unis, un logiciel de prédiction de la récidive, avait été dénoncé pour sa tendance à défavoriser les condamnés
noirs. Cela n’était pas dû à la programmation mais à la jurisprudence qui était raciste. L’intelligence artificielle peut donc être un outil de prise de conscience de nos biais. Elle peut nous éclairer et nous aider à revenir sur nos pratiques et à revoir nos préjugés.

Quelles sont les évolutions observées dans le domaine de l’IA Responsable depuis la publication de votre rapport ?

Nous notons de véritables avancées avec la mise en place d’instituts interdisciplinaires en IA, du conseil consultatif de l’IA, de programmes sur l’éthique de l’IA au niveau national et international ou encore les Grands Défis dans le domaine de l’IA… Depuis la publication du rapport, le sujet de l’intelligence artificielle, marginal il y a 4 ans, est aujourd’hui pris en compte et traité par les décideurs. Mais il y a encore du chemin pour aboutir à la mise en oeuvre de l’Intelligence Artificielle Responsable, cela demandera des évolutions culturelles, des ressources humaines… des changements liés à la société, plus encore que des changements techniques.

Selon vous, comment pourrait-on réguler l’IA et mettre en œuvre une IA Responsable ?

Pour réguler l’IA et en favoriser un usage responsable, l’État doit intervenir. C’est en effet son rôle, en tant que puissance politique, de fixer des règles, des normes, des interdictions
et de les faire respecter.

L’État doit également favoriser les initiatives. Sans forcément rentrer dans le développement
de solutions et d’outils technologiques, il doit encourager la création de boîtes à outils et inciter, fédérer et embarquer. C’est pour cela que les actions de la communauté, composée des entreprises, des laboratoires de recherche français, des cabinets de conseil…, sont primordiales. La communauté apporte les compétences techniques nécessaires et suit les règles fixées par l’État pour atteindre les objectifs.

Dans votre rapport, vous mentionnez la création d’un label. En quoi pourrait-il aider les organisations à rendre leur Intelligence Artificielle Responsable ?

Notre continent a connu ses plus grands succès géopolitiques en créant des normes et des standards internationaux. Il est donc important que nous ayons des labels pour réguler l’IA, comme nous en avons sur d’autres sujets.

Le label n’est pas l’unique solution mais il en fait partie. Il permet de valider la création et le sérieux du processus de mise en place de l’algorithme, la transparence et la confidentialité des bases de données, la prise en compte des retours d’expérience…

Enfin, le label peut également faciliter le partage des bonnes pratiques, la création de standards ou encore la mutualisation de boîtes à outils. Il est la garantie qu’un regard extérieur a été posé pour vérifier l’ensemble du processus : de la chaîne des motivations à celle des usages, en passant par l’interopérabilité.