Cédric Villani : “Un label en faveur d’une IA éthique n’est pas l’unique solution mais il fait partie de la boîte à outils.”

20 juillet 2023

“Une régulation de l’intelligence artificielle par l’État est indispensable pour fixer les règles, les normes et les interdictions.”

Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d’une stratégie française et européenne en intelligence artificielle (2018)

Quelle est votre perception aujourd’hui de l’IA en tant que mathématicien mais également en tant que personnalité politique ?

Pour moi, l’IA n’est pas seulement un sujet pragmatique mais aussi un sujet de réflexion théorique, aussi bien pour ses algorithmes que pour ses implications sociales, humaines voire philosophiques. Dans notre société, nous souffrons de nombreux biais, acceptés par tous, dont nous n’avons pas forcément conscience. Par exemple, lors d’un procès, le sort d’un accusé peut être différent selon la ville, le pays, le dossier ou encore la personnalité du juge. Et ces biais humains peuvent être amplifiés par l’IA. Aux Etats-Unis, un logiciel de prédiction de la récidive, avait été dénoncé pour sa tendance à défavoriser les condamnés noirs. Cela n’était pas dû à la programmation mais à la jurisprudence qui était raciste. L’intelligence artificielle peut donc être un outil de prise de conscience de nos biais. Elle peut nous éclairer et nous aider à revenir sur nos pratiques et à revoir nos préjugés.

Quelles sont les évolutions observées dans le domaine de l’IA Responsable depuis la publication de votre rapport ?

Nous notons de véritables avancées avec la mise en place d’instituts interdisciplinaires en IA, du conseil consultatif de l’IA, de programmes sur l’éthique de l’IA au niveau national et international ou encore les Grands Défis dans le domaine de l’IA… Depuis la publication du rapport, le sujet de l’intelligence artificielle, marginal il y a 4 ans, est aujourd’hui pris en compte et traité par les décideurs. Mais il y a encore du chemin pour aboutir à la mise en oeuvre de l’Intelligence Artificielle Responsable, cela demandera des évolutions culturelles, des ressources humaines… des changements liés à la société, plus encore que des changements techniques.

Selon vous, comment pourrait-on réguler l’IA et mettre en œuvre une IA Responsable ?

Pour réguler l’IA et en favoriser un usage responsable, l’État doit intervenir. C’est en effet son rôle, en tant que puissance politique, de fixer des règles, des normes, des interdictions et de les faire respecter.

L’État doit également favoriser les initiatives. Sans forcément rentrer dans le développement de solutions et d’outils technologiques, il doit encourager la création de boîtes à outils et inciter, fédérer et embarquer. C’est pour cela que les actions de la communauté, composée des entreprises, des laboratoires de recherche français, des cabinets de conseil…, sont primordiales. La communauté apporte les compétences techniques nécessaires et suit les règles fixées par l’État pour atteindre les objectifs.

Dans votre rapport, vous mentionnez la création d’un label. En quoi pourrait-il aider les organisations à rendre leur Intelligence Artificielle Responsable ?

Notre continent a connu ses plus grands succès géopolitiques en créant des normes et des standards internationaux. Il est donc important que nous ayons des labels pour réguler l’IA, comme nous en avons sur d’autres sujets.

Le label n’est pas l’unique solution mais il en fait partie. Il permet de valider la création et le sérieux du processus de mise en place de l’algorithme, la transparence et la confidentialité des bases de données, la prise en compte des retours d’expérience…

Enfin, le label peut également faciliter le partage des bonnes pratiques, la création de standards ou encore la mutualisation de boîtes à outils. Il est la garantie qu’un regard extérieur a été posé pour vérifier l’ensemble du processus : de la chaîne des motivations à celle des usages, en passant par l’interopérabilité.

Rendez-vous le 12 décembre

Positive AI Summit est le premier événement du Do Tank Positive AI. Créée en 2022 par BCG, Orange, Malakoff Humanis et L’Oréal, notre association fédère les entreprises soucieuses des impacts sociétaux de l’IA. Notre mission est d’accompagner nos membres dans la mise...

Positive AI attribue son label d’IA Responsable à Malakoff Humanis

Malakoff Humanis a obtenu le label Positive AI, consolidant ainsi son engagement en faveur d'une intelligence artificielle éthique et responsable. Ce label, délivré par l'association Positive AI, témoigne de la démarche proactive de l’entreprise pour intégrer des...

Orange obtient le label Positive AI

Pour une intelligence artificielle responsable Orange a obtenu le label Positive AI qui reconnaît son engagement en matière d’intelligence artificielle éthique et responsable et certifie sa démarche de progrès continu. L'intelligence artificielle responsable est...

Positive AI Community #3 : avancées, limites et perspectives de l’IA

Le 22 novembre 2023, Positive AI organisait son 3ème webinaire animé par Bertrand Braunschweig, membre du comité indépendant d'experts en IA et éthique de Positive AI et coordonnateur scientifique du programme Confiance.ai. À cette occasion, l’expert est revenu sur...

Giskard rejoint Positive AI !

Le 13 décembre 2023, Giskard, startup française spécialisée dans l'évaluation et le test de la qualité des modèles d'intelligence artificielle générative, rejoint Positive AI. En rejoignant notre association, Giskard réaffirme son engagement en faveur d'une...

Positive AI au Big Data & AI Paris 2023

Les 25 et 26 septembre 2023, Positive AI a participé à la 12ème édition du Salon Big Data & AI Paris 2023 au Palais des Congrès. Une édition marquée par les enjeux de régulation à mesure que l’intelligence artificielle évolue.Accompagner les entreprises à se...

Positive AI Community #2 : L’impact des IA génératives au travail

Le 21 septembre dernier, la Positive AI Community se rassemblait autour d’un webinaire sur l’impact des IA génératives, qui a réuni plus de 230 collaborateurs des entreprises membres de l’association.  À cette occasion, François Candelon, Directeur Associé Senior et...

Positive AI au Club Juridique d’Acsel 2023 – [Le Replay]

Le 4 octobre 2023, Positive AI participait à la table ronde 100% digitale intitulée  "AI ACT : mais comment réguler autant d’intelligence ?" organisée par le Club Juridique de l’association de l’économie numérique Acsel. Philippe Streiff, délégué général de Positive...

Positive AI Community #1 : retour sur le webinaire autour de l’IA Générative en entreprise

Le 23 juin dernier se tenait le premier événement de la Positive AI Community : un webinaire qui a réuni plus d’une centaine de collaborateurs des entreprises membres de l’association. À cette occasion, Faycal Boujemaa, ingénieur technology strategist au sein du...

Premier petit déjeuner Positive AI avec DataScientest : rendre l’apprentissage de l’IA Responsable accessible en entreprise

Le 6 juin dernier, Positive AI co-organisait avec DataScientest, organisme de formation en Data Science, un petit-déjeuner afin d’échanger sur le sujet brûlant de l’IA Responsable et de la formation en entreprise. Positive AI et DataScientest : comment développer une...