Quelles sont les missions que vous menez au Grand Défi ?
Notre approche au Grand Défi est collective, holistique et agile. Elle se concentre sur 3 grands axes :
- Les normes et les standards : nous les spécifions pour qu’ils soient opérationnalisables et répondent notamment à la réglementation européenne à venir.
- L’évaluation et la conformité : nous travaillons sur des audits, des évaluations de conformité, des certifications ou encore des homologations qui permettent de s’assurer de la mise sur le marché de produits et de services en lesquels les utilisateurs finaux peuvent avoir confiance.
- Les technologies : nous mettons au point des outils, des logiciels et des méthodes qui participent à la conception d’une IA de confiance.
Pouvez-vous développer cette idée d’une “IA de confiance” ou “IA des Lumières” évoquée dans votre rapport ?
Ce questionnement autour de la confiance n’est pas spécifique à l’IA. Il s’est déjà posé par le passé pour valider l’intérêt et les bonnes pratiques d’autres technologies. Pour répondre à ces interrogations, l’Europe pousse aujourd’hui, à travers la réglementation, pour une IA qui garantit des produits et services répondant aux attentes sociétales de transparence, de sûreté et de responsabilité. Cette IA ne se caractérise donc pas uniquement par de la data, mais aussi par des valeurs partagées par les citoyens européens. C’est cette IA qu’on appelle IA des Lumières dans notre rapport, co-signé avec Arno Pons, du Think Tank Digital New Deal.
Pour accompagner cette impulsion et changer la perception actuelle sur l’IA, il est aussi nécessaire de démystifier l’image de science-fiction qui lui est associée et d’éclaircir ce qu’elle est capable de faire. Certes, l’IA permet de faire beaucoup de choses mais l’IA ne sait pas tout faire. Il n’y a d’ailleurs pas une seule IA mais des IA. Un travail de pédagogie, d’échange et de formation est donc primordial.
Pour réaliser ce travail et continuer à affiner cette IA de confiance, la consolidation d’un écosystème d’acteurs engagés dans une démarche de co-construction est indispensable. Le collectif permet de casser les silos, partager les connaissances pluridisciplinaires, et bâtir un langage commun de l’IA éthique qui peut être appliqué dans tous les domaines.
Nous avons créé un collectif. Nous réunissons à date plus de 50 partenaires (industriels, grand-groupes, startups et PME, académiques) et continuons d’élargir le spectre des activités et des compétences.
Notre communauté ouverte échange et se nourrit de tous les points de vue : celui des dirigeants des entreprises qui pratiquent l’IA, des managers de start-ups, des data experts ou encore des chercheurs en sciences humaines et sociales.
Comment convaincre les organisations de réguler leur IA ?
Pour développer plus largement une IA de manière responsable, il faut lever les 3 freins principaux rencontrés par les entreprises :
- le coût de la conformité : il est réel mais peut être compensé par les atouts qu’apporte une Intelligence Artificielle Responsable en termes de business et d’image.
- la nouvelle organisation nécessaire pour se transformer : pour introduire la confiance et optimiser leurs systèmes, la mise en place de process, de méthodologies et de partenariats est indispensable.
- l’engagement dans des discussions hors champ de compétences : partager ses problèmes avec d’autres acteurs pour trouver ensemble des solutions requiert du temps mais fait avancer toutes les entreprises impliquées.
Dans le même temps, il faut maintenir un équilibre pour continuer à innover.
La création d’un label serait-elle la meilleure manière d’encadrer l’IA sans restreindre l’innovation ?
Oui, certains acteurs voient le label comme une limite à l’innovation. Effectivement, c’est un champ de contraintes. Mais il peut être transformé en champ d’opportunités pour les acteurs académiques, pour qui cela ouvre de nouveaux champs de recherche, comme pour les acteurs industriels, pour qui le label renforce la compétitivité. Un label peut en effet avoir une vraie valeur business. Par exemple, si une entreprise labellisée peut prouver que son application de recrutement n’est pas discriminatoire, c’est un véritable avantage concurrentiel.
Le label peut donc être une manière de réguler l’IA tout en permettant aux organisations de trouver le bon équilibre entre réglementation, innovation et business.