Bertrand Braunschweig est coordonnateur scientifique du programme Confiance.ai à l’Institut de recherche technologique SystemX

Depuis quand travaillez-vous sur l’intelligence artificielle et plus particulièrement sur le sujet de la confiance ?

Chercheur en dynamique des systèmes, j’ai commencé à travailler sur l’intelligence artificielle en 1987. J’ai pu diriger les activités de recherche en IA au sein de l’IFP Energies Nouvelles, présidé l’association française d’intelligence artificielle, avant de rejoindre l’Agence Nationale de la Recherche (ANR) en 2006 en tant que responsable de programmes, puis du département Sciences et Technologies de l’Information et de la Communication (STIC). J’ai notamment coordonné la publication de deux ouvrages sur l’IA : le cahier sur l’IA de l’ANR en 2012 et le Livre blanc sur l’intelligence artificielle de l’INRIA (Institut national de recherche en sciences et technologie du numérique) paru initialement en 2016 puis dans une deuxième version en 2021. 

Dès 2015, j’ai affirmé que la confiance était un élément clé du succès de l’IA. Même si pour certaines de ses applications, comme la recommandation de contenus sur mesure (films, musique, publicités…), une erreur n’est pas forcément grave, elle peut l’être dès qu’il y a un enjeu humain, économique ou environnemental : conduite d’un véhicule autonome, supervision d’une centrale nucléaire, détection d’un cancer de la peau… Dans ces cas-là, la stabilité, la robustesse, l’interprétabilité, l’explicabilité ainsi que la certification des systèmes d’IA sont indispensables pour limiter au maximum les erreurs et leurs impacts. La Commission européenne parle  de “systèmes à hauts risques” dans lesquels elle inclut de nombreuses applications pour les personnes (emploi, justice, accès aux services etc.) mais aussi les infrastructures industrielles critiques. 

Comment définiriez-vous une IA de confiance ?

La confiance est une question riche et multifactorielle. Une IA de confiance est une IA qui répond à des exigences technologiques, humaines et sociétales. Elle se construit en associant plusieurs facteurs : 

  • la technologie : le système doit être robuste, fiable, utilisé dans son domaine d’emploi, etc. ;
  • l’interaction avec les humains : la transparence, l’explicabilité et la qualité des échanges sont primordiales pour s’assurer que des hommes et des femmes maîtrisent les systèmes d’IA ;
  • l’éthique : l’IA doit prendre en compte la diversité, le respect des minorités,  l’absence de biais, et le respect de l’environnement ;
  • la validation par un tiers de confiance : à l’instar d’un label qui garantit qu’une instance valide la dimension responsable de l’IA.

Ma mission en tant que coordonnateur scientifique est au service du programme Confiance.ai qui développe des technologies pour augmenter la confiance envers l’IA dans les systèmes critiques (aéronautique, transport, énergie, défense, sécurité etc.). À date, nous avons développé, testé et approuvé une centaine de composants et de logiciels pour répondre à la question de la confiance d’acteurs industriels dans des cas d’usage précis tels que la vérification de soudure, des prévisions de consommation de produits, ou encore la maintenance prédictive dans l’aviation. Au-delà de la réglementation à venir, la mise en service de systèmes d’IA de confiance représente pour eux un gain de productivité important sur tout le cycle industriel. 

À la suite de la demande de milliers d’experts d’un moratoire de 6 mois dans les recherches et formations de systèmes d’IA plus puissants que GPT-4, restez-vous confiant sur cette question d’IA Responsable ?

Oui, nous allons y arriver. Néanmoins, l’IA de confiance est un chantier de très longue haleine. 

Pour reprendre un exemple connu, nous sommes encore marqués par la mort d’une piétonne aux États-Unis en 2018 renversée par une voiture autonome. Comme l’explique César A. Hidalgo dans son ouvrage « How Humans judge machines », nous n’attendons pas les mêmes choses des humains et des machines, et n’acceptons pas les erreurs de ces dernières. Malgré le bénéfice que l’IA pourrait engendrer pour la sécurité routière (potentiellement diviser par 10 le nombre de morts par an sur les routes de France), il faut avancer prudemment compte tenu des conséquences humaines dramatiques de certaines IA, ternissant durablement l’image des innovations associées.

Je suis convaincu que c’est en investissant dans la recherche que nous trouverons des solutions (logicielles, algorithmiques, matérielles, hybrides…) qui nous permettront de diminuer le taux d’erreur des IA, et donc de limiter les risques associés. 

La définition de normes y concourt également. L’AI Act, pour lequel je participe à la rédaction des normes harmonisées, en est une illustration. L’enjeu de ce règlement, actuellement en cours de discussion au sein du Parlement européen, est notamment de mettre en place les exigences qui vont contribuer à ce que toutes les parties prenantes (développeurs, utilisateurs, experts…) bénéficient d’une IA de confiance.

Enfin, pourquoi avez-vous accepté d’être membre du comité d’experts indépendant en IA et éthique de Positive AI ? Quelle est votre mission ?

De par mon expérience et investissement sur le sujet de la confiance dans l’IA depuis de nombreuses années, c’est assez naturellement que j’ai accepté de rejoindre ce comité au sein de Positive AI. J’apporte toutes mes connaissances acquises notamment dans le  programme Confiance.ai et je partage également les avancées et discussions auxquelles je participe au niveau européen afin d’accompagner Positive AI dans la finalisation de son référentiel. Il me semble utile d’avoir des instances telles que celles-ci et je suis ravi de pouvoir faciliter les synergies entre elles. 

Le label Positive AI est une promesse importante, intéressante et portée par des acteurs crédibles. Je suis impatient de voir combien d’entreprises vont le demander, d’échanger avec elles sur leurs problématiques et de les aider à trouver des solutions.