
Bertrand Braunschweig, membre du comité indépendant d’experts en IA et éthique de Positive AI
Bertrand Braunschweig est coordonnateur scientifique du programme Confiance.ai à l'Institut de recherche technologique SystemX
Chercheur en dynamique des systèmes, j’ai commencé à travailler sur l’intelligence artificielle en 1987. J’ai pu diriger les activités de recherche en IA au sein de l’IFP Energies Nouvelles, présidé l’association française d’intelligence artificielle, avant de rejoindre l’Agence Nationale de la Recherche (ANR) en 2006 en tant que responsable de programmes, puis du département Sciences et Technologies de l'Information et de la Communication (STIC). J’ai notamment coordonné la publication de deux ouvrages sur l’IA : le cahier sur l’IA de l’ANR en 2012 et le Livre blanc sur l’intelligence artificielle de l’INRIA (Institut national de recherche en sciences et technologie du numérique) paru initialement en 2016 puis dans une deuxième version en 2021.
Dès 2015, j’ai affirmé que la confiance était un élément clé du succès de l’IA. Même si pour certaines de ses applications, comme la recommandation de contenus sur mesure (films, musique, publicités…), une erreur n’est pas forcément grave, elle peut l’être dès qu’il y a un enjeu humain, économique ou environnemental : conduite d’un véhicule autonome, supervision d’une centrale nucléaire, détection d’un cancer de la peau... Dans ces cas-là, la stabilité, la robustesse, l’interprétabilité, l’explicabilité ainsi que la certification des systèmes d’IA sont indispensables pour limiter au maximum les erreurs et leurs impacts. La Commission européenne parle de “systèmes à hauts risques” dans lesquels elle inclut de nombreuses applications pour les personnes (emploi, justice, accès aux services etc.) mais aussi les infrastructures industrielles critiques.
La confiance est une question riche et multifactorielle. Une IA de confiance est une IA qui répond à des exigences technologiques, humaines et sociétales. Elle se construit en associant plusieurs facteurs :
Ma mission en tant que coordonnateur scientifique est au service du programme Confiance.ai qui développe des technologies pour augmenter la confiance envers l’IA dans les systèmes critiques (aéronautique, transport, énergie, défense, sécurité etc.). À date, nous avons développé, testé et approuvé une centaine de composants et de logiciels pour répondre à la question de la confiance d’acteurs industriels dans des cas d’usage précis tels que la vérification de soudure, des prévisions de consommation de produits, ou encore la maintenance prédictive dans l’aviation. Au-delà de la réglementation à venir, la mise en service de systèmes d’IA de confiance représente pour eux un gain de productivité important sur tout le cycle industriel.
Oui, nous allons y arriver. Néanmoins, l’IA de confiance est un chantier de très longue haleine.
Pour reprendre un exemple connu, nous sommes encore marqués par la mort d'une piétonne aux États-Unis en 2018 renversée par une voiture autonome. Comme l'explique César A. Hidalgo dans son ouvrage "How Humans judge machines", nous n'attendons pas les mêmes choses des humains et des machines, et n'acceptons pas les erreurs de ces dernières. Malgré le bénéfice que l'IA pourrait engendrer pour la sécurité routière (potentiellement diviser par 10 le nombre de morts par an sur les routes de France), il faut avancer prudemment compte tenu des conséquences humaines dramatiques de certaines IA, ternissant durablement l’image des innovations associées.
Je suis convaincu que c'est en investissant dans la recherche que nous trouverons des solutions (logicielles, algorithmiques, matérielles, hybrides…) qui nous permettront de diminuer le taux d’erreur des IA, et donc de limiter les risques associés.
La définition de normes y concourt également. L’AI Act, pour lequel je participe à la rédaction des normes harmonisées, en est une illustration. L’enjeu de ce règlement, actuellement en cours de discussion au sein du Parlement européen, est notamment de mettre en place les exigences qui vont contribuer à ce que toutes les parties prenantes (développeurs, utilisateurs, experts…) bénéficient d’une IA de confiance.
De par mon expérience et investissement sur le sujet de la confiance dans l’IA depuis de nombreuses années, c’est assez naturellement que j’ai accepté de rejoindre ce comité au sein de Positive AI. J’apporte toutes mes connaissances acquises notamment dans le programme Confiance.ai et je partage également les avancées et discussions auxquelles je participe au niveau européen afin d’accompagner Positive AI dans la finalisation de son référentiel. Il me semble utile d’avoir des instances telles que celles-ci et je suis ravi de pouvoir faciliter les synergies entre elles.
Le label Positive AI est une promesse importante, intéressante et portée par des acteurs crédibles. Je suis impatient de voir combien d’entreprises vont le demander, d’échanger avec elles sur leurs problématiques et de les aider à trouver des solutions.