Pour y répondre et progresser sur ce sujet, BCG GAMMA, L’Oréal, Malakoff Humanis, et Orange France, entreprises leaders de leur secteur, annoncent le lancement de Positive AI et de son label pour rendre concrète et accessible l’éthique dans l’IA pour toutes les entreprises.
Ce label, qui vise à opérationnaliser les propositions des instances publiques, constitue la première étape de l’initiative Positive AI, qui a également pour vocation de devenir un espace d’échange et de dialogue.
L’IA Responsable, un défi central pour les entreprises
Présente désormais dans tous les métiers et toutes les industries, l’IA n’est plus réservée aux innovations de rupture des industries de pointe. Elle interroge tous les processus économiques et l’organisation des entreprises. Son omniprésence pose question aux citoyens, aux consommateurs, et aux collaborateurs qui voient en elle l’opportunité d’améliorer leur quotidien, mais aussi le risque de perdre leur activité ou le contrôle sur certaines de leurs libertés.
Face à l’évidence de l’enjeu, les pouvoirs publics et les experts français et européens ont lancé un débat sur l’éthique du numérique. Les entreprises, premier espace de développement et de déploiement de l’IA, ont un rôle majeur à jouer pour que cette dernière conjugue potentiel d’innovation et respect des droits humains.
Cependant, selon une récente étude du BCG, si 84% des entreprises affirment que l’IA Responsable devrait être une priorité, seules 16% d’entre elles ont développé un programme mature, notamment par manque de solutions opérationnelles et d’outils pour les appliquer.
Partageant ce constat, début 2022, BCG GAMMA, L’Oréal, Malakoff Humanis et Orange France ont uni leurs forces et leurs expertises pour lancer Positive AI.
Positive AI lance le label de l’IA Responsable construit par ceux qui la pratiquent
Constatant la difficulté pour les entreprises de rendre opérationnelles les recommandations sur l’IA Responsable, les quatre entreprises fondatrices de Positive AI tentent d’apporter leur pierre à l’édifice en développant un référentiel intégrant les principes clés de l’IA Responsable définis par la Commission Européenne. Ce référentiel plus concret met l’accent sur trois dimensions prioritaires :
- Justice et Équité : prévenir les biais de discrimination et d’iniquité de traitement pouvant exister aussi bien dans les données que dans les algorithmes ;
- Transparence et Explicabilité : faire en sorte que les données et algorithmes au cœur des systèmes d’IA soient accessibles, compréhensibles, explicables ou a minima interprétables et reproductibles ;
- Intervention humaine : s’assurer de la capacité des organisations à superviser et corriger les décisions automatisées afin que les systèmes d’IA soient conçus pour une collaboration homme-machine au service de l’humain.
À compter de 2023, ce référentiel sera la base servant à l’obtention du label Positive AI, attribuable à l’issue d’un audit indépendant.
Une initiative globale et ouverte pour faire progresser l’IA Responsable
Sur la base de ce premier travail collectif, Positive AI a pour ambition de s’ouvrir à toute entreprise qui gère et/ou développe des systèmes d’Intelligence Artificielle.
Positive AI sera à la fois une base de ressources et une véritable communauté d’experts en progrès constant pour faire avancer l’éthique dans l’IA, partager des expériences et rendre l’IA Responsable accessible à tous les dirigeants et data experts quelle que soit leur maturité, leur industrie ou leur métier.
Souhaitant s’ouvrir à la société civile autant que renforcer son expertise, Positive AI s’est dotée d’un comité indépendant d’experts en IA et éthique qui apportera son éclairage afin que le référentiel et les méthodes d’évaluation puissent être enrichis. Il est composé de 3 personnalités reconnues de la recherche sur l’IA et ses implications dans la société :
- Raja Chatila, professeur émérite de robotique, d’IA et d’éthique à Sorbonne Université ;
- Caroline Lequesne Roth, Maître de conférences en droit public, et Responsable du Master 2 Droit algorithmique et gouvernance des données à l’Université Côte d’Azur ;
- Bertrand Braunschweig, coordonnateur scientifique du programme Confiance.ai.
Pour Laetitia Orsini Sharps, présidente de l’association Positive AI, “ Positive AI ambitionne de créer un espace d’échange, de travail, et des outils concrets et partagés, dédiés aux entreprises qui souhaitent déployer une IA Responsable. Cette démarche opérationnelle s’inscrit dans les propositions des pouvoirs publics. À terme, notre ambition est que ce label devienne une référence, en France et en Europe pour tous ceux qui souhaitent développer une Intelligence Artificielle éthique et respectueuse de la société. Positive AI a vocation à accueillir d’autres entreprises de toutes tailles qui souhaiteraient s’engager dans cette démarche vers une IA Responsable et qui partagent notre conviction d’une vision positive de l’utilisation de cette innovation dans les entreprises.” .
***
Contact presse :
Mélanie Farge – 07 63 13 42 10 – melanie.farge@agenceproches.com