Orange obtient le label Positive AI

31 janvier 2024
Pour une intelligence artificielle responsable
Orange a obtenu le label Positive AI qui reconnaît son engagement en matière d’intelligence artificielle éthique et responsable et certifie sa démarche de progrès continu.
L’intelligence artificielle responsable est l’application par les entreprises de principes éthiques dans la conception, le développement et l’utilisation de ces technologies.

Le label Positive AI a été créé par l’association Positive AI qui réunit une communauté d’entreprises et d’organisations engagées pour une Intelligence Artificielle responsable, concrète et applicable. La mission de l’association est d’éclairer, d’accompagner et de co-construire avec ses membres des outils et des méthodes pour développer un environnement de confiance pour les utilisateurs et les salariés.

L’entreprise Orange a été évaluée par un tiers auditeur externe et indépendant afin d’examiner son organisation générale ainsi que ses algorithmes et méthodes de conception. Le label atteste qu’Orange a mis en œuvre une approche responsable du développement et de l’utilisation de l’IA.
Concrètement, cela signifie que les concepteurs de solutions à base d’IA chez Orange, doivent tenir compte des conséquences sociales, éthiques et environnementales potentielles de celles-ci et prendre des mesures pour les éviter ou les minimiser. Ces mesures sont par exemple la sobriété énergétique et la transparence de l’IA, la prévention de la discrimination, la protection de la vie privée et des données personnelles, ou encore la sécurité de l’IA contre les cyberattaques.

David Giblas, Président de Positive AI et Directeur Général délégué de Malakoff Humanis : « Les membres de l’association se joignent à moi pour féliciter les équipes Data & IA d’Orange France mobilisées dans l’obtention du label Positive AI pour une IA Responsable. Cette première labellisation Positive AI est une belle étape dans la vie de notre association engagée et dynamique.  »

Laetitia Orsini-Sharps, Directrice Grand Public Orange France : « Les potentialités de l’IA pour la relation d’Orange France avec ses clients sont immenses, et les cas d’usage de plus en plus nombreux. Orange a un rôle majeur à jouer afin que l’intelligence artificielle conjugue son potentiel d’innovation et de progrès avec le respect des droits fondamentaux. L’obtention du label confirme que notre gouvernance et nos procédures sont en ligne avec les standards les plus stricts sur le sujet, et nous challenge pour continuer à nous améliorer de façon continue afin de maintenir le plus haut niveau d’exigence. Je remercie toutes les équipes Orange qui se sont, pendant plusieurs semaines, pleinement mobilisées pour que soit reconnu l’engagement d’Orange à développer et utiliser des systèmes d’intelligence artificielle de manière responsable ».

Positive AI attribue son label d’IA Responsable à Malakoff Humanis

Malakoff Humanis a obtenu le label Positive AI, consolidant ainsi son engagement en faveur d'une intelligence artificielle éthique et responsable. Ce label, délivré par l'association Positive AI, témoigne de la démarche proactive de l’entreprise pour intégrer des...

Positive AI Community #3 : avancées, limites et perspectives de l’IA

Le 22 novembre 2023, Positive AI organisait son 3ème webinaire animé par Bertrand Braunschweig, membre du comité indépendant d'experts en IA et éthique de Positive AI et coordonnateur scientifique du programme Confiance.ai. À cette occasion, l’expert est revenu sur...

Giskard rejoint Positive AI !

Le 13 décembre 2023, Giskard, startup française spécialisée dans l'évaluation et le test de la qualité des modèles d'intelligence artificielle générative, rejoint Positive AI. En rejoignant notre association, Giskard réaffirme son engagement en faveur d'une...

Positive AI au Big Data & AI Paris 2023

Les 25 et 26 septembre 2023, Positive AI a participé à la 12ème édition du Salon Big Data & AI Paris 2023 au Palais des Congrès. Une édition marquée par les enjeux de régulation à mesure que l’intelligence artificielle évolue.Accompagner les entreprises à se...

Positive AI Community #2 : L’impact des IA génératives au travail

Le 21 septembre dernier, la Positive AI Community se rassemblait autour d’un webinaire sur l’impact des IA génératives, qui a réuni plus de 230 collaborateurs des entreprises membres de l’association.  À cette occasion, François Candelon, Directeur Associé Senior et...

Positive AI au Club Juridique d’Acsel 2023 – [Le Replay]

Le 4 octobre 2023, Positive AI participait à la table ronde 100% digitale intitulée  "AI ACT : mais comment réguler autant d’intelligence ?" organisée par le Club Juridique de l’association de l’économie numérique Acsel. Philippe Streiff, délégué général de Positive...

Positive AI Community #1 : retour sur le webinaire autour de l’IA Générative en entreprise

Le 23 juin dernier se tenait le premier événement de la Positive AI Community : un webinaire qui a réuni plus d’une centaine de collaborateurs des entreprises membres de l’association. À cette occasion, Faycal Boujemaa, ingénieur technology strategist au sein du...

Cédric Villani : “Un label en faveur d’une IA éthique n’est pas l’unique solution mais il fait partie de la boîte à outils.”

“Une régulation de l'intelligence artificielle par l’État est indispensable pour fixer les règles, les normes et les interdictions.”Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d'une stratégie française et européenne en...

Premier petit déjeuner Positive AI avec DataScientest : rendre l’apprentissage de l’IA Responsable accessible en entreprise

Le 6 juin dernier, Positive AI co-organisait avec DataScientest, organisme de formation en Data Science, un petit-déjeuner afin d’échanger sur le sujet brûlant de l’IA Responsable et de la formation en entreprise. Positive AI et DataScientest : comment développer une...

Cédric Villani : “Dans la transition écologique, l’IA fait partie de la solution mais n’est en aucun cas LA solution.”

“Parler d’Intelligence Artificielle Responsable peut être trompeur. C’est aux concepteurs de systèmes algorithmiques d’être responsables.”Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d'une stratégie française et européenne en...