Positive AI Community #3 : avancées, limites et perspectives de l’IA

19 décembre 2023
Le 22 novembre 2023, Positive AI organisait son 3ème webinaire animé par Bertrand Braunschweig, membre du comité indépendant d’experts en IA et éthique de Positive AI et coordonnateur scientifique du programme Confiance.ai. À cette occasion, l’expert est revenu sur les dernières avancées, les limites et les perspectives de l’intelligence artificielle.
Body

L’IA connaît des progrès remarquables 

Au cours des dernières décennies, l’intelligence artificielle connaît une expansion remarquable dans de nombreux champs d’application :

  • reconnaissance d’images,
  • traitement de la parole (Siri, Alexa, Sounhound)
  • Langue naturelle (traduction, synthèse, résumés, Q&A, …)
  • Jeux (dames, échecs, bricks, go, poker, starcraft,…)
  • Aide à la décision (banque, finance, santé,…)
  • Recommandations, publicités personnalisées,..
  • Science (AlphaFold, astrophysique,…)

Cependant, avec l’avènement de l’IA générative, des failles apparaissent à mesure que les progrès accélèrent. Bertrand Braunschweig résume ainsi “cinq murs de l’IA” – les facteurs sur lesquels l’IA a des impacts – notamment dans la confiance, l’énergie, la sécurité, les interactions humain-machine, l’inhumanité. En outre, les grands modèles de langage (LLM) qui reposent en grande partie sur du deep learning, tels que ChatGPT, peuvent être source d’erreurs et générer :

  • De la toxicité
  • Des biais de stéréotype, équité
  • Des manques liés à la robustesse vis-à-vis des attaques adverses / OOD
  • Le non-respect de la vie privée
  • Des problèmes éthiques
  • Des hallucinations (inventions)
  • Un non alignement avec les décisions des utilisateurs

Vers une IA de confiance

Le projet de réglementation européenne de l’intelligence artificielle, actuellement en cours de négociation, propose que des systèmes d’IA soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs.

Le sujet de la confiance est le sujet principal dans la réglementation européenne”, souligne Bertrand Braunschweig.

Les principes posés par l’Union européenne visent ainsi à veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. En outre, pour qu’un système d’IA soit dit responsable et de confiance, il est nécessaire de prendre en compte ces trois dimensions, rappelle l’expert :

  • La dimension technologique, englobant la robustesse et la fiabilité des systèmes.
  • Les interactions avec les individus, incluant des aspects tels que l’explicabilité, la surveillance, la responsabilité et la transparence.
  • La dimension sociale, abordant les enjeux liés à la vie privée et à l’équité.

Le Parlement européen, définit les systèmes d’intelligence artificielle comme étant un “système informatique qui est conçu pour fonctionner avec différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent des environnements physiques ou virtuels.

Les taux d’émissions carbone générés par ChatGPT3

Après avoir exposé les progrès technologiques et les enjeux de responsabilité de l’IA, Bertrand Braunschweig a examiné les défis actuels et futurs auxquels l’intelligence artificielle est confrontée. Ces défis comprennent le respect des données personnelles, la responsabilité de l’IA, ainsi que l’impact environnemental et énergétique associé au développement de ces outils. Ainsi sur le dernier point, on estime que les systèmes d’intelligence artificielle constituent des émetteurs significatifs de dioxyde de carbone. À titre d’exemples, GPT-3 a généré environ 500 tonnes d’émissions de CO2 en 2022. Des enjeux qui soulignent l’importance cruciale de fournir des solutions appropriées.

La Positive AI Community, une communauté d’échanges pour les membres de l’association 

Cet événement – à l’image de ceux prochainement organisés – s’inscrit dans la lignée desengagements de l’association, qui visent à créer un espace d’échange et de partage de bonnes pratiques. La Positive AI Community a pour but de devenir la communauté de référence sur tous les sujets d’IA éthique pour progresser collectivement sur l’application de d’intelligence artificielle responsable au sein des organisations.

Vous souhaitez rejoindre l’initiative Positive AI et bénéficier des prochains événements de la Positive AI Community ? Rejoignez-nous

Rendez-vous le 12 décembre

Positive AI Summit est le premier événement du Do Tank Positive AI. Créée en 2022 par BCG, Orange, Malakoff Humanis et L’Oréal, notre association fédère les entreprises soucieuses des impacts sociétaux de l’IA. Notre mission est d’accompagner nos membres dans la mise...

Positive AI attribue son label d’IA Responsable à Malakoff Humanis

Malakoff Humanis a obtenu le label Positive AI, consolidant ainsi son engagement en faveur d'une intelligence artificielle éthique et responsable. Ce label, délivré par l'association Positive AI, témoigne de la démarche proactive de l’entreprise pour intégrer des...

Orange obtient le label Positive AI

Pour une intelligence artificielle responsable Orange a obtenu le label Positive AI qui reconnaît son engagement en matière d’intelligence artificielle éthique et responsable et certifie sa démarche de progrès continu. L'intelligence artificielle responsable est...

Giskard rejoint Positive AI !

Le 13 décembre 2023, Giskard, startup française spécialisée dans l'évaluation et le test de la qualité des modèles d'intelligence artificielle générative, rejoint Positive AI. En rejoignant notre association, Giskard réaffirme son engagement en faveur d'une...

Positive AI au Big Data & AI Paris 2023

Les 25 et 26 septembre 2023, Positive AI a participé à la 12ème édition du Salon Big Data & AI Paris 2023 au Palais des Congrès. Une édition marquée par les enjeux de régulation à mesure que l’intelligence artificielle évolue.Accompagner les entreprises à se...

Positive AI Community #2 : L’impact des IA génératives au travail

Le 21 septembre dernier, la Positive AI Community se rassemblait autour d’un webinaire sur l’impact des IA génératives, qui a réuni plus de 230 collaborateurs des entreprises membres de l’association.  À cette occasion, François Candelon, Directeur Associé Senior et...

Positive AI au Club Juridique d’Acsel 2023 – [Le Replay]

Le 4 octobre 2023, Positive AI participait à la table ronde 100% digitale intitulée  "AI ACT : mais comment réguler autant d’intelligence ?" organisée par le Club Juridique de l’association de l’économie numérique Acsel. Philippe Streiff, délégué général de Positive...

Positive AI Community #1 : retour sur le webinaire autour de l’IA Générative en entreprise

Le 23 juin dernier se tenait le premier événement de la Positive AI Community : un webinaire qui a réuni plus d’une centaine de collaborateurs des entreprises membres de l’association. À cette occasion, Faycal Boujemaa, ingénieur technology strategist au sein du...

Cédric Villani : “Un label en faveur d’une IA éthique n’est pas l’unique solution mais il fait partie de la boîte à outils.”

“Une régulation de l'intelligence artificielle par l’État est indispensable pour fixer les règles, les normes et les interdictions.”Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d'une stratégie française et européenne en...

Premier petit déjeuner Positive AI avec DataScientest : rendre l’apprentissage de l’IA Responsable accessible en entreprise

Le 6 juin dernier, Positive AI co-organisait avec DataScientest, organisme de formation en Data Science, un petit-déjeuner afin d’échanger sur le sujet brûlant de l’IA Responsable et de la formation en entreprise. Positive AI et DataScientest : comment développer une...