Cédric Villani : “Dans la transition écologique, l’IA fait partie de la solution mais n’est en aucun cas LA solution.”

29 juin 2023

“Parler d’Intelligence Artificielle Responsable peut être trompeur. C’est aux concepteurs de systèmes algorithmiques d’être responsables.”

Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d’une stratégie française et européenne en Intelligence Artificielle (2018)

Dans votre rapport, vous abordez la question de l’éthique de l’IA. Comment définiriez-vous une Intelligence Artificielle Responsable ?

Pour qu’une IA soit responsable, il faut mettre en place des processus de fabrication, de mise en œuvre et de contrôle responsables. La responsabilité est dans le camp humain. Il faut éviter qu’une procédure pas assez rigoureuse pour la société ou l’individu conduise à un usage “irresponsable » de l’IA. Il est donc indispensable d’interroger la finalité mais aussi l’architecture des systèmes algorithmiques : leur transparence, leur évaluation a posteriori, leurs biais et leurs réponses face aux enjeux environnementaux. Il faut des personnes responsables, mais aussi des processus bien calibrés et des indicateurs pertinents. Quand on aborde la notion de responsabilité de l’IA, il faut prendre en compte son empreinte écologique.

Votre rapport parle effectivement du rôle de l’IA dans la transition écologique. En quoi l’IA peut-elle être un levier ?

Notre rapport était, je crois, le premier rapport à ambition internationale à aborder explicitement le sujet de l’écologie et à montrer la face lumineuse et la face sombre de l’IA en la matière. L’IA peut participer à la transition écologique, depuis l’évaluation de la biodiversité jusqu’à l’efficacité des éoliennes dans les parcs en passant par l’optimisation de la consommation d’énergie ou des réseaux d’eau. Mais elle peut aussi malheureusement aider tous les ennemis de la transition écologique. Des systèmes algorithmiques peuvent soutenir les intérêts des entreprises qui exploitent les énergies fossiles, valoriser les voitures les plus polluantes, ou aider certains grands industriels à opprimer leurs sous-traitants et leur personnel. Une régulation est indispensable pour fixer les règles, les normes et les interdictions. Et à cette régulation il faut adjoindre des ressources humaines de qualité.

Plus précisément, quels sont les défis écologiques que l’IA doit relever ?

L’IA a un impact écologique non négligeable via les infrastructures de stockage de données, la pollution liée à l’exploitation des mines, la consommation de ressources, d’énergie et même d’espace. Les centres de données aujourd’hui occupent une surface significative, et rapidement croissante. Je plaide donc pour une limitation des ressources affectées au numérique et une sobriété numérique.

Mais un des grands défis de l’IA est aussi de ne pas lui attribuer un rôle qu’elle ne peut pas accomplir seule. Pour éviter de regarder en face les “vrais” problèmes, les acteurs (gouvernement, institutions, entreprises…) ont tendance à détourner l’attention et à pointer du doigt l’algorithme, qui s’avère souvent être un problème mineur.

Si on applique l’IA au secteur de l’agriculture, elle peut aider en optimisation, comptabilité, en détection de souffrance animale, en assistance à la , etc. Concrètement, cette aide se traduit par des jours de congés supplémentaires et des revenus complémentaires qui vont faciliter le quotidien de l’agriculteur. L’IA se met alors au service de l’humain mais ce n’est pas une révolution. Pour pouvoir nourrir des milliards d’êtres humains tout en préservant la planète, il faut avant tout interroger la chimie, la biologie, les modèles d’élevage, les habitudes de consommation l’usage des engrais, des pesticides… et faire des choix éclairés et courageux. En aucun cas, l’IA ne nous dispense de ces réflexions.

Orange obtient le label Positive AI

Pour une intelligence artificielle responsable Orange a obtenu le label Positive AI qui reconnaît son engagement en matière d’intelligence artificielle éthique et responsable et certifie sa démarche de progrès continu. L'intelligence artificielle responsable est...

Positive AI Community #3 : avancées, limites et perspectives de l’IA

Le 22 novembre 2023, Positive AI organisait son 3ème webinaire animé par Bertrand Braunschweig, membre du comité indépendant d'experts en IA et éthique de Positive AI et coordonnateur scientifique du programme Confiance.ai. À cette occasion, l’expert est revenu sur...

Giskard rejoint Positive AI !

Le 13 décembre 2023, Giskard, startup française spécialisée dans l'évaluation et le test de la qualité des modèles d'intelligence artificielle générative, rejoint Positive AI. En rejoignant notre association, Giskard réaffirme son engagement en faveur d'une...

Positive AI au Big Data & AI Paris 2023

Les 25 et 26 septembre 2023, Positive AI a participé à la 12ème édition du Salon Big Data & AI Paris 2023 au Palais des Congrès. Une édition marquée par les enjeux de régulation à mesure que l’intelligence artificielle évolue.Accompagner les entreprises à se...

Positive AI Community #2 : L’impact des IA génératives au travail

Le 21 septembre dernier, la Positive AI Community se rassemblait autour d’un webinaire sur l’impact des IA génératives, qui a réuni plus de 230 collaborateurs des entreprises membres de l’association.  À cette occasion, François Candelon, Directeur Associé Senior et...

Positive AI au Club Juridique d’Acsel 2023 – [Le Replay]

Le 4 octobre 2023, Positive AI participait à la table ronde 100% digitale intitulée  "AI ACT : mais comment réguler autant d’intelligence ?" organisée par le Club Juridique de l’association de l’économie numérique Acsel. Philippe Streiff, délégué général de Positive...

Positive AI Community #1 : retour sur le webinaire autour de l’IA Générative en entreprise

Le 23 juin dernier se tenait le premier événement de la Positive AI Community : un webinaire qui a réuni plus d’une centaine de collaborateurs des entreprises membres de l’association. À cette occasion, Faycal Boujemaa, ingénieur technology strategist au sein du...

Cédric Villani : “Un label en faveur d’une IA éthique n’est pas l’unique solution mais il fait partie de la boîte à outils.”

“Une régulation de l'intelligence artificielle par l’État est indispensable pour fixer les règles, les normes et les interdictions.”Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d'une stratégie française et européenne en...

Premier petit déjeuner Positive AI avec DataScientest : rendre l’apprentissage de l’IA Responsable accessible en entreprise

Le 6 juin dernier, Positive AI co-organisait avec DataScientest, organisme de formation en Data Science, un petit-déjeuner afin d’échanger sur le sujet brûlant de l’IA Responsable et de la formation en entreprise. Positive AI et DataScientest : comment développer une...