“Parler d’Intelligence Artificielle Responsable peut être trompeur. C’est aux concepteurs de systèmes algorithmiques d’être responsables.”
Cédric Villani, mathématicien, ancien député et auteur du rapport sur la mise en oeuvre d’une stratégie française et européenne en Intelligence Artificielle (2018)
Dans votre rapport, vous abordez la question de l’éthique de l’IA. Comment définiriez-vous une Intelligence Artificielle Responsable ?
Pour qu’une IA soit responsable, il faut mettre en place des processus de fabrication, de mise en œuvre et de contrôle responsables. La responsabilité est dans le camp humain. Il faut éviter qu’une procédure pas assez rigoureuse pour la société ou l’individu conduise à un usage “irresponsable” de l’IA. Il est donc indispensable d’interroger la finalité mais aussi l’architecture des systèmes algorithmiques : leur transparence, leur évaluation a posteriori, leurs biais et leurs réponses face aux enjeux environnementaux. Il faut des personnes responsables, mais aussi des processus bien calibrés et des indicateurs pertinents. Quand on aborde la notion de responsabilité de l’IA, il faut prendre en compte son empreinte écologique.
Votre rapport parle effectivement du rôle de l’IA dans la transition écologique. En quoi l’IA peut-elle être un levier ?
Notre rapport était, je crois, le premier rapport à ambition internationale à aborder explicitement le sujet de l’écologie et à montrer la face lumineuse et la face sombre de l’IA en la matière. L’IA peut participer à la transition écologique, depuis l’évaluation de la biodiversité jusqu’à l’efficacité des éoliennes dans les parcs en passant par l’optimisation de la consommation d’énergie ou des réseaux d’eau. Mais elle peut aussi malheureusement aider tous les ennemis de la transition écologique. Des systèmes algorithmiques peuvent soutenir les intérêts des entreprises qui exploitent les énergies fossiles, valoriser les voitures les plus polluantes, ou aider certains grands industriels à opprimer leurs sous-traitants et leur personnel. Une régulation est indispensable pour fixer les règles, les normes et les interdictions. Et à cette régulation il faut adjoindre des ressources humaines de qualité.
Plus précisément, quels sont les défis écologiques que l’IA doit relever ?
L’IA a un impact écologique non négligeable via les infrastructures de stockage de données, la pollution liée à l’exploitation des mines, la consommation de ressources, d’énergie et même d’espace. Les centres de données aujourd’hui occupent une surface significative, et rapidement croissante. Je plaide donc pour une limitation des ressources affectées au numérique et une sobriété numérique.
Mais un des grands défis de l’IA est aussi de ne pas lui attribuer un rôle qu’elle ne peut pas accomplir seule. Pour éviter de regarder en face les “vrais” problèmes, les acteurs (gouvernement, institutions, entreprises…) ont tendance à détourner l’attention et à pointer du doigt l’algorithme, qui s’avère souvent être un problème mineur.
Si on applique l’IA au secteur de l’agriculture, elle peut aider en optimisation, comptabilité, en détection de souffrance animale, en assistance à la , etc. Concrètement, cette aide se traduit par des jours de congés supplémentaires et des revenus complémentaires qui vont faciliter le quotidien de l’agriculteur. L’IA se met alors au service de l’humain mais ce n’est pas une révolution. Pour pouvoir nourrir des milliards d’êtres humains tout en préservant la planète, il faut avant tout interroger la chimie, la biologie, les modèles d’élevage, les habitudes de consommation l’usage des engrais, des pesticides… et faire des choix éclairés et courageux. En aucun cas, l’IA ne nous dispense de ces réflexions.