Raja Chatila est professeur émérite d’IA, de robotique et d’éthique à Sorbonne Université et ancien directeur de l’Institut des Systèmes Intelligents et Robotique (ISIR-CNRS).
Comment définiriez-vous une IA Responsable ?
Une IA Responsable est une intelligence artificielle qui doit être conçue de manière responsable par les humains de manière à respecter les valeurs humaines et l’environnement, et ceci tout au long du cycle de vie des systèmes. Toutes les parties prenantes impliquées doivent être responsables.
A l’instar des biologistes qui se sont préoccupés de l’éthique depuis des années et ont par exemple interdit le clonage humain, les professionnels du numérique ne peuvent pas faire l’impasse sur la responsabilité. C’est un élément essentiel dans la régulation de l’IA. Ils doivent être conscients que ce qu’ils font n’est pas neutre et que les conséquences et les risques peuvent être importants.
Il y a quelques jours, le PDG de Google, Sundar Pichai, partageait d’ailleurs ses inquiétudes dans les cas où l’IA serait “mal déployée” et estimait que “l’IA générative [devait] être réglementée comme les armes nucléaires”.
Selon vous, quels sont les plus grands enjeux actuels de l’IA ?
L’intelligence artificielle progresse en permanence et sa singularité réside dans cette vitesse rapide d’évolution et dans le fait que, contrairement à d’autres domaines scientifiques, les industriels, notamment ceux de la Silicon Valley qui sont dotés de moyens financiers considérables, jouent un rôle important dans la recherche. Entre la conception, le développement et le déploiement commercial, le temps est très court. Il ne s’agit plus de la
temporalité à laquelle nous étions habitués où, entre la recherche principalement académique et la commercialisation industrielle, s’écoulaient plusieurs années. Cette vitesse – voire cette course entre les concepteurs de ces systèmes – modifie la société plus
rapidement que notre capacité à comprendre et intégrer les enjeux de transformation économique et sociale.
Prenons un exemple concret : Open AI a produit et rapidement mis sur le marché ChatGPT et plusieurs millions d’usagers s’y sont connectés dès le premier jour. Cette technologie, qui permet aujourd’hui de produire un discours qui ressemble à un discours humain, n’a pas été conçue pour une application particulière. Demain, elle pourrait créer des images, des vidéos et être encore plus convaincante et plus puissante. Elle soulève des questions d’éthique. Et l’éthique a une temporalité bien plus longue. Il faut prendre le temps de réfléchir aux fondements des systèmes algorithmiques, à leurs conséquences et aux valeurs qu’ils peuvent remettre en cause. Il y a donc un double enjeu socio-économique.
Deuxième enjeu : l’enjeu législatif et juridique. Nous devons nous accorder sur la définition juridique de l’intelligence artificielle qui est censée simuler l’intelligence humaine. Pour légiférer il faut une délimitation opérationnelle de ce que cette appellation recouvre et il faut définir des responsabilités humaines pour qu’une législation soit effective.
Vous avez récemment signé le moratoire pour “mettre en pause l”IA”. Pourquoi faut-il un ralentissement dans la « course dangereuse » vers des systèmes d’IA toujours
plus performants ?
Il ne s’agit pas de mettre en pause l’IA, mais de faire une pause sur le développement de systèmes plus puissants que ChatGPT4. J’ai signé ce moratoire, mais cela ne veut pas dire que je sois d’accord avec chaque mot, chaque idée, et encore moins avec chaque signataire. Mon objectif était de faire prendre conscience qu’il y avait un problème. Il ne s’agit pas d’être négatif vis-à-vis de l’intelligence artificielle mais d’éveiller les consciences sur la manière de développer et d’utiliser ces technologies. C’est là toute la notion de responsabilité. Il est important de s’arrêter aujourd’hui pour lever le carton rouge et poser les
bonnes questions à nos sociétés démocratiques : que sommes-nous en train de faire ?
Faut-il arrêter les systèmes génératifs ? Le moratoire ne sera sûrement pas suivi pas de faits et une pause de 6 mois ne changerait pas la donne, mais il était primordial de
sensibiliser le grand public et les décideurs, et cela a fonctionné.
Il faut maintenant transformer l’essai et faire des propositions constructives. J’ai d’ailleurs
signé une autre pétition, beaucoup moins médiatisée, qui propose des éléments à intégrer dans la réglementation à venir.
Quels seraient les garde-fous à mettre en place selon vous dans le développement des futurs systèmes d’IA génératives ?
Plusieurs dispositifs existent déjà. En Chine, un projet de règlement spécifiquement sur les systèmes d’IA générative a été publié récemment. Nous pouvons nous en inspirer en partie. Au niveau européen, l’AI Act, en construction, propose un cadre législatif solide mais qui doit
encore être précisé, en particulier sur les questions de responsabilité et qui ne sera mis en application que dans 2 ans environ.
L’AI Act est basé sur le risque présenté par l’utilisation “voulue” du système (“risk-based approach”), c’est-à-dire le risque issu de son application. Par exemple, le risque sur la santé pour les dispositifs médicaux, sur l’intégrité des personnes pour les transports ou encore les droits humains pour la surveillance, la reconnaissance faciale ou le recrutement.
Plusieurs niveaux de risques sont alors définis :
– si le risque est “inacceptable”, le système est interdit de mise sur le marché ;
– si le risque est “élevé”, une certification préalable est exigée ;
– si le risque est “moyen”, un certain niveau de transparence est demandé.
Or, l’IA générative, en l’occurrence ici ChatGPT, n’entre pas parfaitement dans ce cadre et ces niveaux d’application. La réglementation ne peut pas être basée uniquement sur l’usage et ne doit pas oublier la manière dont la chaîne de valeurs est construite pour établir les responsabilités.
Pourquoi avez-vous accepté d’être membre du comité d’experts indépendant en IA et éthique de Positive AI ? Quelle est votre mission ?
De 2018 à 2020, j’ai fait partie du groupe d’experts de haut niveau en IA qui a conseillé la Commission européenne sur les recommandations pour une IA de confiance. Je suis
membre du comité national pilote d’éthique du numérique français et co-chair du groupe de travail intelligence artificielle responsable au niveau du partenariat mondial sur l’IA. Je poursuis également mes activités de recherche en particulier sur les problématiques d’apprentissage et d’interaction homme-machine. J’ai donc naturellement eu envie de mettre cette expertise en œuvre dans un contexte concret avec Positive AI.
C’est une initiative positive car les entreprises anticipent les contraintes législatives à venir et prennent spontanément leur part de responsabilité pour mettre en place les mécanismes et process nécessaires qui vont rendre les systèmes d’IA compatibles, fiables, robustes et
respectueux des valeurs fondamentales (sécurité, vie privée, contrôle humain, …). Je les encourage d’ailleurs à avoir une activité de recherche pour maîtriser, comprendre et produire avec responsabilité. Ce sont elles les contributrices les plus importantes sur ces problématiques. Et les standards qu’elles vont définir, tester et diffuser pour certifier tel ou tel système, sont des outils précieux et concrets sur lesquels peut s’appuyer l’AI Act.
Pour l’instant, avec Bertrand Braunschweig et Caroline Lequesne Roth, les deux autres membres du comité d’experts, nous avons donné notre avis sur le référentiel Positive AI défini, partagé nos critiques et identifié les manques. Nous sommes très curieux et enthousiastes à l’idée de suivre ce label et son évolution.