Célia Zolynski est coordinatrice de l’Observatoire de l’IA à l’Université Paris 1 Panthéon-Sorbonne, membre du Comité National Pilote d’Éthique du Numérique (CNPEN) et personnalité qualifiée de la Commission Nationale Consultative des Droits de l’Homme (CNCDH).

Quelles sont les missions que vous menez à l’Observatoire de l’IA de Paris 1 (AI ObS) ?

L’objectif de l’Observatoire est de permettre aux étudiants et jeunes chercheurs de monter en compétences sur les sujets liés à l’IA et de les aborder selon une approche interdisciplinaire (droit, histoire, philosophie, art, géographie, économie…). Nous diffusons également des informations et formations dédiées à l’IA au grand public, afin de sensibiliser le plus grand nombre et d’assurer une compréhension large du phénomène.

 

Nous avons articulé les projets de l’Observatoire autour de 4 grands types d’initiatives :

  1. Observer : nous organisons des séminaires interdisciplinaires, réalisons et diffusons une veille scientifique et des entretiens avec les différentes parties prenantes (représentants de l’autorité publique, chercheurs de Paris I…). 
  2. Analyser : nous portons des projets de recherche interdisciplinaires en lien avec l’IA.
  3. Former : nous créons et mettons à disposition des MOOCs et des modules de formation sur les enjeux sociétaux de l’IA. Nous menons des séminaires doctoraux et favorisons les interactions entre l’IA et l’enseignement.
  4. Éclairer : nous avons constitué un panel d’experts et mis en place des travaux de vulgarisation. Nous organisons des colloques à destination des pouvoirs publics et du grand public, autour de thématiques comme la régulation, le droit, les enjeux éthiques de l’intelligence artificielle et ses impacts sur la société.

Comment définiriez-vous une IA de confiance ?

Aujourd’hui, la réglementation de l’IA porte plus particulièrement sur la mise en conformité des systèmes d’IA lors de leur entrée et déploiement sur le marché européen. Pour aller encore plus loin sur les questions de respect des droits humains, il est nécessaire de  mettre en place d’autres processus de contrôle. C’est d’ailleurs l’objet d’une étude ambitieuse et complexe, menée par le Conseil de l’Europe, sur l’impact et l’analyse de risques sur le respect des droits humains.

Pour parler d’IA de confiance, il est nécessaire d’analyser le système algorithmique mais aussi les différents acteurs de la chaîne qui interviennent dans la fabrication, le déploiement et l’utilisation de ce système d’aide à la décision.

Quel rôle peuvent jouer les organisations en faveur d’une IA Responsable ?

Chaque acteur doit effectivement être impliqué et, à ce titre, le rôle des organisations qui emploient des systèmes algorithmiques est déterminant. Il sera encadré par la réglementation mais toute forme d’initiative visant à aller plus loin dans l’usage responsable des systèmes algorithmiques est extrêmement importante. La réglementation actuelle ayant ses limites, nous prônons une régulation pour impliquer l’ensemble des acteurs dans ces mécanismes de responsabilisation et dans la mise en place d’une IA de confiance ou “trustworthy AI”.

 

Concrètement, pour s’assurer de l’acceptabilité des systèmes d’IA en amont de leur déploiement en interne, les entreprises doivent pouvoir intégrer dans leurs réflexions l’institution d’un dialogue avec tous les acteurs impliqués (représentants du personnel, utilisateurs finaux…) et la mise en place d’une gouvernance, par exemple via la création d’un comité éthique opérationnel en interne. 

Comment convaincre et accompagner les organisations dans la régulation de leurs systèmes algorithmiques ?

Premier point : les entreprises vont devoir se conformer à la nouvelle réglementation sous peine de sanctions. On sait, grâce à l’expérience du RGPD, que ce risque a eu un effet “prophylactique” sur la préoccupation des entreprises quant au respect du droit à la protection des données et a favorisé une prise de conscience. On espère que le règlement IA produira les mêmes effets.

 

En complément, il faut accompagner les collaborateurs de ces organisations. La création d’un “compliance AI officer”, pensé sur le modèle du délégué à la protection des données du RGPD, pourrait être une piste. Il permettrait de faire le lien avec le régulateur qui viendrait contrôler le respect du règlement adopté. Cette nouvelle figure apparaît également dans le cadre du Digital Services Act (DSA), adopté fin octobre par l’UE. Au sein de l’Observatoire, nous travaillons en parallèle sur un projet de formation pour cette nouvelle profession afin que les futurs “compliance AI officers” puissent aider les entreprises à appliquer le règlement IA et à déployer de façon responsable leurs systèmes d’aide à la décision. Enfin, nous nous intéressons au droit des salariés et à comment impliquer et former les représentants syndicaux ainsi que l’ensemble des collaborateurs.

 

Par ailleurs, nous avons des discussions autour de l’audit qui sera mis en place dans le cadre du règlement IA et de son indépendance pour s’assurer que les engagements pris par les entreprises soient conformes à ce qui a été annoncé. Il nous paraît essentiel d’avoir une interaction forte avec le régulateur.

 

Enfin, une autre piste vise à échanger et partager avec les organisations, à les intégrer aux réflexions pour créer une “communauté” ouverte. S’il y a des questions “meta” qui dépassent l’échelle de l’entreprise, il serait intéressant qu’elles puissent être remontées à des comités nationaux, qui pourraient venir échanger sur les enjeux de responsabilité, d’environnement, de sécurité… des nouveaux systèmes d’IA pour par exemple mieux combattre la haine en ligne, questionner le recours aux RH analytics et lutter ainsi contre la discrimination et le non-respect des droits humains.

 

Nous pourrions inviter les organisations à discuter avec les académiques de l’université pour partager notre regard. Nous imaginons aussi à l’avenir contribuer à des ateliers de codesign pour réfléchir de façon animée à comment élaborer une cartographie des questions en amont du déploiement d’un projet. Concrètement, cela peut aussi passer par des méthodologies et grilles d’analyse pour aider les entreprises, qui n’auront pas toutes les moyens d’instituer un comité éthique opérationnel, à se poser des questions éthiques.

 

Au sein du Comité National d’Éthique du Numérique, nous pensons également à comment les accompagner et les “challenger” pour avoir un débat sociétal élargi, qui va au-delà de l’entreprise. Cela rejoint d’ailleurs les préconisations du Rapport Villani.