
Entretien avec Célia Zolynski, professeure de droit privé à l'Université Paris 1 Panthéon-Sorbonne
Célia Zolynski est coordinatrice de l’Observatoire de l’IA à l'Université Paris 1 Panthéon-Sorbonne, membre du Comité National Pilote d'Éthique du Numérique (CNPEN) et personnalité qualifiée de la Commission Nationale Consultative des Droits de l'Homme (CNCDH).
L’objectif de l’Observatoire est de permettre aux étudiants et jeunes chercheurs de monter en compétences sur les sujets liés à l’IA et de les aborder selon une approche interdisciplinaire (droit, histoire, philosophie, art, géographie, économie…). Nous diffusons également des informations et formations dédiées à l’IA au grand public, afin de sensibiliser le plus grand nombre et d’assurer une compréhension large du phénomène.
Nous avons articulé les projets de l'Observatoire autour de 4 grands types d'initiatives :
Aujourd’hui, la réglementation de l’IA porte plus particulièrement sur la mise en conformité des systèmes d’IA lors de leur entrée et déploiement sur le marché européen. Pour aller encore plus loin sur les questions de respect des droits humains, il est nécessaire de mettre en place d’autres processus de contrôle. C’est d’ailleurs l’objet d’une étude ambitieuse et complexe, menée par le Conseil de l’Europe, sur l'impact et l’analyse de risques sur le respect des droits humains.
Pour parler d’IA de confiance, il est nécessaire d’analyser le système algorithmique mais aussi les différents acteurs de la chaîne qui interviennent dans la fabrication, le déploiement et l’utilisation de ce système d’aide à la décision.
Chaque acteur doit effectivement être impliqué et, à ce titre, le rôle des organisations qui emploient des systèmes algorithmiques est déterminant. Il sera encadré par la réglementation mais toute forme d'initiative visant à aller plus loin dans l’usage responsable des systèmes algorithmiques est extrêmement importante. La réglementation actuelle ayant ses limites, nous prônons une régulation pour impliquer l’ensemble des acteurs dans ces mécanismes de responsabilisation et dans la mise en place d’une IA de confiance ou “trustworthy AI”.
Concrètement, pour s'assurer de l'acceptabilité des systèmes d'IA en amont de leur déploiement en interne, les entreprises doivent pouvoir intégrer dans leurs réflexions l’institution d’un dialogue avec tous les acteurs impliqués (représentants du personnel, utilisateurs finaux...) et la mise en place d’une gouvernance, par exemple via la création d'un comité éthique opérationnel en interne.
Premier point : les entreprises vont devoir se conformer à la nouvelle réglementation sous peine de sanctions. On sait, grâce à l’expérience du RGPD, que ce risque a eu un effet “prophylactique” sur la préoccupation des entreprises quant au respect du droit à la protection des données et a favorisé une prise de conscience. On espère que le règlement IA produira les mêmes effets.
En complément, il faut accompagner les collaborateurs de ces organisations. La création d’un “compliance AI officer”, pensé sur le modèle du délégué à la protection des données du RGPD, pourrait être une piste. Il permettrait de faire le lien avec le régulateur qui viendrait contrôler le respect du règlement adopté. Cette nouvelle figure apparaît également dans le cadre du Digital Services Act (DSA), adopté fin octobre par l’UE. Au sein de l’Observatoire, nous travaillons en parallèle sur un projet de formation pour cette nouvelle profession afin que les futurs “compliance AI officers” puissent aider les entreprises à appliquer le règlement IA et à déployer de façon responsable leurs systèmes d’aide à la décision. Enfin, nous nous intéressons au droit des salariés et à comment impliquer et former les représentants syndicaux ainsi que l’ensemble des collaborateurs.
Par ailleurs, nous avons des discussions autour de l’audit qui sera mis en place dans le cadre du règlement IA et de son indépendance pour s’assurer que les engagements pris par les entreprises soient conformes à ce qui a été annoncé. Il nous paraît essentiel d’avoir une interaction forte avec le régulateur.
Enfin, une autre piste vise à échanger et partager avec les organisations, à les intégrer aux réflexions pour créer une “communauté” ouverte. S’il y a des questions “meta” qui dépassent l'échelle de l’entreprise, il serait intéressant qu’elles puissent être remontées à des comités nationaux, qui pourraient venir échanger sur les enjeux de responsabilité, d'environnement, de sécurité… des nouveaux systèmes d’IA pour par exemple mieux combattre la haine en ligne, questionner le recours aux RH analytics et lutter ainsi contre la discrimination et le non-respect des droits humains.
Nous pourrions inviter les organisations à discuter avec les académiques de l’université pour partager notre regard. Nous imaginons aussi à l’avenir contribuer à des ateliers de codesign pour réfléchir de façon animée à comment élaborer une cartographie des questions en amont du déploiement d’un projet. Concrètement, cela peut aussi passer par des méthodologies et grilles d’analyse pour aider les entreprises, qui n’auront pas toutes les moyens d’instituer un comité éthique opérationnel, à se poser des questions éthiques.
Au sein du Comité National d’Éthique du Numérique, nous pensons également à comment les accompagner et les “challenger” pour avoir un débat sociétal élargi, qui va au-delà de l’entreprise. Cela rejoint d’ailleurs les préconisations du Rapport Villani.