Caroline Lequesne est maîtresse de conférences HDR en droit public à l’Université Côte d’Azur et directrice du Master II Droit algorithmique et Gouvernance des données.
Comment définiriez-vous une IA Responsable ?
Une IA Responsable est pensée, conçue et déployée au service de l’humain. Elle doit être envisagée comme une collaboration entre l’homme et la machine, dans le respect des droits fondamentaux que sont notamment la dignité humaine, le respect de la vie privée, le principe d’égalité…
Il est intéressant de rappeler que la réflexion éthique autour de la responsabilité de l’intelligence artificielle est apparue, dans la période contemporaine, dès 2016 :
- dans un premier temps, la réflexion était nourrie par des échanges avec les philosophes et portait davantage sur les valeurs fondamentales de l’IA ;
- ensuite, en 2018, aux Etats-Unis, les data scientists ont alerté sur les biais, les erreurs, les discriminations et les problèmes engendrés dans les usages. Ils ont alors introduit la notion d’éthique dans l’ingénierie ;
- enfin, depuis 2020, on s’est rendu compte que les enjeux de l’IA allaient bien au-delà de la question des biais et que l’IA nécessitait un cadre juridique pour donner des repères et intégrer les risques. En Europe, la réponse s’est articulée autour de l’AI Act. En Chine, un mouvement législatif est en cours, alors qu’aux Etats-Unis, c’est la Federal Trade Commission (FTC) qui porte le sujet.
Quels sont pour vous les plus grands enjeux dans la mise en place de cette IA Responsable ?
Les enjeux en termes sociétaux voire civilisationnels sont nombreux. On peut en mentionner au moins trois.
L’enjeu premier est l’opérationnalisation des valeurs et des droits fondamentaux au sein de notre société et des organisations. Très concrètement, quels sont les process et les protocoles juridiques qui vont permettre de garantir ces grands principes : dignité humaine, respect de la vie privée, égalité femmes-hommes ?
Deuxième enjeu : comment faire en sorte que l’intelligence artificielle bénéficie au plus grand nombre et ne soit pas seulement une réponse à la course à la productivité (produire plus, plus vite et à moindre coût) ?
Le troisième enjeu : comment éviter que l’IA ne devienne le règne de l’humain “idiot” ? Il est primordial de penser la collaboration homme-machine et de ne pas déléguer aveuglément. Par exemple, les IA génératives comme ChatGPT sont en train de révolutionner le monde du travail. Comment faire en sorte qu’elles s’intègrent dans les environnements de travail ? Qu’elles soient déployées au service des salariés, des équipes, d’une dynamique vertueuse globale ? Autre cas d’usage : la vidéosurveillance algorithmique récemment adoptée par l’Assemblée nationale pour les Jeux olympiques de 2024. Les agents qui l’utilisent doivent monter en compétences, être formés pour pouvoir s’en servir et l’exploiter au mieux.
Quel est votre avis sur le sujet de la vidéosurveillance et en quoi est-ce un enjeu éthique ?
Le premier chantier à éclaircir, sur lequel les chercheurs s’interrogent, depuis le dépôt du projet de loi, est la définition de cette vidéosurveillance intelligente.
La loi parle d’”anticiper des crimes prédéterminés”, des éléments anormaux grâce à la vidéosurveillance dite intelligente, mais à quoi correspondent ces événements ? Qu’est ce qu’un comportement anormal dans l’espace public et comment l’identifier ? Une des pistes supputées est l’utilisation de la reconnaissance émotionnelle et comportementale mais elle est très décriée, car dysfonctionnelle, non prouvée scientifiquement et ses usages sont susceptibles de soulever des interrogations en termes de libertés. Il y a notamment un risque de discrimination, les systèmes pouvant se révélés stigmatisant. Ce sur quoi nous avons également besoin d’être vigilants sur cette loi dite “expérimentale”, c’est qu’au-delà de tester la technologie, il faut tester un processus démocratique d’IA Responsable : les contrôles ont-ils été effectués ?, les agents ont-ils été formés ?, les rapports ont-ils été édités et ont-ils permis à la CNIL de se prononcer ?, les entreprises ont-elles été transparentes ?…
En revanche, si la vidéosurveillance intelligente se limite au contrôle des objets abandonnés et à l’étude de la densité de la foule, le risque est moindre d’autant que la science en étaye davantage l’efficacité. Dans ces hypothèses, les dispositifs semblent moins risqués en termes de libertés et par la suite plus acceptables socialement.
Ma réponse définitive reste toutefois suspendue au décret d’application à venir.
Le cadre législatif, qu’il soit national ou européen avec l’AI Act, devrait renforcer la régulation ?
Oui, l’AI Act, qui n’est que le début d’une série de textes, propose un cadre législatif pour développer et permettre l’exploitation de systèmes algorithmiques.
La législation européenne en discussion prévoit dans ce cadre un système de labellisation/certification. Ainsi, l’accès au marché sera demain conditionné par l’obtention en amont d’une certification, attestant de la conformité aux standards et à la législation européenne.
Pour vérifier la faisabilité de ces principes règlementaires sur le développement d’une IA Responsable, le législateur européen envisage donc de se reposer, dans une large mesure, sur les acteurs privés et les organismes de certification et de standardisation. La démarche Positive AI prend acte de ces avancées et s’inscrit dans cette dynamique. Son référentiel de partage d’initiatives et de bonnes pratiques ambitionne de contribuer et de participer à la réflexion sur les standards et les normes techniques en matière d’IA Responsable et éthique. Ce type d’initiatives est donc essentiel dans la dynamique normative européenne.
Pourquoi avez-vous accepté d’être membre du comité d’experts indépendant en IA et éthique de Positive AI ? Quelle est votre mission ?
Aujourd’hui, les entreprises sont les premiers acteurs sur le champ de l’innovation. Elles doivent donc être proactives, montrer qu’elles sont conscientes des risques et prendre leurs responsabilités face à cet enjeu civilisationnel qu’est l’IA, comme elles ont dû le faire pour le RGPD (Règlement Général sur la Protection des Données). À terme, cela participera à l’acceptabilité sociale de ces technologies et au modèle de société que l’on souhaite pour demain.
Il est donc très intéressant d’aller voir ce que font ces acteurs, comment ils anticipent le cadre législatif qui est en train de se construire, mais aussi comment ils répondent aux attentes et aux inquiétudes sociétales. Nous sommes dans un momentum particulièrement stratégique.
Convaincue par cette approche terrain de la recherche, je suis ravie d’avoir rejoint le comité d’experts de Positive AI, d’être présente dans ces discussions et d’encourager ce type d’initiative.
Avec les deux autres experts externes, Bertrand Braunschweig et Raja Chatila, nous avons principalement travaillé sur le référentiel Positive AI pour le challenger et l’optimiser au regard de nos domaines d’expertise respectifs. Nous sommes impatients de travailler sur la suite, car c’est maintenant que tout se joue.