
Les applications innovantes de l'intelligence artificielle (IA - dit “artificial intelligence” ou “AI” en anglais) sont de plus en plus visibles au quotidien et ses bénéfices de plus en plus tangibles. Cependant, sa perception est mitigée et reste un sujet d’incertitude pour les citoyens. Ils voient l’IA comme une opportunité d’améliorer leur quotidien mais aussi comme un risque de perdre leur activité ou le contrôle sur certaines de leurs libertés.
Se poser la question de la responsabilité de l’IA est donc indispensable.
L’IA a été étudiée dès 1950 par Alan Turing, mathématicien britannique reconnu pour son test fondé sur la capacité d'une machine à tenir une conversation humaine. Elle a ensuite été officialisée aux États-Unis en 1956 par Marvin Minsky et trois autres chercheurs.
Aujourd’hui, pour la Commission européenne,“les systèmes d’intelligence artificielle sont des systèmes logiciels (et éventuellement matériels) conçus par des êtres humains et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations, dérivées de ces données et en décidant de la/des meilleure(s) action(s) à prendre pour atteindre l’objectif donné.”
Pour la définir plus simplement, l’intelligence artificielle représente toute technique permettant aux machines d’imiter l’intelligence humaine.
L’IA prend aujourd’hui une place primordiale dans nos activités et représente un levier d’innovation et de progrès dans de nombreux secteurs.
Grâce au machine learning, au deep learning, au Big Data et à l’intelligence artificielle, de nombreuses applications de l’IA peuvent donc faciliter le quotidien. Néanmoins, la perception des citoyens à son égard reste mitigée : seulement 31% des Français voient plus d’avantages que d'inconvénients au développement de l’IA (baromètre Ipsos, 2021).
Le défi majeur de l’IA est qu’elle peut reproduire et amplifier des biais sociaux déjà existants. En pratique, un système d’IA peut favoriser une certaine catégorie de personnes par rapport à d’autres. À l’inverse, une IA surveillée permet, par exemple dans le cadre d’un processus de recrutement, d’effacer les critères discriminants d'appartenance ethnique, de genre et d’âge des candidats lors du traitement de CV.
L’IA peut également suivre le comportement en ligne d’un utilisateur et collecter des informations personnelles, sans qu’il ne s’en rende compte. Non régulée, elle peut donc avoir un impact sur la protection des données, le droit à la vie privée voire sur le respect des droits fondamentaux. Une mise en œuvre d’une IA éthique, transparente et responsable est donc primordiale.
Les salariés craignent aussi que l’adoption de l’IA dans leur entreprise mène à des suppressions de certaines activités et de postes.
Enfin, les algorithmes de l’intelligence artificielle ont un impact environnemental : digitalisation, augmentation du volume de données, production de nouvelles données, stockage… Les chercheurs se penchent sur le sujet pour imaginer une IA raisonnée et durable.
Face à l’évidence de l’enjeu, les pouvoirs publics et les experts français et européens ont lancé un débat sur l’éthique du numérique. Ces discussions doivent aboutir à une nouvelle réglementation qui concernera toutes les entreprises qui gèrent ou développent des systèmes d’IA. Les organisations ont donc intérêt à s’engager dès à présent dans la responsabilisation de leur IA. D’autant plus qu’une entreprise qui utilise l’IA de manière irresponsable peut perdre la confiance de ses clients et mettre en jeu sa réputation.
Pour répondre à ces incertitudes et éviter tous dysfonctionnements et autres failles, les entreprises et organisations doivent s’assurer de la responsabilité et œuvrer pour une pratique éthique de l’intelligence artificielle. Le défi à relever est de taille : (re)définir les modèles des systèmes d’intelligence artificielle et leurs finalités pour créer une intelligence artificielle responsable.