
Les applications innovantes de l'intelligence artificielle sont de plus en plus visibles au quotidien et ses bénéfices de plus en plus tangibles. L’IA s’immisce désormais dans tous les processus de la vie économique : optimisation des processus industriels, gestion des ressources humaines, marketing et relations clients, analyse financière, médecine ou services publics (…) et n’est plus réservée qu’aux innovations de rupture des industries de pointe.
Cependant, alors que de plus en plus d’acteurs (consommateurs, pouvoirs publics, dirigeants, salariés, data experts…) se rendent compte de l'intérêt de l’intelligence artificielle, notamment comme levier d’innovation économique et technologique, nombreux sont ceux qui craignent ses éventuelles dérives. La question de l’éthique de l’intelligence artificielle est donc nécessaire pour les années à venir et l’enjeu est de définir les contours d’une IA Responsable.
Pour la Commission européenne, “les systèmes d’intelligence artificielle sont des systèmes logiciels (et éventuellement matériels) conçus par des êtres humains et qui, ayant reçu un objectif complexe, agissent dans le monde réel ou numérique en percevant leur environnement par l’acquisition de données, en interprétant les données structurées ou non structurées collectées, en appliquant un raisonnement aux connaissances, ou en traitant les informations, dérivées de ces données et en décidant de la/des meilleure(s) action(s) à prendre pour atteindre l’objectif donné.”
Pour la définir plus simplement, l’IA représente toute technique permettant aux machines d’imiter l’intelligence humaine.
L’IA a été étudiée dès 1950 par Alan Turing, mathématicien britannique reconnu pour son test fondé sur la capacité d'une machine à tenir une conversation humaine. Elle a ensuite été officialisée aux États-Unis en 1956 par Marvin Minsky et trois autres chercheurs. Elle représente ainsi un ensemble de sciences, théories et techniques qui permettront d’interpréter des données complexes recueillies à grande échelle.
Grâce au machine learning, au deep learning, au Big Data et à l’intelligence artificielle, de nombreuses applications de l’IA peuvent faciliter le quotidien des citoyens. L’intelligence artificielle prend aujourd’hui une place de plus en plus importante dans nos activités et représente un levier d’innovation et de progrès dans de nombreux secteurs.
Bien que les avancées de l’intelligence artificielle contribuent grandement à l’amélioration des méthodes de travail et à faciliter le quotidien des usagers, sa perception est mitigée et reste un sujet d’incertitude pour les citoyens. Ainsi, seuls 31% des Français estiment que le développement de systèmes d’intelligence artificielle présente plus d’avantages que d’inconvénients (IPSOS, 2022).
Du côté des salariés, seuls 40% s'attendent à un impact positif de l’IA et 43% craignent la suppression de certaines activités suite à l’adoption de l’IA dans leur entreprise (étude BCG GAMMA & Malakoff Médéric Humanis, 2019). Les collaborateurs, et en particulier les data experts, qui créent ou exploitent des systèmes d’IA sont à la recherche de sens dans leur parcours professionnel, et font part de leur volonté de s’impliquer dans des entreprises qui partagent leurs préoccupations en matière d’éthique.
Non régulée, l’intelligence artificielle peut également générer des risques éthiques :
Le défi majeur de l’IA est qu’elle peut reproduire et amplifier des biais sociaux déjà existants. En pratique, un système d’IA peut favoriser une certaine catégorie de personnes par rapport à d’autres. À l’inverse, une IA surveillée permet, par exemple dans le cadre d’un processus de recrutement, d’effacer les critères discriminants d'appartenance ethnique, de genre et d’âge des candidats lors du traitement de CV.
On parle d’algorithme à effet “boîte noire”, lorsque son modèle génère un résultat ou une décision difficilement explicable. Non régulée, elle peut donc avoir un impact sur la protection des utilisateurs finaux voire sur le respect des droits fondamentaux. Une mise en œuvre d’une IA éthique, transparente et responsable est donc primordiale.
Les systèmes d'intelligence artificielle doivent être conçus pour favoriser et compléter les compétences des êtres humains, sans interférer sur leurs décisions. Afin de s’assurer que l’IA ne contraigne ni subordonne l’être humain, il convient de veiller à ce que les systèmes et processus d’IA restent sous la supervision et le contrôle humain.
Si l’idée d’une norme revient régulièrement en France et en Europe, il n'existe à l’heure actuelle que très peu de solutions opérationnelles pour les entreprises qui souhaitent avoir une approche responsable sur le déploiement de leurs algorithmes. D’autre part, les consommateurs et les collaborateurs disposent également de peu de moyens pour juger l’éthique des entreprises pour lesquelles ils travaillent ou qu’ils côtoient au quotidien.
L’Union européenne a engagé une importante réflexion sur l’encadrement des systèmes d’intelligence artificielle au travers de plusieurs propositions législatives (AI ACT). Positive AI ambitionne d’accompagner cette réflexion à deux égards :
Le besoin étant immédiat et au vu de ses enjeux majeurs, il est déterminant de ne pas attendre la mise en vigueur d’une régulation européenne, mais d’agir dès à présent pour proposer des solutions aux organisations souhaitant s’améliorer en matière d’IA Responsable.