Fermer

Intelligence Artificielle Responsable : principes et définition

puzzle
   

Intelligence Artificielle Responsable : qu'est-ce que c’est ? 

La Commission européenne définit une IA de confiance en 3 points : 

  • elle doit être licite et assurer le respect des législations et réglementations applicables ;
  • elle doit être éthique et refléter le respect de principes et de valeurs éthiques, ainsi que l’adhésion à ces principes et valeurs ;
  • elle doit être robuste sur les plans technique et social, pour faire en sorte que, même avec de bonnes intentions, les systèmes d’intelligence artificielle ne causent pas de préjudices involontaires. Une IA de confiance valide la fiabilité du système d’IA en tant que tel, mais également celle de l’ensemble des processus et acteurs qui font partie du cycle de vie de ce système.

Quels sont les principes sur lesquels reposent l’Intelligence Artificielle Responsable ? 

Une Intelligence Artificielle Responsable doit aussi répondre aux 7 principes éthiques définis par la Commission européenne :

  1. L’action humaine, le contrôle humain et les droits fondamentaux ;
  2. Robustesse technique et sécurité ;
  3. Respect de la vie privée et gouvernance des données ;
  4. Transparence des données, des systèmes et des modèles ;
  5. Diversité, non-discrimination et équité ;
  6. Bien-être sociétal et environnemental ;
  7. Responsabilité.

 

Image
bureaux-union-europeenne-bruxelles

Vers une définition et une réglementation de l’intelligence artificielle

 

Face à l’intérêt grandissant de l’intelligence artificielle au sein de la société et des organisations,  les pouvoirs publics ont intégré la nécessité de définir et de réguler l’intelligence artificielle et sa pratique.

En France :

  • 2018 : Le rapport Villani “Donner un sens à l’IA” propose une “instance pour émettre des avis” sur l’intelligence artificielle, sur ce qui est acceptable ou non.
  • 2020 : Le rapport de l’institut Montaigne “Algorithmes : contrôles des biais S.V.P.” soutient “l’émergence de labels pour renforcer la confiance du citoyen dans les usages critiques et accélérer la diffusion des algorithmes bénéfiques”.
  • 2022 : L’étude du Conseil d’État “S’engager dans l’intelligence artificielle pour un meilleur service public” recommande de construire une “IA publique de confiance“.

Mais aussi en Europe :

  • 2019 : La Commission européenne publie “7 principes éthiques pour une IA de confiance”.
  • 2021 : L’AI Act pose les bases d’un premier cadre légal.
  • 2024 : Le nouveau règlement sur les systèmes d'intelligence artificielle devrait être adopté.

Ces discussions doivent aboutir à une nouvelle réglementation qui concernera toutes les entreprises qui gèrent ou développent des systèmes d’IA. Les organisations ont donc intérêt à s’engager dès à présent dans la responsabilisation de leur IA. D’autant plus qu’une entreprise qui utilise l’IA de manière irresponsable peut perdre la confiance de ses clients et mettre en jeu sa réputation. 

Pour en savoir plus sur les enjeux éthiques de l’intelligence artificielle. 

 

 

FAQ - IA Responsable

Pourquoi doit-on rendre l’IA plus responsable ? 

Une IA désigne un ensemble de systèmes de logiciels permettant d’atteindre un objectif donné. On parle d’irresponsabilité lorsque les algorithmes peuvent être trompeurs, déloyaux ou biaisés au moment de leur interaction avec l’humain. Pour prévenir tous risques de dérives et d’une utilisation dite irresponsable, d’un point de vue éthique et moral, il est nécessaire de mettre en place des processus de contrôle sur l’ensemble de la chaîne de valeurs, dès la phase de conception jusqu’au déploiement du système d’IA. 

Quels sont les principes clés de l'intelligence artificielle responsable suivis par Positive AI ?

L’initiative Positive AI a fait le choix de construire le référentiel auditable autour des principes clés de l’IA Responsable définis par la Commission Européenne. L’ensemble des dimensions du high-level expert group de l’UE sont couvertes et Positive AI a choisi de prioriser 3 axes prioritaires dont l’impact sur les libertés individuelles est prépondérant : 

  • Justice et Équité (5 HLEG) : prévenir les biais de discrimination et d'iniquité de traitement pouvant exister aussi bien dans les données que dans les algorithmes ;
  • Transparence et Explicabilité (4) : faire en sorte que les données et algorithmes au cœur des systèmes d’IA soient accessibles, compréhensibles, explicables ou a minima interprétables et reproductibles ;
  • Intervention humaine (1) : s’assurer de la capacité des organisations à superviser et corriger les décisions automatisées afin que les systèmes IA soient conçues pour une collaboration homme-machine au service de l'humain.

Ce référentiel a vocation à être évolutif afin de s'adapter à l'évolution des réflexions sur l’IA Responsable, puis à l’intégration progressive des autres principes de l’IA Responsable définis par la Commission Européenne, tels que la question environnementale, dont l’intérêt grandit à chaque instant.  

Comment garantir une utilisation responsable de l’IA ? 

Plusieurs actions doivent être opérées pour garantir un usage responsable de l’IA : 

  • Veiller à ce que les objectifs et les résultats des systèmes d'IA soient justes, impartiaux et explicables.
  • Sécuriser les systèmes d'IA pour qu'ils soient sûrs et robustes.
  • Suivre les meilleures pratiques en matière de gouvernance des données afin de préserver la vie privée des utilisateurs.
  • Minimiser les impacts sociaux et environnementaux négatifs
  • Faire que l’IA augmente plutôt que remplace les capacités humaines