Fermer

Entretien avec Olivier Kahn, Partner chez BCG & BCG GAMMA

Olivier Kahn : “Aujourd’hui, il faut accélérer pour s’assurer que tous les systèmes d’IA soient développés de manière responsable.”

photo olivier kahn
“Pour moi, l’Intelligence Artificielle Responsable est une IA dont les parties prenantes (développeurs, équipes métiers, consommateurs finaux, employés…) ont conscience de l'impact de leur système d’IA sur la société et l'environnement, et agissent pour réduire cet impact au maximum au travers d’actions de contrôle et de mesure des risques.”

Pourquoi mettre en pratique une Intelligence Artificielle Responsable ?

Les systèmes d’IA ont une place prépondérante dans la société. Historiquement, ils ont d’abord été développés par les laboratoires et centres de Recherche & Développement, puis rapidement, par les entreprises pour améliorer leurs produits et leurs services. 

Les technologies ont évolué très vite, les usages aussi, en prenant peu ou pas en compte l’impact sociétal de l’IA. Aujourd’hui, il faut donc accélérer pour s’assurer que ces systèmes IA soient développés de manière responsable. Car, sans mise en œuvre éthique, l’IA représente des risques élevés pour les citoyens et pour la planète à plusieurs égards : justice, équité, environnement, santé, respect de la vie privée… Ils touchent également les entreprises. Si elles ne favorisent pas une IA éthique, elles mettent en jeu leur réputation et leur performance.

De quoi les entreprises et data experts ont-ils besoin aujourd'hui ?

La première étape d’une démarche vers une Intelligence Artificielle Responsable est la mise en place d’une gouvernance et d’outils aidant les structures et leurs équipes à analyser les risques et à les réduire. Pour les accompagner, un cadre prescriptif sur les actions à mener, et progressif pour encourager tous les acteurs, y compris les moins matures, est indispensable. En effet, la maturité des entreprises est inégale. Seulement 52% des entreprises dont le CA dépasse les 100M$ ont mis en place un programme d’IA de confiance et 80% de ces programmes ont des moyens limités pour y parvenir (étude du BCG). Le chemin est encore long…

Les data experts ont, eux, particulièrement besoin d’outils concrets pour notamment faciliter la vérification de certains critères : analyse de biais, émissions de gaz à effet de serre liés à un algorithme d’intelligence artificielle... Ceux-ci se développent, mais il n’existe pas à date un espace central dans lequel tous ces outils sont référencés, documentés et mis à jour.

Enfin, un travail de pédagogie sur les ressources et l’énergie nécessaires à investir pour progresser dans une démarche d’IA éthique permettrait d’aligner les acteurs les moins avancés.

Un label pourrait-il aider les organisations pour réguler leur IA ?

Un label apporte un cadre précis, transparent, et auditable, des aspects précieux pour guider tout type d’entreprises, quel que soit son niveau de maturité, sur le sujet. De plus, cet outil représente un levier de communication interne et externe permettant de faire de la pédagogie sur les actions mises en œuvre et la démarche globale de l’entreprise vers une IA de confiance.