
Pour faire face aux préoccupations des différentes parties prenantes (consommateurs, pouvoirs publics, collaborateurs…), les entreprises qui créent et utilisent l’IA doivent s’assurer de la responsabilité de leur Intelligence Artificielle. L’initiative Positive AI est née pour donner à toutes les organisations les moyens de participer au développement d’une IA éthique et respectueuse de la société.
Selon une étude BCG, seules 52% des entreprises dont le chiffre d’affaires dépasse les 100M$ ont mis en place un programme d’IA éthique et parmi ces programmes, près de 80% disposent de moyens limités pour y parvenir. Pourtant, 84 % des entreprises pensent que l’IA Responsable devrait être une priorité absolue de la direction.
Dans le même temps, 25% des sondés signalent des défaillances dans leurs systèmes d'intelligence artificielle : problèmes techniques, biais dans la prise de décision, problèmes de confidentialité, de sécurité... Sachant que ces dérives ne sont pas toujours identifiées et que les organisations peinent à adopter une IA éthique, les incidents sont sans doute plus nombreux sur le terrain. Le besoin d’une Intelligence Artificielle Responsable opérationnelle et applicable au sein des entreprises est donc bien réel.
Afin de rendre opérationnelles les propositions des instances publiques sur l’Intelligence Artificielle Responsable, l’ambition de l’initiative Positive AI est de fournir aux entreprises les outils pour mettre en œuvre une IA éthique pérenne, dont le label Positive AI est le premier exemple, et d’offrir à leurs dirigeants et experts en IA un espace d'échange et de dialogue. Le partage de bonnes pratiques, d’outils, et d’interrogations sont essentiels pour progresser sur le sujet de l’IA éthique et responsable et l’appliquer au sein des organisations.
Les premiers leviers qui seront mis à disposition sont :