Data Gouvernance, IA de confiance, Machine Learning
24/03/2023

Panorama du contexte réglementaire et des initiatives IA de confiance


Auteur : Aurore BAEHR
Temps de lecture : 8 minutes
Quantmetry.com : Panorama du contexte réglementaire et des initiatives IA de confiance

2023 devrait être l’année de l’adoption de l’AI Act par la Commission Européenne, près de 2 ans après la proposition de loi sur l’encadrement des systèmes d’IA parue en avril 2021(1). Ce contexte réglementaire, couplé à de multiples initiatives nouvelles ou grandissantes en 2022, répond à une croissance exponentielle du nombre de cas d’usages IA sur le marché et à la nécessité d’en maîtriser les risques associés. Dans cet article, nous vous proposons un panorama du contexte et des initiatives IA de confiance qui ont émergé ou se sont déployées en 2022.

Une explosion du nombre de systèmes d’IA industrialisés et des risques associés

Tout d’abord, on observe une forte croissance du nombre de cas d’usages IA développés et industrialisés depuis les années 2010, avec une forte accélération depuis environ 5 ans (2). Par exemple, le taux d’industrialisation moyen des cas d’usage IA est passé 27% à 46% entre 2021 et 2022 selon notre « Baromètre 2022 des Organisations Data Quantmetry » (3). Cette croissance, estimée à plus de 53 milliards de dollars en 2023 dans le monde (2), concerne en particulier l’Amérique du Nord, suivie de l’Europe et de l’Asie- Pacifique avec des pays leaders, selon l’OCDE, tels que les Etats-Unis, la Chine, les pays de l’Union Européenne et notamment le Royaume-Uni, l’Allemagne, la France, ou encore dans une moindre mesure, Israël (4).

Estimation du chiffre d’affaires généré par l’IA dans le monde, en milliard de dollars, Statista, 2022

 

Toutefois, cette croissance s’accompagne d’une hausse proportionnelle des risques inhérents à l’IA lorsque ceux-ci ne sont pas maîtrisés, entraînant des dérives voire des accidents. Tesla par exemple a vu l’un de ses véhicules Tesla Model 3 être la cause d’un accident mortel après avoir accéléré sans laisser la possibilité à son conducteur de freiner, comme le conducteur le précisera dans son dépôt de plainte (5). Cet accident ayant eu lieu dans le 13ème arrondissement de Paris en décembre 2021 a causé la mort d’un piéton et la prise en charge d’une vingtaine de personnes par les secours. Une enquête est en cours pour déterminer la responsabilité de Tesla ou du conducteur dans cet accident.

On peut penser que ce type de scandale touche particulièrement les GAFAMs, étant connus pour être à l’état de l’art en termes d’IA, mais ce n’est pas le cas. En effet, tout type d’acteur développant des modèles d’IA peut être concerné, comme des institutions par exemple. Ce fut le cas de la Ville d’Amsterdam qui vît la démission de son gouvernement (6) après que 26 000 parents bénéficiant d’allocations familiales aient été accusés à tort de fraude fiscale à cause d’un algorithme se basant sur profilage ethnique des personnes ; des critères discriminants tels que la double nationalité ou le lieu d’habitation ayant été utilisés pour estimer les niveaux de risque de fraude.

Ces dérives ou accidents montrent que le développement et le déploiement des systèmes d’IA nécessitent aujourd’hui un cadre légal et technique pour garantir l’intégrité, la sécurité, la santé et la liberté des personnes. C’est ce que rapportait également le panel de dirigeants interrogés lors la consultation nationale sur l’intelligence artificielle réalisée par l’AFNOR en 2021 (7) : « l’absence de référentiel ou de cadre technique rendent difficiles le développement ou l’utilisation de l’IA dans notre organisation ».

Restitution de la consultation nationale sur l’IA AFNOR, novembre 2021

Réponse à la question 10 : « Quelles difficultés, liées au développement ou à l’utilisation de l’IA dans votre organisation, avez-vous rencontrées, ou pensez-vous rencontrer ? »

 

Un boom des initiatives pour une IA de confiance

Sur la base de la multiplication des scandales, de l’inquiétude grandissante des concitoyens et de l’urgence de cadrer les systèmes d’IA de plus en plus nombreux pour mieux accompagner l’innovation, de multiples initiatives voient le jour au niveau européen mais aussi mondial. Une synthèse non exhaustive de ces initiatives (projets de loi, normes volontaires, certifications, labélisations ou collectifs) est proposée ici.

Au niveau réglementaire, le futur AI Act de la Commission Européenne cadre les systèmes d’IA identifiés comme « critiques », c’est-à-dire engendrant un niveau de risque élevé d’atteinte à l’intégrité et aux droits fondamentaux des personnes. Cette approche basée sur les risques (8) concerne les pays européens mais également les pays déployant des systèmes d’IA à destination des citoyens européens, sur la base du principe d’extraterritorialité (9). Pour accompagner cette proposition de cadre légal, la Commission Européenne recommande aux organisations souhaitant se mettre en conformité le recours à la grille d’évaluation des niveaux de risques construite par l’OCDE (10). Des initiatives comparables voient le jour aux Etats-Unis notamment, avec le projet de régulation des systèmes d’IA au niveau fédéral, l’Algorithmic Accountability Act (11) pour centraliser et harmoniser un contexte réglementaire dynamique mais morcelé actuellement. En effet, une quinzaine de projets de lois sont en cours de travail dans plusieurs États et villes, notamment sur des sujets ayant un fort impact sociétal, tels que la restriction de la reconnaissance faciale ou du recrutement automatisé. Dans le même sens au Canada, un projet de loi, l’Artificial Intelligence and Data Act(12) (AIDA) vise à définir les pré-requis pour la conception, le développement et le déploiement d’IA alignés avec les standards nationaux et internationaux et d’interdire les usages d’IA risqués pour les individus et leurs intérêts.

En parallèle, un ensemble de normes volontaires sur l’IA sont définies ou en cours de définition. C’est le cas d’une trentaine de normes sur lesquelles contribue le groupe de travail international ISO/IEC JTC 1/SC 42 (13). Les normes « ISO/IEC 24030 : use cases » (14), « ISO/IEC 24027 : assessing biais » (15), « ISO/IEC 24028 : overview of trustworthiness » (16) ou encore « ISO/IEC 24029-1 overview for robustness assessment of neural network » (17) sont déjà disponibles. D’autres sont en cours d’écriture telles que la norme « ISO/IEC 23894 Guidance on risk management » (18) qui permettra l’analyse et l’évaluation des risques sur la base d’un référentiel de risk management adapté à l’IA. En France, le LNE (19) lance en 2021 la certification de processus pour l’IA reposant sur l’analyse de l’ensemble des processus du cycle de vie des systèmes d’IA.

Les secteurs d’activité français s’emparent également du sujet. En 2020, l’Autorité de Contrôle Prudentiel et de Résolution (ACPR) a travaillé sur un référentiel de gouvernance et d’évaluation des algorithmes (20) du secteur financier, avec un enjeu fort sur les principes d’explicabilité et d’intelligibilité. Toujours en 2020, la Haute Autorité de Santé (HAS) a proposé un outil pour l’évaluation des dispositifs médicaux embarquant de l’IA (21). D’autres secteurs ont rapidement suivi, comme l’industrie avec le consortium Confiance.ai (22), un « collectif d’acteurs académiques et industriels français des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie ». Suite à un appel à manifestation d’intérêt (AMI) courant 2021, le collectif a identifié 4 PME ou startups pour accompagner les entreprises du consortium dans le développement d’IA de confiance pour des cas d’usages industriels emblématiques. Le focus est ici porté sur les principes de robustesse technique et de cycle de vie des modèles.

Plusieurs labels voient également le jour. En 2020, l’association Arborus lance le label GEEIS-AI (24) pour l’égalité, la diversité et l’inclusion dans l’IA, sur le modèle de son label GEEIS (Gender Equality European & International Standard). Depuis 2021, l’association Labelia Labs (ex Substra Foudation) propose une démarche de labélisation (25) à deux niveaux de maturité distincts (intermédiaire ou avancé) suite à l’auto-évaluation en ligne des organisations volontaires. Quantmetry a notamment été labelisé en 2023 avec un niveau « avancé ». Plus récemment, le label Positive.ai (26) né  en 2022 du travail des 4 entreprises co-fondatrices de l’association du même nom : Orange France, BCG GAMMA, L’Oréal et Malakoff Humanis. Ce labe