IA de confiance
24/11/2020

L’IA de confiance : exigence et opportunité européenne


Auteurs : Amélie Segard, Aurore Baehr
Temps de lecture : 8 minutes
Quantmetry.com : L’IA de confiance : exigence et opportunité européenne

Depuis 2018 la Commission travaille à l’élaboration d’une approche européenne unifiée de l’intelligence artificielle. Cette approche collective vise à assurer la compétitivité au niveau mondial et promouvoir les conditions du développement et de l’utilisation d’IA garantissant le respect des valeurs européennes.

La Commission Européenne a publié en début d’année un livre blanc Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance exposant les initiatives qu’elle souhaite engager dans ce sens. Dans la foulée et s’inscrivant dans une démarche collaborative ouverte, la Commission a mené une consultation citoyenne et organisé deux forums européens en juin 2020 et en octobre 2020, afin de récolter les avis des différentes parties prenantes sur les initiatives proposées dans le livre blanc et d’alimenter divers axes de travail sur l’IA. 

Quantmetry suit avec intérêt ces travaux engagés par la Commission Européenne et vous présente ceux relatifs à l’IA de confiance.


 La Commission Européenne s’engage dans le cadrage de l’IA de confiance

  • Une exigence : maîtriser les risques de dérive liés au déploiement de l’IA

L’intelligence artificielle est aujourd’hui un moteur essentiel du développement économique. De nombreuses applications améliorent les rendements avec l’optimisation des chaînes de production ou la maintenance prédictive par exemple. D’autres cas d’usages tels que l’aide au diagnostic en santé ou l’amélioration des flux de mobilité en ville participent quant à eux au bien-être sociétal et environnemental.

Le développement inéluctable de l’IA comme outil de productivité présente cependant, selon ses domaines d’application, des risques de différentes natures : sécurité et santé, socio-économique, éthique, juridique …

S’il est des domaines d’application et des cas d’usage dont on perçoit facilement la dimension critique, tels la voiture autonome ou les dispositifs médicaux, il en est d’autres où elle n’est pas immédiatement perceptible, tel le recrutement par exemple. De fait, l’usage de l’IA pour l’aide à la sélection présente de lourdes conséquences éthiques s’il se fonde sur des données d’entraînement elles-mêmes biaisées. L’IA est finalement, à l’image de ses développeurs, soumise aux différents biais auxquels notre société nous expose, et cela souvent de manière imperceptible.

Il s’agit donc pour l’Europe d’impulser une prise de conscience de la diversité des risques et de leur criticité en promouvant l’IA de confiance.

De fait, nous ne pouvons nous passer d’IA pour certains usages, y compris critiques. Il en est ainsi par exemple de l’affectation des futurs étudiants en France, qui est d’une complexité telle qu’elle doit nécessairement faire appel à une IA : Parcoursup.

La maîtrise de tels risques est la raison première pour laquelle la Commission Européenne envisage de renforcer le cadre réglementaire qui entoure les usages liés au big data et à l’intelligence artificielle.

  • Une opportunité : se doter d’un avantage concurrentiel géopolitique 

Au-delà d’une exigence visant à protéger les utilisateurs, cette régulation pour une IA de confiance est justifiée par son opportunité de construire un avantage concurrentiel pour l’UE dans la compétition internationale.

Bien que loin derrière les États-Unis et la Chine en termes d’investissements et de notoriété, l’Europe devrait pouvoir, grâce à une réglementation de l’IA de confiance, développer un avantage comparatif tactique en construisant une troisième voie avec une IA éthique. En effet, l’IA fondée sur des valeurs européennes est un différenciateur sur le marché mondial et un moyen de faire valoir ces valeurs au-delà des frontières de l’UE (comme c’est le cas avec des initiatives telles que le GPAI). Développer une IA éthique devient alors un levier de soft power.

Investissements dans l’IA – Comparaison entre l’Europe, les États-Unis et la Chine

La présidente de la Commission européenne, Ursula Von der Leyen, annonçait en février 2020 l’objectif de l’UE d’investir 20 milliards d’euros dans l’IA chaque année contre 3,3 milliards pour l’année 2016. En comparaison, les Etats-Unis – en tant que pays leader mondial dans le domaine – investissent annuellement environ 4 milliards de dollars dans l’intelligence artificielle et prévoient d’investir une enveloppe d’un milliard supplémentaire sur 5 ans pour financer 12 centres de recherche. De son côté, la Chine, dont l’ambition est de remplacer les USA en tête de ce classement, s’engageait en 2017 à investir 20 milliards de dollars par an jusqu’à atteindre l’objectif de 60 milliards de dollars annuels en 2025.

Différents exemples ont, dans un passé proche, mis en lumière les bénéfices d’un positionnement de l’Europe en tant que référence en matière de technologie éthique et réglementée :

  • C’est ainsi que Shark Robotics, start-up française qui conçoit des robots destinés à éloigner l’homme du risque, a été retenue par la société américaine Boston Dynamics pour son sens de l’éthique afin de créer ensemble un robot de décontamination anti covid-19 (voir article).
  • C’est aussi grâce à la réglementation en place sur la protection des données, que les applications de traçage du coronavirus ont pu être utilisées en Europe, contrairement aux États-Unis où il n’existe aucune norme sur les modalités de fonctionnement de ces applications (voir article).
  • C’est aussi peut-être parce que l’Europe a eu un temps d’avance sur la réglementation des drones que la plupart des compagnies leaders sont en Europe. Du moins la réglementation n’a pas été un frein à cette innovation.

L’Union Européenne s’est par ailleurs déjà illustrée dans cette voie depuis la mise en vigueur du RGPD en 2018 dans le domaine du respect de la protection des données personnelles et des droits fondamentaux des citoyens face aux défis du big data.

Le RGPD a créé une sorte de bouclier pour les citoyens européens mais également au-delà. Celle-ci a été adoptée par exemple dans la Silicon Valley. Facebook en est un exemple car le groupe s’est adapté au RGPD en adoptant un nouveau contrôle de la confidentialité pour l’ensemble de ses utilisateurs, européens ou non, afin d’offrir à tous le même niveau de protection.

La reprise progressive de la souveraineté de l’UE en la matière a été une nouvelle fois mise en lumière – même si tardivement – via l’invalidation du Privacy Shield en juillet 2020 (voir article concernant le transfert et le stockage des données des citoyens européens aux Etats-Unis).

 

Cette prise de position forte renforce la position de l’UE en tant que référence en matière d’éthique et de protection des données. Il ressort que cette posture de leader éthique permet de favoriser l’adhésion et la confiance des consommateurs à l’égard du développement de l’IA en Europe.

Pour autant, soutenir les entreprises dans la mise en place de leur IA de confiance en évitant l’écueil de brider l’innovation représente un challenge pour la Commission Européenne.

La démarche de la Commission Européenne pour façonner cette IA de confiance

  • Une approche fondée sur 7 exigences clés afin de promouvoir une IA éthique, respectant les droits de l’homme

Depuis juin 2018, la Commission européenne a ainsi réuni un groupe d’experts, AI HLEG afin de travailler sur le cadrage de l’IA de confiance et proposer des recommandations sur le futur cadre réglementaire de l’UE attendu pour 2021.

Avec ce groupe d’experts, la Commission Européenne a défini 7 exigences auxquelles les IA de confiance doivent répondre afin de préserver les droits fondamentaux.

Les 7 exigences pour une IA de confiance :

  • Contrôles humains sur le traitement
  • Robustesse technique et sécurité du traitement
  • Respect de la vie privé et gouvernance des données
  • Transparence autour du traitement
  • Diversité, non-discrimination et équité
  • Impact environnemental et sociétal 
  • Responsabilités associées au traitement

Le groupe d’experts a également proposé, en juin 2020, une grille d’évaluation pour une IA digne de confiance (ALTAI) fondée sur ces “7 exigences clés” ainsi qu’un outil d’auto-évaluation à destination des acteurs de l’IA.

Cet outil d’auto-évaluation – que nous vous conseillons de compléter avec l’ensemble des parties prenantes intervenant dans le développement de vos IA – peut vous aider à mieux comprendre les différents axes d’une IA de confiance et à prendre conscience de la diversité des risques de dérive d’une IA. Cela permet d’obtenir un score de confiance dans votre IA et des recommandations afin, pourquoi pas, de vous orienter dès à présent vers une mise en conformité vis-à-vis d’un futur règlement.

Notons toutefois que cette grille d’auto-évaluation et les recommandations associées restent assez théoriques et donnent peu d’éléments pratiques pour la mise en place d’une IA de confiance.

  • Une approche par la criticité afin de maintenir l’équilibre entre confiance et innovation

Enfin et surtout, le 20 octobre 2020, le parlement européen a adopté à une grande majorité un texte sur la réglementation de l’IA. Ce texte confirme que la réglementation sur l’IA de confiance sera fondée sur les 7 exigences clés et qu’elle s’appliquera uniquement aux IA dites critiques.

En effet, le souci de soutenir les entreprises dans la mise en place de leur IA de confiance en évitant de brider l’innovation, conduit la Commission Européenne à légiférer non pas sur les technologies elles-mêmes, mais sur les domaines d’application où l’IA est critique. Pour les IA non critiques, la Commission se limite à inciter à suivre ses recommandations.

Il faut maintenant attendre la publication du règlement sur l’IA pour découvrir les mesures concrètes formalisées par la Commission pour garantir le respect des droits fondamentaux dans les projets d’IA.


Notre conviction est qu’un cadrage normatif, contraignant dans les seules situations présentant un risque critique, aura également des implications positives sur les IA non critiques. En effet, il est à envisager qu’en stimulant l’élévation des attentes et exigences de qualité, la Commission parvienne à imposer progressivement de nouveaux standards (pouvant à terme faire l’objet d’une reconnaissance par tierce partie).

Par ailleurs, la réglementation peut opportunément servir de cadre de référence aux entreprises pour que l’IA construite suivant ces principes soit une source de valeur (indépendamment d’objectifs de compliance) :

  • Par une efficacité collective accrue : la confiance dans la façon dont les outils fondés sur l’IA ont été conçus facilitent leur acceptation, leur déploiement et leur bonne exploitation par les utilisateurs au sein de l’entreprise.
  • En termes d’image de marque : par la capacité de garantir aux clients la fiabilité de produits et services et par la maîtrise prouvée de process de conception d’une IA de confiance.
  • Dans l’exigence de robustesse : opportunité de construire une IA fiable et maîtrisée donc performante.

Quantmetry, en tant que “the State of the art AI company”, a d’ores et déjà traduit de manière concrète les mesures vous permettant de travailler sur le volet éthique de vos projets IA et ce, de la conception au déploiement et au suivi du cycle de vie de vos modèles. N’hésitez pas à nous contacter