IA de confiance
16/10/2020

Qu'est-ce qu'une IA éthique ?


Auteur : Aurore Baehr
Temps de lecture : 8 minutes
Quantmetry.com : Qu'est-ce qu'une IA éthique ?

Retour sur les 7 principes du Livre Blanc de la Commission Européenne « IA : une approche européenne axée sur l’excellence et la confiance » (Février 2020)

En tant que cabinet de conseil expert en intelligence artificielle, Quantmetry accompagne depuis plusieurs mois déjà ses clients soucieux d’anticiper ces questions de conformité grâce à une démarche d’audit et de recommandations, leur permettant ainsi de prendre une longueur d’avance sur ce sujet clé qu’est l’IA de confiance. 

Cet article vous permettra de découvrir en quelques minutes les 7 principes d’une intelligence artificielle d’excellence et de confiance présentés dans le Livre Blanc de la Commission Intelligence artificielle : une approche européenne axée sur l’excellence et la confiance” (Février 2020). Il vous donnera également un premier aperçu des mesures à mettre en place pour mieux répondre à ces enjeux sociétaux et techniques d’ici 2021.

 


 

Comment l’Union Européenne envisage d’étendre le RGPD pour une intelligence artificielle éthique en 2021 ? 

Deux projets sont étudiés actuellement par la Commission Européenne pour enrichir le RGPD. Le premier concerne la réglementation sur les systèmes d’IA critiques (ex : octroi de crédit, recrutement assisté par IA, etc.). Le second projet correspond à la création d’un mécanisme d’audit et de labels visant à contrôler et certifier le caractère éthique d’un algorithme. Ce projet viendrait se substituer ou compléter le premier projet de loi sur les systèmes d’IA critiques. A ce jour, nul ne sait comment l’Union Européenne va compléter le RGPD en termes de mesures concrètes à mettre en place par les acteurs de l’IA ou concernant de potentielles sanctions en cas de violation du réglement.

“L’utilisation de l’IA crée à la fois des possibilités et des risques”, c’est ce que précise la Commission Européenne qui base son analyse sur la notion de risques et donc de mesures à mettre en place pour prévenir, gérer ou éviter toute défaillance de l’IA (préjudice matériel et immatériel) en termes d’éthique – en tant que principes partagés et au cœur de l’identité d’un groupe – ou de protection des personnes (droits fondamentaux : appareil judiciaire et répressif, accès au service public, santé, etc.).

Sur ce postulat, la Commission présente ses 7 “exigences essentielles” pour construire et garantir une IA de confiance :

  1. Facteur humain et contrôle humain sur les traitements
  2. Robustesse technique et sécurité
  3. Respect de la vie privée et gouvernance des données
  4. Transparence
  5. Diversité, non-discrimination et équité
  6. Bien-être sociétal et environnemental
  7. Responsabilité

 

Principe 1 : Facteur humain et contrôle humain sur les traitements

Parfois oublié, tout algorithme est le fruit d’un travail et de décisions prises par des humains. Des erreurs ou biais peuvent exister : le risque zéro n’existe pas. Il convient donc de garantir un contrôle humain des traitements sur la base du respect des droits fondamentaux (voir le texte de référence du Conseil de l’Europe (1) “Algorithmes et droits humains. Étude sur les dimensions des droits humains dans les techniques de traitement automatisé des données”) et ce dès la conception d’un modèle, lors de son apprentissage mais également sur la totalité de son cycle de vie (lire notre article sur le sujet). Pour anticiper et se prémunir de l’effet “boîte noire” (opacité des algorithmes) et permettre une compréhension des décisions prises par le modèle, il est essentiel de s’appliquer à rendre compréhensible, explicable et interprétable par l’homme les décisions et actions prises par celui-ci. Ces concepts d’explicabilité, d’interprétabilité ou d’intélligibilité des modèles (voir l’article sur le Rapport Villani 2018 ou notre article sur l’intelligibilité en deep learning et computer vision) doit prévaloir lors d’une expérimentation ou d’un prototype et doit perdurer jusqu’aux phases d’industrialisation et de production d’un modèle.

 

Principe 2 : Robustesse technique et sécurité

La sécurité des utilisateurs, qu’ils soient directement ou indirectement impactés par un algorithme d’IA, est une préoccupation essentielle. Celle-ci repose en partie sur la robustesse technique des modèles liée à différents paramètres tels que la qualité des données en entrée, le manque de représentativité des données d’entraînement ou encore les dérives du modèle. Pour ce faire, des règles et méthodes précises doivent être suivies, comme par exemple l’estimation d’intervalles de confiance, la détection d’anomalies ou encore la détection de la dérive des modèles (voir notre Livre Blanc “IA en production : cycle de vie et dérive des modèles”). 

 

Principe 3 : Respect de la vie privée et gouvernance des données

Un très grand nombre de données, parfois à caractère personnel, est nécessaire à la conception, au déploiement et au bon fonctionnement des modèles d’IA. Le RGPD – entré en vigueur en mai 2018 – vient préciser les règles de collecte, de traitement, de conservation et de suppression de la donnée pour garantir le respect de la vie privée de chacun et une gouvernance saine des données (voir notre article sur la gouvernance de la donnée). Avec le projet de loi 2021 visant l’IA d’excellence et de confiance et comme pour la version actuelle du RGPD, un lot de mesures en cas de non-respect des règles émises devrait voir le jour. En France, la CNIL sera alors garante du respect de ses mesures pour une IA éthique via son activité de conseil, de contrôle et de sanction.

 

Principe 4 : Transparence autour du traitement

Le principe de transparence se rapproche de la notion de contrôle humain sur les traitements (principe 1 du Livre Blanc “Facteur humain et contrôle humain sur les traitements”) mais concerne cette fois-ci les parties prenantes non directement liées à la création du modèle que sont les opérateurs du modèle, ses utilisateurs et le cadre législatif qui l’entoure. Comme vu précédemment, le modèle doit être explicable et aussi transparent que possible dès sa conception et au-delà, c’est-à-dire tout au long de son cycle de vie. Un modèle peut exposer ses utilisateurs à des biais potentiels et à des risques éthiques si l’opacité du modèle empêche le créateur mais aussi le législateur ou tout autre mécanisme de contrôle de détecter puis prouver un manquement au respect des droits fondamentaux. Selon la Commission Européenne, ce type de manquement peut alors entraîner une sanction pour le responsable ainsi qu’une indemnisation pour les parties ayant subi le préjudice. Afin de garantir ce principe de transparence, des solutions techniques d’intelligibilité doivent être mises en place systématiquement tout comme doit se poursuivre la réflexion autour de l’intelligibilité des modèles de manière générale. De même, une documentation claire sur les hypothèses émises au moment de la conception d’un modèle doit être accessible pour permettre l’audit d’un modèle à tout moment. C’est en passant par ce type de mesures de transparence et de documentation que nous pourrons atteindre l’excellence en matière d’éthique vis-à-vis de l’IA.

 

Principe 5 : Diversité, non-discrimination et équité

L’intelligence artificielle se base sur des données d’apprentissage pour la plupart représentatives de la société dans laquelle nous vivons et comportant différents biais de genre, race, politique, religieux, économique, culturel, etc. Par exemple, et comme le rappelle la Commission, “certains algorithmes d’IA peuvent, lorsqu’ils sont utilisés pour prédire la récidive d’actes délictueux, présenter des biais de nature sexiste et raciale et fournissent des prédictions de la probabilité de récidive différentes selon qu’il s’agit de femmes ou d’hommes ou de ressortissants nationaux ou d’étrangers” (1). Il est donc primordial d’enrichir le périmètre du RGPD de ce principe de diversité, non-discrimination et équité pour garantir l’objectivité de l’IA (voir les travaux de Jean-Michel Loubes sur la mesure et l’atténuation des biais éthiques en machine learning) et tendre vers une adéquation entre des principes éthiques universels et les recommendations des produits issus d’une intelligence artificielle.

 

Principe 6 : Bien-être sociétal et environnemental

Selon la Commission, ce principe – que les entreprises françaises volontaires ont progressivement intégré via leurs politiques RSE – doit également être promu dès la conception d’un produit IA. Pour illustrer ce principe, citons par exemple l’élan collectif et international ayant émergé pour une IA à vocation sociétale et environnementale face à la crise du COVID-19. Une multitude de projets IA ont ainsi vu le jour sur la base d’open data pour permettre, par exemple, de tracer les flux de contamination liés au virus. Par ailleurs, nous nous posions la question suivante en avril 2020 : “Le COVID-19 fera-t-il bouger les lignes sur l’exploitation des données personnelles ?”. Si la Commission érigeait en février 2020 au statut de principe le bien-être sociétal et environnemental, il est certain que celui-ci se hissera à une place prépondérante dans le futur projet de loi sur l’IA d’excellence et de confiance suite à la crise que nous traversons. En promouvant ce principe, il est à espérer que l’essor des initiatives à caractère sociétal et/ou environnemental continuera de croître pour généraliser des initiatives citoyennes telle que codata ou existant avant la crise telles que les différentes initiatives developpées via Dataforgood (lien vers le site France).

 

Principe 7 : Responsabilité

Dans le cas d’un dysfonctionnement d’un produit IA comme la voiture autonome, il est difficile d’identifier la personne physique ou morale responsable en cas d’accident. En effet, comment identifier la part de responsabilité de chaque partie prenante dans la défaillance d’un tel système (constructeur du véhicule, entreprise responsable de son entretien, data scientists à l’origine du modèle, etc.) ? Selon la Commission, pour “un système fondé sur l’IA tel que la voiture autonome, il peut être difficile de prouver la défectuosité du produit, le dommage survenu et le lien de cause à effet entre les deux”. C’est pourquoi il est nécessaire de poser les bases claires d’une identification de la personne responsable au préalable de la mise sur le marché. Le projet de loi devrait permettre d’éclaircir ce principe de responsabilité en donnant une définition précise des caractéristiques permettant d’identifier une “personne responsable” dans le cadre d’un produit issu d’une IA. Une plus grande transparence ainsi qu’une documentation exhaustive sur le modèle semblent néanmoins être des premiers éléments de réponse d’ici au dépôt prochain du projet de loi. 

  

Pour conclure ce premier article introductif – le premier d’une série dédiée à l’IA d’excellence et de confiance – le cadre réglementaire au niveau européen, tel que le prévoit la Commission Européenne pour 2021, pourrait favoriser l’essor de l’IA en Europe tout en contribuant à accroître le degré de confiance des différents acteurs y prenant part (entreprises, collectivités, consommateur, etc.). La question reste aujourd’hui double : comment l’UE traduira t’elle ces principes en règles claires afin de compléter le RGPD ? D’autre part, comment – pour les acteurs de l’IA –  concilier innovation et éthique via la création ou le renforcement de processus de contrôle et d’alertes pour assurer l’IA de confiance dont nous avons besoin ?

Références :

(1) Tolan S., Miron M., Gomez E. and Castillo C., Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia », Best Paper Award, International Conference on AI and Law, 2019

 


 

Vous souhaitez en savoir plus sur les enjeux de l’IA d’excellence et de confiance ? Bonne no