Intelligence artificielle de confiance


Une intelligence artificielle de confiance est une IA qui doit répondre à 7 exigences définies par la Commission européenne afin de préserver les droits fondamentaux.

Action humaine et contrôle humain sur le traitement

Les utilisateurs doivent être en mesure de comprendre les systèmes d’IA afin de prendre des décisions autonomes éclairées. Ceci permet d’éviter qu’un système d’IA ne mette en péril l’autonomie humaine.

Robustesse technique et sécurité du traitement

La robustesse technique implique que les systèmes d’IA fonctionnent correctement avec toute une gamme de données d’entrée et dans des situations différentes en donnant des résultats reproductibles et fiables. De même, il est primordial que les modèles d’IA donnent des résultats précis, plus particulièrement dans les situations où le système d’IA impacte directement des vies humaines. Les algorithmes doivent aussi être résilients face aux attaques afin de faire face à de potentielles attaques, d’où la nécessité de comporter des garanties permettant le déclenchement de plans de secours en cas de problème.

Respect de la vie privée et gouvernance des données

Les systèmes d’IA doivent garantir le respect de la vie privée et la protection des données. L’accès aux données au sein des entreprises pour mettre en place des systèmes IA doit être contrôlé par le biais d’un protocole de sécurité. De plus, la qualité et l’intégrité des données utilisées pour entraîner les modèles algorithmiques doivent être assurées.

Transparence autour du traitement

L’ensemble des processus mis en place pour le bon fonctionnement de l’IA doit être documenté afin de permettre la traçabilité de toutes les étapes. En outre, toute décision prise par l’IA doit être comprise et retracée par les êtres humains afin qu’ils puissent l’expliquer et communiquer les résultats par la suite.

Diversité, non-discrimination et équité

En collectant la donnée, il faut s’assurer dans la mesure du possible que les jeux de données collectés ne présentent pas des biais discriminatoires. L’objectif étant d’éviter tout préjudice pouvant nuire à certains groupes de personnes. Il est aussi souhaitable de consulter les parties prenantes sur lesquelles le système est susceptible d’avoir des effets directs ou indirects tout au long de son cycle de vie. Ces systèmes de IA devront être conçus de manière à permettre à toute personne de l’utiliser, quels que soient son âge, son sexe, ses capacités et ses caractéristiques.

Impact environnemental et sociétal

Une IA de confiance est une IA durable et respectueuse de l’environnement qui doit minimiser sa consommation de ressources et d’énergie. De plus, sur le plan sociétal, une évaluation doit être faite à chaque étape de son cycle de vie pour s’assurer qu’elle n’a pas d’incidence négative sur la société.

Responsabilités associées au traitement

L’exigence de la responsabilité requiert la mise en place de mécanismes permettant de garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats. Les algorithmes doivent pouvoir être audités et cette évaluation contribue à la fiabilité de la technologie. Par ailleurs, une voie de recours est possible pour toutes les incidences négatives garantissant la confiance en la technologie.