IA de Confiance, du concept à l’action !

L’intelligence artificielle (IA) est à un moment charnière de son déploiement mais elle présente des risques de différentes natures qui sont autant de freins à son développement. La future législation européenne devra être un appui pour garantir une IA plus transparente et moins biaisée, et donc permettre sa montée en puissance.

A l’état de l’art des technologies d’IA, nous avons à coeur de développer une IA de confiance et nous sommes convaincus que l’acculturation et la formation seront des étapes nécessaires à son développement, raison pour laquelle nous avons publié un livre blanc sur ce sujet.

En janvier 2022, Quantmetry a rejoint le collectif français Confiance.ai lancé par l’Etat dans le cadre du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle », auprès d’une quarantaine de partenaires industriels et académiques, pour concevoir et industrialiser des systèmes à base d’IA de confiance. Une manière d’accélérer encore sur ce sujet, en déployant de nouvelles méthodes et des outils capables de mesurer l’incertitude liée à l’IA, de manière systématique et transparente, dans la lignée de notre librairie d’open source MAPIE.

Début 2023, Quantmetry a reçu le label « IA responsable et de confiance » par Labelia Labs (ex Substra Foundation) pour son engagement sur l’IA éthique et responsable, avec une mention « avancé » correspondant à un niveau de maturité très élevé.

2021

Les entreprises trouveront un avantage à s’engager dès à présent dans la mise en œuvre d’une IA de confiance, s’inscrivant ainsi dans les exigences futures. Ce livre blanc expose ces enjeux et présente des orientations afin de concevoir et déployer une IA de confiance valorisée.

La réglementation en faveur d’une IA de confiance sera le vecteur
d’une IA mieux adoptée, mieux valorisée et mieux maîtrisée

1.

Adoptée par le citoyen comme une transformation durable de notre société.

2.

Maîtrisée grâce à des exigences renforcées de robustesses et de transparence.

3.

Valorisée par un usage éclairé des algorithmes pour résoudre des enjeux opérationnels

Une IA de confiance est avant tout une IA responsable, au double sens de responsibility et accountability. Sa réalisation exigera donc, au-delà de simplement « cocher la case » dans une liste de principes à respecter, la mise en place d’un ensemble de bonnes pratiques de conception et de contrôle de l’IA (incluant les piliers que sont l’explicabilité et l’équité algorithmique, afin comme l’explique ce livre blanc « d’établir puis entretenir la confiance ») et une culture organisationnelle ayant assimilé ces sujets.

Laurent Dupont, ACPR
(Autorité de contrôle prudentiel et de résolution)

Les médias en parlent !

Pour en découvrir plus sur l’IA de confiance

Intelligence Artificielle de confiance – Comprendre les enjeux de la prochaine décennie

Depuis 2012, le marché de l’intelligence artificielle est en croissance exponentielle, et s’accompagne chaque jour de scandales éthiques. En réponse à cette recrudescence des risques, l’Union Européenne a proposé un règlement visant à réguler les IAs au sens large.

En intelligence artificielle, performance rime avec confiance

La performance en Intelligence artificielle n’est pas uniquement une métrique technique. Il faut également valider une performance métier, en contrôler le processus d’évaluation et également comparer les performances de l’algorithmes avec des modèles beaucoup plus simples.

La Robustesse, un impératif pour une intelligence artificielle de confiance

La robustesse est un facteur clé pour une Intelligence Artificielle de confiance. Comment la définir et la mettre en oeuvre ?