IA de confiance, IA Strategy, Stratégie
25/08/2023

L’AI Act accélère le chantier de l'IA de confiance dans les entreprises


Auteurs : Clément BARRÉ, Bertrand BRAUNSCHWEIG, LoÏc BRIENT, Nicolas WATRIGANT
Temps de lecture : 4 minutes
Quantmetry.com : L’AI Act accélère le chantier de l'IA de confiance dans les entreprises

Alors que l’AI Act prend forme en Europe et que les IA génératives soulèvent de brûlantes questions éthiques, la confiance s’impose comme l’un des enjeux majeurs pour l’avenir de l’IA. Pour en parler, Clément Barré, Manager chez Quantmetry a réuni autour de la table Bertrand BraunschweigCoordonnateur scientifique du programme Confiance.aiLoïc Brient, Chief Data Scientist chez BPCE, et Nicolas Watrigant, Responsable IA de confiance chez Orange France.

Proposé par la Commission européenne en 2021, le règlement sur l’intelligence artificielle, baptisé AI Act, est aujourd’hui entré dans le processus législatif européen après sa validation de principe par le Conseil. En son état actuel, le texte a une très large portée puisqu’il s’appliquerait aux systèmes d’IA produits en Europe et hors d’Europe qui sont utilisés par les citoyens européens, et aux produits extra-européens qui ont des conséquences sur les citoyens européens sans qu’ils en soient directement utilisateurs. Pour autant, Bertrand Braunschweig réfute l’idée que ce texte puisse pénaliser les entreprises européennes, bien au contraire : « La volonté est que l’AI Act soit au service de l’industrie et de la croissance, donc il n’y a pas trop d’inquiétudes à avoir. L’Europe et la France sont convaincues que développer des exigences de confiance sera plutôt uavantage pour l’économie européenne, qui serait la première à déployer un tel dispositif, ce qui lui confèrerait un avantage compétitif sur des pays ou régions moins avancés. » À l’exemple de l’Union européenne, d’autres pays, comme le Canada, le Japon ou le Royaume-Uni, ont d’ailleurs engagé des réflexions sur une règlementation de l’IA. « Plus qu’une contrainte juridique, il faut voir dans l’AI Act quelque chose qui va permettre de mieux utiliser et s’approprier les applications d’IA », conclut-il.

Chez Orange, qui place l’IA au cœur de sa stratégie, la question de l’éthique et de la confiance est portée au plus haut niveau. « Le top management est absolument convaincu que l’IA de confiance est créatrice de valeur et que c’est donc un sujet d’une importance primordiale. Il en résulte une organisation très plate qui relie directement le Comex à l’équipe dédiée, elle-même au contact des data scientists. Dès que se posent de nouvelles questions, par exemple sur l’IA générative, cela permet d’aller très vite »détaille Nicolas Watrigant

Pour aider les équipes face à ces enjeux, un ensemble d’orientations et de recommandations a été établi par un groupe d’experts indépendants, de sorte qu’aujourd’hui, plus aucun projet d’IA n’est lancé au sein d’Orange sans qu’aient été traitées les dimensions responsables et éthiques. « On a de toute façon intérêt à le faire en amont car, sinon, la remédiation double pratiquement le coût du projet », note Nicolas Watrigant.

L’IA de confiance « by design », c’est aussi ce que vise le Groupe BPCE, dans la continuité des exigences auxquelles il est déjà soumis. « Dans le secteur bancaire, nous sommes habitués à nous conformer à de nombreuses réglementations. Ainsi, chez BPCE, la question de la data de confiance a précédé celle de l’IA de confiance avec, déjà, la mise en place d’un comité d’éthique et d’une gouvernance pour assurer la liaison entre les projets et la direction. Lorsque l’on connaîtra les standards de l’IA Act, nous nous attacherons à les prendre en compte dans notre Model Risk Management »explique Loïc Brient. D’ici là, BPCE prépare ses équipes : une formation de trois jours à l’IA de confiance, réalisée avec l’aide de Quantmetry, est dispensée aux data scientists du groupe et un programme d’acculturation pour l’ensemble des salariés a déjà été suivi par 10 % d’entre eux, soit 10 000 personnes.

Sur la question des standards, qui préciseront les contours de l’IA Act et les exigences concrètes auxquelles devront se soumettre les entreprises, Bertrand Braunschweig se veut là aussi rassurant. « Comme c’est un domaine qui évolue très vite, il n’est pas possible d’anticiper les innovations et donc d’établir une liste exhaustive des risques. Il s’agit plutôt de faire preuve de souplesse et de formuler des recommandations sur des points de vigilance », précise-t-il. Le texte différencie ainsi les IA en fonction de leur niveau de risque, avec des impératifs d’autant plus stricts que celui-ci sera élevé. Tout récemment, a aussi été introduit le cas particulier des « foundation models », c’est-à-dire des modèles génériques (comme ChatGPT), qui nécessitent une attention accrue en raison d’un impact démultiplié par d’innombrables applications potentielles. (…/…)

Loïc Brient pointe néanmoins le risque que les grands acteurs fassent davantage payer leurs foundation models s’ils sont soumis à trop de contraintes. Il s’interroge aussi sur l’homogénéité de la supervision de l’AI Act entre les différents pays européens, du moins dans les premiers temps, du fait de la marge d’interprétation que devrait laisser le texte. Enfin, selon lui, ce qui importe, ce n’est pas tant d’auditer les modèles d’IA que les produits qui les utilisent, afin de tenir compte des usages prévus et des garde-fous mis en place.

Tout en travaillant sur l’audit des modèles avec Quantmetry, Nicolas Watrigant estime lui aussi que la confiance dépend avant tout des usages. « C’est toute l’entreprise qui doit être certifiée pour sa capacité à mettre en œuvre l’IA de façon éthique et responsable », considère-t-il. Dans cette perspective, Orange a lancé avec d’autres grands groupes français l’initiative Positive AI, qui vise notamment à créer un label distinguant les IA responsables, à favoriser la diffusion de bonnes pratiques et à développer une large communauté interentreprises. Les débats n’y font que commencer car, en dépit du futur cadre réglementaire de l’AI Act, l’IA de confiance va rester un terrain mouvant, soumis aux incessantes évolutions sociétales et technologiques. « Avec l’identification de nouveaux biais, les changements réglementaires, la dérive des algorithmes, l’IA de confiance demeurera un chantier permanent », conclut Loïc Brient.


Clément BARRÉ
Clément BARRÉ

Manager & Head of AI for Marketing chez Quantmetry

Bertrand BRAUNSCHWEIG
Bertrand BRAUNSCHWEIG

Coordonnateur scientifique du programme Confiance.ai

LoÏc BRIENT
LoÏc BRIENT

Chief Data Scientist chez BPCE

Nicolas WATRIGANT
Nicolas WATRIGANT

Responsable IA de confiance chez Orange France

Aller en haut