Qu’est-ce que l’IA “en pratique” ? – La réponse de Stéphane Tanguy (EDF R&D)

Qu’est-ce que l’IA “en pratique” ? – La réponse de Stéphane Tanguy (EDF R&D)

Notre second interviewé est Stéphane Tanguy, CIO et CTO d’EDF R&D. Nous la remercions pour le temps qu’il nous a accordé.
Q : Cher Stéphane, l’IA au sens large est devenu un acteur socio-économique incontournable. Pouvez-vous nous donner votre définition opérationnelle de l’IA ?

R : Alan Turing avait, au départ, défini ce concept comme une machine capable de tromper sur sa nature, c’est-à-dire  de tromper un humain sur le fait qu’elle soit une machine. Cette définition a prévalu pendant un certain temps, puis elle a évolué, à mesure de la capacité des IAs de surpasser les humains sur certaines tâches très précises… En réalité, il n’y a pas de définition consensuelle de ce qu’est l’intelligence artificielle ; dans le groupe EDF nous considérons que les techniques de l’IA visent à rendre les systèmes de plus en plus autonomes. Parmi les différentes techniques d’Intelligence Artificielle on peut dissocier la Data science qui vise à produire des connaissances à partir de données (machine learning et autres algorithmes) et qui est à l’origine du retour en grâce de l’IA depuis 2010, et l’IA symbolique qui vise à produire des connaissances à partir de raisonnement logique (web sémantique, système multi agents..). Pour faciliter la travail entre les différents acteurs de l’IA au sein du groupe (expert R&D, métier de la production, métiers de la commercialisation), nous distinguons les briques de base (algorithmes de machine learning, ingénierie des connaissances..), des applications élémentaires (traitement automatique du langage, reconnaissance de formes, d’images..) et des applications intégrées (assistants virtuels, maintenance prédictive etc.).

Q : Quels sont les grands cas d’usage de l’IA à EDF ?

R : La surveillance en temps réel et la maintenance prévisionnelle concernent la totalité de nos ingénieries de production. Dans le domaine de la relation client, nous utilisons de plus en plus les notions de conseiller augmenté, de client augmenté, de marketing prédictif ou encore de traitement automatisé de back office. N’oublions pas les domaines “support”, au sein desquels nous développons des applications de l’IA pour la cybersécurité, de gestion des data center, le pilotage de l’efficacité énergétique, sans oublier les chatbots liés à des usages internes comme les questions juridiques, des questions autour de nos expérimentations, par exemple sur la mise à jour de mots de passe utilisateur, qui sont des opérations relativement simples mais qui occupent beaucoup les hotlines et ont peu de valeur ajoutée. Le management de l’énergie, par ailleurs, constitue une autre grande classe de cas d’usage ; il s’agit de mettre en place une économie de consommation intelligente, de piloter des smart home, faire du smart building et du smart factory. Le processus d’automatisation va finalement concerner tous les métiers du groupe.

Q : 9 millions de vos clients sont maintenant équipés de compteurs Linky qui traitent leurs données en temps réel, ce qui demande un certain niveau d’acculturation. En interne, sera-t-il simple de faire accepter à vos propres salariés ce type d’outils ou de chatbots fluidifiant les questions posées aux RH, par exemple ?

R : Pas forcément. Les notions d’impact RH, d’acceptabilité et d’éthique doivent être prises en compte lorsqu’on conçoit une solution d’automatisation de processus. Il faut que l’on soit transparents par rapport à la manière dont sont traitées ces données ou encore au fonctionnement de l’algorithme. La question de l’acculturation est essentielle pour que ces assistants soient acceptés à tous les niveaux de l’entreprise.

Q : La notion d’intelligibilité de l’IA est-elle, opérationnellement parlant, importante pour EDF ?

R : Absolument. Pour certains cas d’usage qui sont soumis à l’autorité de régulation, nous sommes obligés de disposer de modèles que nous sommes capables d’expliquer, ce qui sous-entend que le périmètre d’usage opérationnel de l’apprentissage automatique et des “boîtes noires” ne peut être massivement généralisé. Toutefois, prenons par exemple le cas des assistants virtuels dédiés à la relation client ; nous nous satisfaisons très bien d’un bot capable d’aider les clients, de comprendre ce qu’ils disent,. Cela reste limité, car nous souhaitons avant tout que les outils d’IA soient efficaces, au service des agents ou des clients, et non l’inverse. Les agents et les clients doivent pouvoir contrôler et piloter ces outils. Il faut que les algorithmes et les modes de fonctionnement soient de plus en plus transparents pour favoriser l’acceptabilité générale de ces outils.

Q : Pouvez-vous nous donner un exemple particulier d’intelligence artificielle et en quoi sa mise en place au sein de votre groupe nécessite une certaine transparence ?

R : Parlons alors du produit proposé par notre start-up Metroscope. Il s’agit d’un ensemble d’outils de diagnostic pour le système secondaire des centrales. Ces outils sont capables de diagnostiquer, grâce à une base historique d’aléas, les problèmes qui peuvent survenir sur un site – fuites ou pannes de pompe, par exemple. L’utilisation de ces données monitorées en temps réel repose sur une comparaison entre un aléa historique et la signature de l’état actuel, pour en déduire la probabilité que ce soit tel ou tel type de panne. Si on devait faire cela à la main, il faudrait faire une recherche manuelle dans une base d’aléas sans forcément en connaître tout le contexte. Ce serait un travail fastidieux et pénible. En étant capable d’expliquer comment Metroscope fonctionne, comment est réalisée l’estimation en perte du productible de façon à prioriser telle ou telle intervention, ce projet sera plus facilement accepté par ses futurs clients. Voici un exemple typique d’IA apprécié par les responsables de maintenance des usines.

 

Q : Du point de vue de l’emploi des IA, comment EDF se projette-t-elle dans cinq ans ? Quelle stratégie pour réaliser cet objectif en termes de recrutement et organisationnel ?

: Dans cinq ans, nous souhaitons utiliser pleinement les avancées des IAs issues de differentes techniques. Jusqu’ici, nous avons réalisé plusieurs POC qui ont démontré des gains de valeur significatifs grâce aux outils de la data science, et nous connaissons bien par ailleurs les IA symboliques. Par la démonstration de ces gains, et le test permanent de nouveaux cas d’usage, les différents métiers d’EDF sont de plus en plus prêt à adopter ces outils. A EDF R&D, il nous a semblé fondamental d’investir dans des choix de plateformes type datalake et de faire monter en compétences de nombreux profils de data scientist. Maintenant, les métiers du groupe commencent à adopter cette démarche, via des dispositifs d’innovation spécifiques, qui permettent de faire émerger les cas d’usage à plus forte valeur ajoutée pour l’ensemble du groupe. Dans cinq ans, nous aurons donc des IA en exploitation, issues de la R&D et de nos actions d’Open Innovation, utilisées au jour le jour par l’ensemble de nos agents. Des IA qui respectent certaines conditions d’acceptabilité, de respect d’un certain nombre de règles d’éthique ou encore de transparence.

Q : Votre mode de recrutement va-t-il évoluer ? Allez-vous devoir recruter des personnes opérationnelles plutôt que, comme à l’heure actuelle, des personnes qui font un peu de fondamental comme des ingénieurs informaticiens ou mathématiciens ?

: Aujourd’hui, nous nécessitons des data scientists pointus capables d’utiliser des algorithmes open source ou d’intégrer différents modèles d’algorithmes open source et de les adapter à nos propres données. Il y a aura demain sans doute de plus en plus de produits sur étagère, mais certains sujets sont et resteront d’importance stratégique, comme la prévision de production. Et nécessairement, nous désirons rester en permanence en capacité de maîtriser ces algorithmes et les données qui les nourrissent. Concernant d’autres sujets un peu moins stratégiques, on peut très bien utiliser un chatbot du marché parce qu’il est très bon dans telle ou telle fonction. La propriété intellectuelle de certaines données qui ont trait à ces produits sur étagère n’est pas toujours très claire. Par ailleurs, des produits sur étagère réalisant l’intégralité d’une chaîne de traitement, c’est plutôt rare. Il faut pouvoir intégrer des bouts d’algorithmes, de code, de logiciels. Ces compétences pointues resteront donc indispensables, que ce soit pour créer et maintenir nos propres outils – éviter la dérive de modèle par exemple – les valoriser à l’extérieur ou encore particulariser des solutions commerciales.

Notons qu’il n’y a pas de profil unique pour concevoir des IA ou des applications de data science ou de data analytics. Nous devons faire collaborer des spécialistes des algorithmes, des analystes qui comprennent le métier et la signification des données, perçoivent la façon dont elles peuvent être utilisées et dans quel contexte, mais aussi des personnes capables d’extraire les données intéressantes et de comprendre comment elles vont pouvoir être intégrées dans des SI de type legacy. Transformer des idées en POC d’usage pertinents, c’est faire travailler ensemble ces trois types de profils. Vous ne trouverez jamais quelqu’un qui possède à la fois l’expertise métier, la connaissance des bases de données métier, la connaissance des techniques les plus récentes d’apprentissage, sur lesquelles il y a trois articles scientifiques qui sortent tous les jours, et qui sait enfin comment aller concrètement réaliser l’extraction de ces données. Sans doute faudra-t-il attendre des IA de haut niveau pour masquer cette complexité.

✍Écrit par Nicolas Bousquet