Les Quant Stories

Pour une IA transformative

Quantmetry est un pure player, pionnier de l’IA en France. Le cabinet de conseil est multi-expertise et multi-sectoriels. À ce titre, il dispose d’un track record de plus de 350 missions menées auprès des plus grandes entreprises françaises et internationales. Grâce à cette expérience unique, qui place Quantmetry parmi les experts les plus avancés dans le domaine, le cabinet de conseil a su identifier des problématiques qui peuvent se poser à n’importe quelle entreprise, quel que soit son secteur. Nous les appelons les Quant Stories. En voilà quelques-unes.

Fluidifier les flux de transports dans la ville

Implémenter une gouvernance de la donnée

Définir une roadmap de 24 mois de cas d’usage data

Optimiser le réassortiment en magasin

Uniformiser la qualité de la maintenance

Optimiser le rendement d’une ligne de production

Up-skiller & Re-skiller des équipes data

Détecter une contamination par l’analyse visuelle

Détecter les fraudes à la carte bancaire

Optimiser les opérations grace à l’information d’usage

Améliorer sa connaissance clients

Étude de données en vie réelle

Améliorer la performance d’un back-office

Fluidifier les flux de transports dans la ville

OBJECTIF

La crise du Covid-19 modifie les comportements des usagers et met au défi les opérateurs de transports et des villes pour adapter leur offre et leurs infrastructures. Ces acteurs doivent être en capacité de reconfigurer rapidement le réseau de transport en analysant leurs données existantes puis en modélisant les déplacements pour simuler et tester un nouveau réseau.

SOLUTION

Quantmetry a conçu un logiciel d’optimisation et de visualisation de l’offre de services. Ce projet lui a permis de valoriser son patrimoine de données, d’adapter son offre de services et de se distinguer dans les réponses aux appels d’offres pour opérer dans de nouvelles villes. La modélisation des déplacements des usagers sur le réseau par des méthodes probabilistes et comportementales et la simulation de scénarios (fermeture d’une station, grève, offres alternatives, etc.) permettent d’optimiser les flux de chaque réseau et l’adéquation offre-demande. Pour les opérateurs de transports, cela permet d’éviter les surcharges pendant les heures de pointes, de réduire les coûts d’exploitation en heures creuses et de simuler la sensibilité à une perturbation : baisse des surcharges et réduction des coûts d’exploitation. Pour les voyageurs, cela veut dire une réduction du temps de trajet travail-domicile et un plus grand confort.

De la modélisation algorithmique au développement logiciel en passant par la définition de l’architecture cible, notre savoir-faire dans la conception et le développement de logiciel embarquant de l’IA a permis la création de cette ressource en huit mois.

#TimesSeries #forecast #AIproduct

SECTEUR CONCERNÉ

Transport

RÉSULTAT

8 mois
de développement 

14 villes
dans lesquelles la solution a été déployée 

1 filiale
créée 

Définir et implémenter une politique de gouvernance de la donnée

OBJECTIF

La mauvaise qualité et accessibilité du patrimoine de données de notre client – leader mondial de la distribution d’articles de sport retail – constituait un frein majeur au lancement de nouveaux projets data. L’objectif a été de définir et d’implémenter une politique de gouvernance de la donnée permettant d’améliorer sensiblement la qualité et l’accessibilité des données et ainsi de réduire le temps de lancement de nouveaux cas d’usage.

SOLUTION

Après une phase d’audit permettant d’identifier avec précision les problèmes à résoudre, l’équipe Quantmetry a défini une politique globale de gouvernance de la donnée en s’appuyant sur quatre piliers : rôles et responsabilités ; processus ; standards et normes ; outils pour définir les critères de qualité d’une donnée et de sa conformité.

La rapide mise en place  de cette politique sur un premier cas d’usage a permis d’optimiser et de valider la démarche concrètement. Pour pérenniser les travaux, nous avons ensuite formé l’ensemble des data owners et data stewards amenés à jouer un rôle clé dans le déploiement massif de la gouvernance de la donnée.

#AIstrategy #DataGouvernance

SECTEURS CONCERNÉS

Distribution
Industrie
Assurance
Retail

RÉSULTAT

20%
de réduction du temps de lancement des cas d’usage data

20
data owners acculturés et formés

Définir une roadmap de cas d’usage data orientée ROI et permettant une implémentation concrète

OBJECTIF

Le Chief Data Officer d’un leader de l’assurance souhaite définir une roadmap de cas d’usage sur deux ans qui, contrairement aux années passées, soit réellement implémentable techniquement, avec des estimations de coûts et de retours sur investissement.

SOLUTION

Après avoir sélectionné quatre directions métiers avec notre client, nous avons déployé une méthodologie innovante pour l’idéation, la priorisation et la sélection des cas d’usage créateurs de valeur. La prise en compte des enjeux métier, data et IT, ainsi que l’impact des cas d’usage sur l’organisation en place, ont été réalisées à travers l’animation de plusieurs ateliers :

  • Utilisation d’outils innovants pour construire une macro-cartographie de la donnée de chaque direction,
  • association d’approches top-down et bottom-up en phase de sourcing pour stimuler l’idéation de cas d’usage,
  • cadrage de l’ensemble des éléments clés pour sécuriser la faisabilité des cas d’usage selon trois axes d’analyse,
  • mobilisation et animation de l’ensemble des parties prenantes d’un cas d’usage data : métier, data et IT,
  • calcul du ROI des cas d’usage permettant de les prioriser.

L’embarquement des équipes métier, data et IT, ainsi que des sponsors clés tout au long de la mission a été un facteur clé de la réussite du projet.

#AIstrategy #roadmapdata

SECTEURS CONCERNÉS

Défense
Industrie
Services

RÉSULTAT

3 mois
de projet pour présenter au COMEX une roadmap chiffrée avec un engagement budgétaire et un ROI associé

20
cas d’usage retenus (1/4) selon une matrice faisabilité et ROI potentiel

Prise en compte des impacts en matière d’organisation et de capacité à faire des équipes data et IT de l’assureur 

Améliorer les prévisions de ventes pour optimiser le réassortiment en magasin

OBJECTIF

Notre client, leader mondial du luxe et du retail, a sollicité notre expertise afin de prévoir les ventes en magasin à la maille articles/points de vente (1 à 12 semaines à l’avance) afin de diminuer les phénomènes de ruptures de stocks et sur-stockages.

SOLUTION

La solution a été apportée au travers d’une approche de data science à l’état de l’art de bout en bout : de la définition des règles et KPI métiers à la recherche d’algorithmes, jusqu’à l’intégration complète dans le système d’informations du client grâce à nos méthodologies ML Ops et Data Ops, tout en accompagnant les métiers dans le changement de leur process. Notre solution permet une prévision plus fine des ventes et une optimisation des réassorts magasins depuis l’entrepôt central, en modélisant le réseau logistique et ses contraintes afin d’optimiser les coûts d’opération et le taux de service en magasin, avec notamment une meilleure anticipation de la hausse de la demande durant les fêtes.

#timesseries #forecast #supplychain

SECTEURS CONCERNÉS

Retail
Luxe

RÉSULTAT

20
points d’amélioration
des prévisions 

– 1 semaine
de couvertures de stock

95%
de
volume des ventes couvertes par nos prévisions et recommandations pour le réassort

Uniformiser la qualité des interventions de maintenance sur des équipements

OBJECTIF

Quantmetry a été sollicité par EDF, leader mondial de l’énergie, pour implémenter une plateforme AWS de collecte des données de fonctionnement de l’ensemble de ses parcs d’énergies renouvelables (plus de 10 000 installations solaires, éoliens et stockages).

SOLUTION

Une plateforme serverless Kappa à l’état de l’art pour collecter, normaliser et optimiser les différentes données afin de garantir leur bonne exploitation par les data analysts et data scientists de EDF a été mise en place. Le métier peut ainsi développer des cas d’usage de suivi de la production et de la maintenance prévisionnelle en temps réel. Nous accompagnons les équipes projets depuis plus de deux ans sur les évolutions de l’architecture, avec l’intégration des nouveaux dashboards et cas d’usage développés pour les opérateurs afin de permettre une optimisation de la production et de la gestion des différents assets.

#architecturecloud #IOT #Opérations #maintenance

SECTEUR CONCERNÉ

Énergie

RÉSULTAT

>200To
données stockées en quasi-temps réel

15
use cases mis en production

100 KPI
uniformisés à l’échelle mondiale

Optimiser le rendement d’une ligne de production

OBJECTIF

Dans la continuité de sa stratégie « Industrie 4.0 » et d’efficience opérationnelle, notre client, leader de l’industrie agroalimentaire, nous a mandatés pour le développement et la mise en œuvre d’un outil de recommandation de paramètres de production pour les opérateurs de l’un de ses ateliers de transformation.

SOLUTION

Grâce à une analyse fine du processus métier considéré et des données historiques collectées, nous avons développé un modèle permettant d’identifier la meilleure référence passée pour recommander les bonnes combinaisons de paramètres aux opérateurs toutes les 15 minutes sur un batch en cours. À la suite de la modélisation, et afin de présenter les recommandations de manière ergonomique aux opérateurs, nous avons développé une application web React sous Azure embarquant le modèle de recommandation en back-end qui est aujourd’hui alimenté en continu par les données de capteurs et de prélèvement en laboratoire.

Cette application de recommandation a permis une harmonisation des pratiques de pilotage du cycle de production pour les différentes équipes d’opérateurs et de techniciens en 3×8, 7/7J, et donc une réduction de la variabilité du rendement et de la productivité.

#timeseries #optimisationsouscontraintes #industrialisation #manufacturingquality

SECTEUR CONCERNÉ

Agroalimentaire

RÉSULTAT

6 mois
de projet, du cadrage au déploiement sur le cloud de l’outil en passant par la conception, la modélisation, l’implémentation et l’assistance post-démarrage

> 500 K€
de gain attendu par point de rendement supplémentaire

+7 à 8 pts
d’augmentation du rendement sur les cycles de production observés

Up-skiller & Re-skiller des équipes data

OBJECTIF

À l’instar des grands acteurs du Web qui ont vulgarisé l’usage des business analytics et de la data science, notre client a souhaité, dès 2017, diffuser une culture forte de la donnée auprès de ses décideurs, dans les fonctions métiers et IT. Cela, afin de leur transmettre la compréhension des résultats que l’on peut obtenir, les limitations, les méthodes et les démarches des business analytics, de la data science et de la data visualisation.

SOLUTION

Upskilling des équipes data, IT et de gestion de projets, des profils juniors à seniors, d’un groupe d’assurance de premier plan avec un programme de formation data science complet : introduction à la data, gestion de projet, programmation en Python et R, programmation en machine learning.

#orga #gouvernancerh

SECTEUR CONCERNÉ

Assurance

RÉSULTAT

25
formations données

+200
personnes formées

3 ans
de collaboration

Détecter une contamination de matière première par analyse visuelle

OBJECTIF

Notre client, leader de l’industrie agroalimentaire, souhaite équiper son réseau de négociants d’une solution de reconnaissance optique intégrée aux appareils mobiles pour contrôler la qualité des matières végétales, notamment pour identifier d’éventuelles contaminations par des champignons avant l’arrivée en usine. Cette même solution est également utilisée par l’équipe qualité de l’usine pour un contrôle croisé.

SOLUTION

Après étude du besoin métier, le premier travail a été de définir le protocole de capture d’image et de labellisation. Nous avons ensuite procédé à l’étude comparative et à la recommandation du modèle de classification le plus adapté pour permettre d’identifier et de classer en trois catégories les contaminations observées, et ce, à partir d’un échantillon de 10 000 images labellisées.
Le prototype d’application en Web responsive a été développé avec une architecture Azure/Flask/Python et testé en laboratoire avec de multiples mobiles de fabricants différents. La faisabilité ayant été démontrée avec des résultats prometteurs, notre client souhaite industrialiser l’application pour pouvoir la tester en conditions réelles.

#computervision #IAembarqué #applicationmobile #manufacturing #quality

SECTEUR CONCERNÉ

Agroalimentaire

RÉSULTAT

3 mois
de durée du projet

>80%
des champignons détectés
(précision entre 76 et 92%, recall entre 53 et 100% sur les 3 classes testées en laboratoire)

Industrialisation de l’application mobile en cours

Compléter les mécanismes de détection de fraude à la carte bancaire

OBJECTIF

La fraude à la carte bancaire est un enjeu majeur pour les banques. Améliorer un système de détection en temps réel est un levier significatif pour réduire les coûts qui en résultent. Notre client, un leader bancaire européen, souhaitait identifier plus rapidement et plus efficacement les fraudes sur paiement par carte bancaire.

SOLUTION

Nous avons mis en place un outil traitant plusieurs centaines de milliers de transactions par jour qui identifie les fraudes par carte de manière plus certaine et parfois plus précoce. Nous avons également accompagné la mise en place de ce nouveau processus auprès des différentes équipes concernées. Les opérateurs chargés de l’investigation des cas litigieux sont ainsi sollicités de manière plus appropriée en évitant de perdre du temps sur des « faux cas de fraude » et en concentrant leurs efforts sur les cas plus réels.

Au-delà de l’amélioration de la relation client, ce nouveau process plus précis permet de limiter les compensations versées par la banque aux victimes de fraude.

#fraudeBancaire #intelligibilité

SECTEUR CONCERNÉ

Banque

RÉSULTAT

20%
d’investigations fructueuses sur présomption de fraude

1 outil
open source d’intelligibilité

Utiliser l’information d’usage de produits connectés pour optimiser les opérations

OBJECTIF

Notre client, leader de l’industrie automobile, souhaite optimiser la maintenance d’un service d’auto-partage mondial grâce à l’utilisation d’un volume important de données différentes émises dans les trames des véhicules connectés du parc roulant (vitesse).

SOLUTION

Conception et réalisation d’une solution permettant une analyse intuitive par les équipes de surveillance : identification des signaux faibles concernant la qualité, tableaux de bord sur les alertes par type de véhicule, profilage de signaux faibles par pièces et par véhicules. La solution repose sur la construction d’un pipeline de traitement de la donnée dans une « tour de contrôle de qualité » pour la stocker, préparer et identifier des signaux faibles quant à la qualité. Notre client a ainsi pu mettre en place un ciblage précis des campagnes de rappel.

#geostatistique #bigdata #maintenance

SECTEUR CONCERNÉ

Auto-partage

RÉSULTAT

-2M
sur les coûts de la campagne de rappel

Identification de signaux faibles pour identifier au plus tôt une crise qualité pour agir au plus tôt sur la production de véhicules sains et le rappel de véhicules défaillants. 

Améliorer sa connaissance clients

OBJECTIF

Dans un souci d’amélioration de la relation avec ses assurés, notre client, leader européen de l’assurance, nous a demandé d’anticiper et de détecter les insatisfactions clients pour optimiser ses campagnes digitales et limiter le churn.

SOLUTION

Quantmetry a développé un outil de détection des insatisfactions et de prédiction de churn visant à identifier les clients susceptibles de changer de compagnie d’assurance et les raisons de leur insatisfaction.

Les résultats sont exploités par toutes les parties prenantes de la relation clients de la compagnie. Les équipes marketing utilisent ces informations dans leur outil pour mieux cibler leur campagne quant au contenu et les destinataires, évitant ainsi une pression digitale commerciale trop élevée. Les centres clients exploitent également ces résultats dans leurs campagnes sortantes avec des solutions personnalisées et des arguments de réassurance plus précis.

#MachineLearning #RelationClientDigitale #Pressioncommerciale #Antichurn

SECTEUR CONCERNÉ

Assurance

RÉSULTAT

x5
performance de campagne

2 ans
depuis que l’outil est “live” et monitoré

100 000
assurés screenés tous les mois

Étude de données en vie réelle

OBJECTIF

Réussir à identifier les sous-populations de patients répondant le mieux à une approche thérapeutique en oncologie.

SOLUTION

Analyse des données en vie réelle de plusieurs milliers de patients en oncologie en partenariat avec plusieurs hôpitaux et un grand laboratoire pharmaceutique.

Analyse de données structurées et non structurées, sur une plateforme mise à disposition par Quantmetry, grâce à nos algorithmes de pré-traitement développés en R&D.

Accompagnement sur le volet juridique et réglementaire pour la mise en place des conventions entre les différentes parties permettant de travailler sur des données en vie réelle.

#NLP #AI

SECTEUR CONCERNÉ

Santé

RÉSULTAT

>10.000
patients en oncologie analysés

4 ans
de R&D

8
publications scientifiques

Améliorer la performance d’un back-office

OBJECTIF

La mutuelle MAIF reçoit chaque jour 15 000 e-mails de la part de ses sociétaires. Elle souhaitait mettre en place une solution afin d’orienter et de traiter efficacement ce flot de messages pour y apporter une réponse rapide et de qualité.

SOLUTION

Conception et déploiement de bout en bout d’une solution de pré-traitement des e-mails depuis la définition du cas d’usage jusqu’à la mise au point du prototype et à l’industrialisation en open source du package Melusine. Classification automatique, détections d’intentions et d’entités, analyse de sentiments, analyse des pièces jointes et construction de réponses automatiques : le déploiement de la solution a permis de réduire le coût et le délai de traitement des e-mails ainsi que d’améliorer la satisfaction des collaborateurs MAIF en charge de la relation clients.

#NLP #Marketing #RelationClient

SECTEUR CONCERNÉ

Assurance

RÉSULTAT

+3,5 jours
gain sur le délai de réponse des mails analysés par Melusine

30%
la réduction des re-routages entre entités

45%
des descriptions surchargées contenaient la globalité du mail > moins de consultations GED

84%
des prédictions prises en compte (score confiance > seuil)