Découvrez les offres de stages de Quantmetry !

Qui sommes-nous ?

 

Nous pourrions commencer en nous présentant comme l’un des leaders sur le marché international du conseil en data, avec un chiffre d’affaires défiant ceux des G.A.F.A. Mais non. Nous préférons mettre en avant notre cadre de travail, nos réussites et surtout nos consultants. Allez venez, c’est par là…

Quantmetry c’est une centaine de personnes qui travaille de concert pour accompagner nos clients dans leurs réflexions, P.O.C., industrialisation autour de la Data, l’Intelligence Artificielle, le Machine Learning et la Big Data. Nous sommes ce qu’on peut appeler communément un cabinet de conseil pure player en Data.

N’étant pas sectorisés, nous intervenons sur différents sujets (voici une petite liste non-exhaustive) :

– La maintenance prédictive,

– La segmentation clients, le scoring,

– La détection de fraude, de corruption, de blanchiment d’argent,

– Le développement des architectures de plateformes Data,

– L’analyse de textes et d’images dans le cadre de la lutte contre le cancer du sein.

Dans le cadre de notre incessante croissance, nous recherchons des personnes motivées pour nous accompagner et ainsi travailler sur des projets de recherche.

 

Préalable

 

Quantmetry propose ci-dessous le volet R&D d’une offre de stage. Tout stagiaire entrant chez Quantmetry, outre le travail de R&D qui lui est proposé et pour lequel il sera encadré, aura aussi pour objectif de participer à certaines missions de conseil chez des clients variés, lui permettant d’aborder le monde du consulting.

Les offres

Sujets de stages pour les Data Scientists
(H/F)
Aucune offre de Stage Data Scientist n’est actuellement disponible
Sujet de stage pour les Data Engineers
(H/F)

Développeur logiciel - Démonstrateur AI Product

Contexte 

Au sein de la Direction des Expertises de Quantmetry, l’expertise AI Product a pour objectif de construire des solutions logicielles s’appuyant sur l’intelligence artificielle. Elle intègre l’ensemble des compétences nécessaires au pilotage et au développement de ces solutions (Data Product Owner, Solution architecte, Data Engineer, développeur back et front, Machine Learning Engineer). 

 

Au sein de sa feuille de route R&D 2020, l’expertise AI Product souhaite développer plusieurs démonstrateurs en collaboration avec les expertises scientifiques de Quantmetry (Time Series, NLP, Computer Vision, Advanced AI). 

Encadré par des consultants experts du sujet, AI Product cherche un stagiaire pour participer à la conception de démonstrateur produit embarquant de l’IA. 

Les missions sont les suivantes : 

  • Prendre connaissance de l’existant Quantmetry sur ce thème (méthodologie, outils et compétences) et de la littérature [2]
  • Développement d’application web ou mobile 
  • Développement d’API
  • Développement de pipeline data 

 

Programme du stage :

Encadrer par un de nos experts AI Product vous participerez activement aux phases de:

  • Conception
  • Implémentation de la solution en Python et/ou React Native
  • Établissement des protocoles de tests
  • Tests de l’application
  • Debugging
  • Rédaction de la documentation 

Compétences requises :

  • Python, React Native (à minima connaissance en javascript)
  • Développement d’API
  • Postgresql, firebase

Validation automatique de la donnée

La première étape de tout traitement des données, en particulier du cycle de vie des données, et par extension du cycle de vie des modèles, est la validation de la donnée. En particulier, au même titre qu’un code, la donnée doit pouvoir faire l’objet de tests unitaires automatiques afin de rejeter la donnée de mauvaise qualité et de prévenir les risques y afférant. Une méthode émergente de validation automatique repose sur un schéma de contraintes, capable de sauvegarder toutes les hypothèses faites sur un jeu de données, et de logger toutes les non-conformités observées.  Plusieurs librairies en accès libre proposent ce genre de service :

  • TDDA (Test-Driven Data Analysis) [1, 2], développé par Stochastic Solutions et le département de mathématique de l’université d’Edimbourg,
  • TensorFlow Data Validation [3,4], développé par Google Research,
  • Delta Lake [5], développé par l’éditeur de solutions Databricks,
  • Deequ [6, 7], developpé par Amazon Research et l’université d’Augsbourg

Les schémas de contraintes sont un élément clef du cycle de vie des données, et la promesse de ces outils est d’automatiser la découverte et la maintenance des contraintes auxquelles doivent obéir les données.

Les objectifs de ce stage sont :

  • Prendre en main les 4 outils et les appliquer à des jeux de données simples en accès libre
  • Comparer leurs fonctionnalités et lister leurs avantages/inconvénients
  • Construire un guide méthodologique et un tutoriel de validation de donnée avec les outils jugés les plus pertinents

Animer une formation en interne sur la validation automatique de la donnée

 

[1] https://github.com/tdda/tdda

[2] https://www.youtube.com/watch?v=FIw_7aUuY50

[3] https://github.com/tensorflow/data-validation

[4] Breck et al. 2019, Data Validation for Machine Learning

[5] https://github.com/delta-io/delta

[6] https://github.com/awslabs/deequ

[7] Schelter et al. 2018, Automating Large-Scale Data Quality Verification

 

Date de début : début 2020

  • Durée : 6 mois
  • Localisation : 52 rue d’Anjou, 75008 Paris
  • Niveau requis : étudiant en dernière année d’école d’ingénieur, ou étudiant universitaire niveau M2, avec un fort intérêt pour l’IoT et une bonne capacité à interagir en équipe sur une problématique requérant autonomie et une certaine rapidité d’action. La maîtrise écrite et rédactionnelle de l’anglais est nécessaire.
  • Rémunération : 1200 €
  • Avantages :  les coûts quotidiens de transport sont pris en charge pour moitié par
    Quantmetry et remboursés en sus du salaire mensuel. Mise à disposition d’un MAC.

Forecasting at scale

Contexte 

 

Développement d’une architecture permettant la gestion de la prévision d’une grande quantité de séries temporelles

Un grand nombre de cas d’usage data science nécessite de gérer des milliers/millions de séries temporelles en simultané. Cela concerne notamment la prévision de la consommation énergétique mais aussi la maintenance de systèmes multi-composants ou le suivi des ventes/des clients (banque, assurance, retail, etc.). Avant la mise en production de tel projet, il est indispensable de mettre en place des systèmes robustes et efficace pour gérer le stockage des séries temporelles, le traitement, le suivi des modèles de prévision, etc. 

 

Problématiques à traiter  : 

  • Comment stocker et requêter ces séries temporelles? Quel type de base de données représente le meilleur compromis temps d’accès/coût/performance pour le stockage de ces millions de séries temporelles?
  • Comment procéder au pré-traitement des séries temporelles ? Directement lors de la réception des données ou “on the fly” lorsqu’elles sont requêtes. 
  • Comment trouver le bon compromis entre un modèle par série temporelle et un modèle pour un ensemble de séries temporelles ?
  • Comment orchestrer, gérer et monitorer les modèles de prévision ?

 

L’objectif de ce stage est donc de construire un démonstrateur de forecast de millions de séries temporelles en interaction avec nos data scientists, nos data engineers et architectes. L’infrastructure du démonstrateur sera réalisée sous AWS.

Le volet “data science” peut faire l’objet d’un stage spécifique, qui aurait pour but de se saisir des principaux algorithmes utiles, et de permettre de faire un choix de (ré)implémentation Scala versus Python.

 

Date de début : début 2020

  • Durée : 6 mois
  • Localisation : 52 rue d’Anjou, 75008 Paris
  • Niveau requis : étudiant en dernière année d’école d’ingénieur, ou étudiant universitaire niveau M2, avec un fort intérêt pour l’IoT et une bonne capacité à interagir en équipe sur une problématique requérant autonomie et une certaine rapidité d’action. La maîtrise écrite et rédactionnelle de l’anglais est nécessaire.
  • Rémunération : 1200 €
  • Avantages :  les coûts quotidiens de transport sont pris en charge pour moitié par
    Quantmetry et remboursés en sus du salaire mensuel. Mise à disposition d’un MAC.
Sujets de stages pour les Machine Learning Engineers
(H/F)

Computer Vision - Pruning de réseaux de neurones

Contexte et enjeux

Les avancées en Deep Learning ont permis des avancées considérables dans le traitement automatisé des images [1]. Toutefois, si les modèles classiques dérivés des Convolutional Neural Networks sont performants et permettent de résoudre de nombreux problèmes en Computer Vision, les besoins en ressource (mémoire, énergie, connexion réseau, …) pour leur entraînement et les prédictions sont telles qu’il est peu concevable de les déployer tels quels on device. Une solution pour alléger ces modèles est le pruning. Cette méthode consiste à réduire la taille d’un réseau de neurones en n’en conservant que les connexions les plus importantes. On obtient alors un modèle plus léger (et donc moins gourmand en ressources) ayant des performances comparables au modèle initial [2].

 

Mission

En tant que pionnier des solutions d’Intelligence Artificielle, Quantmetry suit de près l’état de l’art sur l’IA embarqué [3]. Dans cette optique, l’objectif de ce stage est de produire une étude comparative de différentes solutions de pruning de réseaux de neurones (MorphNet [4], FNNP [5] sont des exemples) et d’une mise en application des méthodes identifiées sur des exemples classiques, mais aussi sur un cas d’usage issu d’une mission menée par Quantmetry : une application vouée à être déployée sur des drones et permettant de détecter la rouille sur des bateaux pétroliers.

 

Compétences souhaitées

Savoir-être

  • Autonome
  • Travail en équipe
  • Proactif
  • Esprit critique

Data Science

  • Machine Learning
  • Deep Learning
  • Statistiques

Engineering

  • Python
  • TensorFlow, Keras
  • Bonnes pratiques de développement logiciel

[1] ImageNet Classification with Deep Convolutional Neural Networks
[2] Pruning Convolutional Neural Networks for Resource Efficient Inference
[3] Like a Bull in a China Shop… Or How to Run Neural Networks on Embedded Systems
[4] MorphNet: Fast & Simple Resource-Constrained Structure Learning of Deep Networks
[5] FNNP: Fast Neural Network Pruning Using Adaptive Batch Normalization

Découvrez la vie d'une société tech, big data et IA