Alternance - Saagie - Data Engineer H/F

Éligible sur :
ParisOù
ParisQui
SaagieImplantée en France, au Royaume-Uni et aux États-Unis, la start-up Saagie fournit une plateforme Big Data disponible sur le Cloud ou sur les propres serveurs de ses clients.
Cette solution permet aux entreprises de tous secteurs d’exploiter les données à leur disposition au travers d’applications métiers spécifiques intégrants de l’intelligence artificielle.
La jeune start-up se charge de la collecte des données, de leur analyse et traitement par algorithmes ainsi que de leur restitution aux clients. Saagie à réalisé en 2018 un tour de table de 5 millions euros auprès de CapHorn Invest, BNP Paribas Développement, Matmut, Cathay Innovation et Caisse d’Epargne Normandie
Quoi
Nous recherchons un.e alternant.e Data Engineer pour rejoindre notre team service et contribuer à la mise en place d’outils et de process MLOps au sein de l’écosystème Saagie.
Le MLOps (Machine Learning Ops) est un ensemble de principes qui visent à accélérer et fiabiliser le développement et l’industrialisation de projets de Machine Learning via une combinaison d’outils et de process / bonnes pratiques.
Notre équipe Service a cadré une initiative MLOps visant à muscler ses propres pratiques de développement de projets de Machine Learning pour pouvoir délivrer plus vite et plus efficacement ainsi qu’accompagner nos clients dans cette transition
Sous l’encadrement de son tuteur et de l’équipe Service, le collaborateur sera amené à :
- Travailler sur des projets big data en collaboration avec les autres membres de l’équipe
- Acquérir, extraire, transformer, gérer et manipuler de larges quantités de données avec notre DataFabric
- Accompagner, conseiller nos clients et partenaires
- Participer au cadrage des projets et à l’élaboration de propositions d’accompagnement
- Participer à la construction et au test ses outils et process pertinents dans le cadre du chantier MLOps Vous rejoindrez une équipe pluridisciplinaire composée de développeurs expérimentés, de data scientists, data engineers et data architects.
Le télétravail est tout à fait possible de façon occasionnelle !
Pour qui
- Bonnes connaissances de Hadoop et son écosystème (Spark, Hive, Impala …)
- Bonnes connaissances en base de données (MySQL, SQL Server, Oracle, MongoDB par exemple) et en SQL
- Langages : Python et/ou Scala
- Une expérience (ou projet scolaire) en collaboration avec des data scientist est un plus
- Curieux(se)
- Rigoureux
- Autonome
- Avec le sens du service (accompagnement, support, formation client)
Combien de temps
Quand