
About this role
Nos missions :
Nous intervenons chez nos clients sur des missions 100% data qui allient des dimensions techniques et stratégiques, où la donnée est le moteur de la performance opérationnelle. En tant que Data Engineer, vous êtes l'architecte qui rend la donnée exploitable. Selon votre profil, vous interviendrez sur la construction de plateformes data robustes (Data Lakehouse) ou sur l'industrialisation de flux complexes destinés à l'IA.
Nos clients (Luxe, Retail, Télécom, Banque...) font face à une explosion des volumes et des sources de données. Votre rôle sera de garantir la fluidité, la qualité et la sécurité de ces flux.
Quelques exemples de sujets du moment :
Migration d'un legacy on-premise vers une architecture Cloud Lakehouse (Snowflake/Databricks). #CloudMigration
Industrialisation de pipelines complexes sur GCP (BigQuery, Dataform) avec une forte culture de l'observabilité (Dynatrace) et du CI/CD. #Orchestration
Déploiement d'applications, d’API et de services IA (Algorithmes de prédictions ML, agents conversationnels, etc.) #MLOps
Audit et refonte de pipelines d’ingestion pour réduire les coûts de calcul et de stockage sur GCP ou AWS. #Performance
Développement de composants Kafka, exposition via API et garantie de la performance des flux temps réel à l'échelle internationale. #Streaming
Requirements
L'humain :
Nous recherchons des talents :
Ayant un excellent relationnel pour faire le pont entre les besoins métiers et les contraintes IT,
Avec la volonté de bâtir des infrastructures scalables et robustes,
Dotés d’un esprit d’analyse rigoureux,
Qui accordent une importance capitale à la qualité du code (CI/CD, tests unitaires) et à la documentation technique (Confluence/Jira),
Curieux des nouvelles tendances (DataOps, IA générative appliquée au code),
Sensibles aux enjeux RSE pour intégrer des pratiques numériques durables,
Avec l’envie de transmettre et d’apprendre au sein d’une communauté technique active,
Maîtrisant l'anglais professionnel pour intervenir dans des contextes internationaux,
Disposant de deux années d'expérience minimum sur des sujets d'ingénierie de données.
Les compétences techniques :
Vous êtes diplômé(e) d’une formation data à l’université ou en grande école et :
Maîtrisez parfaitement Python et SQL (analytique et procédural),
Avez une solide expérience sur un orchestrateur de workflow (Airflow, Prefect ou Dagster),
Connaissez les outils de transformation moderne comme dbt (Data Build Tool),
Maîtrisez au moins une solution Cloud (GCP, AWS, Azure ou Snowflake) et ses services managés (BigQuery, Redshift, S3...),
Maîtrisez le cycle de vie logicielle (GitLab/GitHub, CI/CD, Terraform, Docker),
En bonus : vous avez déjà manipulé des flux de streaming (Kafka, Pub/Sub), des frameworks d’IA générative (Langchain) ou des outils de Dataviz (Power BI).
Le processus de recrutement
Vous échangerez tout d’abord avec notre Talent acquisition Leader qui vous invitera à passer un premier entretien au téléphone, en visio ou sur site.
Un test technique (QCM et cas pratiques) vous sera envoyé par mail
Vous rencontrerez ensuite un consultant senior (manager ou practice leader) idéalement sur site.
Des échanges informels avec l’équipe pourront être organisés au besoin pour que vous puissiez en parallèle découvrir votre futur environnement de travail.