Expertises
il y a 1 jour
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Taux journalier :
550€/jour
Cette offre est à 0% de commission 🎉Localisation :
Lille, France
Date de démarrage :
2 à 4 semaines
Mode de travail :
Sur site, Hybride
Publié le :
4 mai 2026
Le besoin
Contexte
Le rôle de l'équipe est capital : garantir l'accessibilité, la fiabilité et la qualité des données qui alimentent les indicateurs de bonne santé de notre business (taux de dispo, vitesse de rotation de nos stocks...) mais aussi la prise de décision autour des sujets de supply (respect de nos promesses client, maîtrise de nos coûts supply, traçabilité...).
Notre équipe est composée de 3 Product Managers et de plusieurs Data Engineers. Elle est en lien avec ses consommateurs de données et s'impose de bien comprendre les besoins analytiques. Au sein de cette équipe, nous cultivons l'excellence technique, l'impact business et une collaboration sans aucune frontière. En tant que Data Engineer, vous êtes une personne engagée, dynamique et proactive avec une forte appétence business. Vous ne vous contentez pas de maintenir des pipelines ; vous les concevez pour générer de la valeur et accélérer l'innovation sur notre écosystème. Vous jouerez un rôle pivot dans le succès des nouveaux projets d'intégration d'outils et l'évolution de nos systèmes. Il est donc impératif d'avoir une personne qui jouera un rôle fort dans le collectif, l'entraide, la co-construction et la curiosité sont des valeurs indispensables à la réussite de la mission au sein de l'équipe.
Missions
Concevoir, construire et maintenir des infrastructures et des pipelines robustes et performantes
Garantir une architecture et une modélisation des flux optimisées et évolutives
Apporter une expertise et aider l'équipe à prendre les meilleurs choix techniques
Transformer la stack legacy vers les nouveaux standards
Assurer la qualité, la fiabilité et la gouvernance des données
Maîtriser la qualité du code et promouvoir les meilleures pratiques
Collaborer en environnement Agile au sein d'une équipe internationale (anglais)
Garantir un RUN de qualité (SLA) selon le principe "You build it, you run it"
Respecter les engagements de sprint et s'inscrire dans une démarche d'amélioration continue
Outils & Environnement
Plateforme Data Core (Cloud & Gouvernance)
Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide
Langages & Modélisation
Maîtrise avancée et pratique SQL pour la modélisation et l'interrogation des données
Expérience avec DBT (Data Build Tool) pour l'industrialisation, la documentation et le testing de nos modèles de données
Connaissance et pratique de PySpark pour la transformation et le traitement de données
Une connaissance en Scala sera aussi appréciée
Orchestration & MLOps
Expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes garantissant la fiabilité de notre chaîne de production Data
Méthodologie & Qualité
Travail en environnement agile (Scrum/Kanban)
Pratique quotidienne de la revue de code et des principes de CI/CD (intégration et déploiement continus) via des outils comme GitHub
Communication Internationale
Maîtrise de l'anglais indispensable pour interagir au quotidien avec notre équipe internationale et nos partenaires globaux
Conditions de travail
TJM : 550€
Localisation : Lille
Profil recherché
- Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide
- Maîtrise avancée et pratique de SQL pour la modélisation et l'interrogation des données
- Expérience avec DBT (Data Build Tool) pour l'industrialisation, la documentation et le testing des modèles de données
- Connaissance et pratique de PySpark pour la transformation et le traitement de données
- Une connaissance en Scala sera aussi appréciée
- Expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes
- Travail en environnement agile (Scrum/Kanban)
- Pratique quotidienne de la revue de code et des principes de CI/CD via des outils comme GitHub
- Maîtrise de l'Anglais indispensable pour interagir au quotidien avec une équipe internationale
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Tenth Revolution Group
Senior Data Engineer GCP
Freelance
Urgent
Paris, France
Hybride
Top Recruteur
Expertises
il y a 11 heures
Opportunité exclusive
Naxo
Data Engineer CDP Stock
500
Freelance
Urgent
Lille, France
Hybride
Expertises
il y a 6 heures
Opportunité exclusive
Visian
Data Engineer Kafka
Freelance
Dans 4 à 8 semaines
Paris, France
Hybride
Top Recruteur
Expertises
il y a 5 heures
Opportunité exclusive