Expertises
il y a 4 heures
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Taux journalier :
Salaire selon profil
Localisation :
Villeneuve-d'Ascq, France
Date de démarrage :
2 à 4 semaines
Mode de travail :
Hybride
Publié le :
7 mai 2026
Le besoin
Contexte
Chez Decathlon, nous sommes animés par la conviction que le sport est un vecteur d'union et d'inspiration. Notre mission est de rendre le sport accessible au plus grand nombre, partout dans le monde. Pour réaliser cette ambition, la Data n'est pas un simple support : elle est la source de vérité qui guide chaque prise de décision et modèle l'innovation de notre écosystème.
L'équipe CDP Stock est au centre de cette dynamique. Son rôle est capital : garantir l'accessibilité, la fiabilité et la qualité des données qui alimentent les indicateurs de bonne santé de notre business (taux de disponibilité, vitesse de rotation de nos stocks...) mais aussi la prise de décision autour des sujets de supply (respect de nos promesses client, maîtrise de nos coûts supply, traçabilité...).
Notre équipe est composée de 3 Product Managers et de plusieurs Data Engineers. Elle est en lien avec ses consommateurs de données et s'impose de bien comprendre les besoins analytiques. Au sein de cette équipe, nous cultivons l'excellence technique, l'impact business et une collaboration sans aucune frontière.
En tant que Data Engineer au sein de l'équipe Core Data Stock, vous êtes une personne engagée, dynamique et proactive avec une forte appétence business. Vous ne vous contentez pas de maintenir des pipelines ; vous les concevez pour générer de la valeur et accélérer l'innovation sur notre écosystème. Vous jouerez un rôle pivot dans le succès des nouveaux projets d'intégration d'outils et l'évolution de nos systèmes. Il est donc impératif d'avoir une personne qui jouera un rôle fort dans le collectif, où l'entraide, la co-construction et la curiosité sont des valeurs indispensables à la réussite de la mission.
Missions
Concevoir, construire et maintenir des infrastructures et des pipelines robustes et performants
Garantir une architecture et une modélisation des flux optimisées et évolutives
Apporter une expertise et aider l'équipe à prendre les meilleurs choix techniques
Transformer la stack legacy vers les nouveaux standards de la Data Platform
Assurer la qualité, la fiabilité et la gouvernance des données
Maîtriser la qualité du code et promouvoir les meilleures pratiques
Collaborer en environnement Agile au sein d'une équipe internationale (anglais)
Garantir un RUN de qualité (SLA) selon le principe « You build it, you run it »
Respecter les engagements de sprint et s'inscrire dans une démarche d'amélioration continue
Outils & Environnement
Plateforme Data Core (Cloud & Gouvernance)
Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide
Langages & Modélisation
Maîtrise avancée et pratique de SQL pour la modélisation et l'interrogation des données
Expérience avec DBT (Data Build Tool) pour l'industrialisation, la documentation et le testing des modèles de données
Connaissance et pratique de PySpark pour la transformation et le traitement de données
Une connaissance en Scala sera aussi appréciée
Orchestration & MLOps
Expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes garantissant la fiabilité de la chaîne de production Data
Méthodologie & Qualité
Travail en environnement agile (Scrum/Kanban)
Pratique quotidienne de la revue de code et des principes de CI/CD via des outils comme GitHub
Communication Internationale
Maîtrise de l'anglais indispensable pour interagir au quotidien avec l'équipe internationale et les partenaires globaux
Conditions de travail
Client : Decathlon
Début souhaité : 01/06/2026
Durée : 12 mois
Localisation : Campus - 4 Bd de Mons, 59560 Villeneuve d'Ascq
Compétences techniques
Compétence Niveau DBT Avancé Databricks Confirmé SQL Avancé PySpark Avancé Astronomer Confirmé AWS Avancé Python Confirmé Apache Airflow Avancé
Langues
Langue Niveau Français Bilingue Anglais Courant
Profil recherché
- Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide
- Maîtrise avancée et pratique de SQL pour la modélisation et l'interrogation des données
- Expérience avec DBT (Data Build Tool) pour l'industrialisation, la documentation et le testing de modèles de données
- Connaissance et pratique de PySpark pour la transformation et le traitement de données
- Une connaissance en Scala sera aussi appréciée
- Expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes
- Travail en environnement agile (Scrum/Kanban)
- Pratique quotidienne de la revue de code et des principes de CI/CD via des outils comme GitHub
- Maîtrise de l'Anglais indispensable pour interagir au quotidien avec une équipe internationale
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Naxo
Data Engineer CDP Stock
500
Freelance
Urgent
Lille, France
Hybride
Expertises
il y a 2 jours
Opportunité exclusive
FreelanceRepublik
Data Engineer GCP/Airflow - (H/F)
400
Freelance
Urgent
93400 Saint-Ouen-sur-Seine, France
Hybride
Expertises
il y a 9 heures
Opportunité exclusive
Freelance.com
Senior Data Engineer
Freelance
Urgent
93400 Saint-Ouen-sur-Seine, France
Sur site
Expertises
il y a 5 heures
Opportunité exclusive