Trouver une offreRecruteurs

Data Engineer CDP Stock - Lille

Opportunité exclusive

2 à 4 semaines

Hybride

Data Engineer CDP Stock - Lille

Salutech

Data Engineer CDP Stock - Lille

Expertises

Requêtes SQLDatabricksAWSdbtPySparkApache Airflow

il y a 4 heures

Opportunité exclusive

Partagez cette opportunité

Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.

Information importante


Type de contrat:

Freelance

Taux journalier :

Salaire selon profil

Localisation :

Villeneuve-d'Ascq, France

Date de démarrage :

2 à 4 semaines

Mode de travail :

Hybride

Publié le :

7 mai 2026

Le besoin


Contexte

Chez Decathlon, nous sommes animés par la conviction que le sport est un vecteur d'union et d'inspiration. Notre mission est de rendre le sport accessible au plus grand nombre, partout dans le monde. Pour réaliser cette ambition, la Data n'est pas un simple support : elle est la source de vérité qui guide chaque prise de décision et modèle l'innovation de notre écosystème.

L'équipe CDP Stock est au centre de cette dynamique. Son rôle est capital : garantir l'accessibilité, la fiabilité et la qualité des données qui alimentent les indicateurs de bonne santé de notre business (taux de disponibilité, vitesse de rotation de nos stocks...) mais aussi la prise de décision autour des sujets de supply (respect de nos promesses client, maîtrise de nos coûts supply, traçabilité...).

Notre équipe est composée de 3 Product Managers et de plusieurs Data Engineers. Elle est en lien avec ses consommateurs de données et s'impose de bien comprendre les besoins analytiques. Au sein de cette équipe, nous cultivons l'excellence technique, l'impact business et une collaboration sans aucune frontière.

En tant que Data Engineer au sein de l'équipe Core Data Stock, vous êtes une personne engagée, dynamique et proactive avec une forte appétence business. Vous ne vous contentez pas de maintenir des pipelines ; vous les concevez pour générer de la valeur et accélérer l'innovation sur notre écosystème. Vous jouerez un rôle pivot dans le succès des nouveaux projets d'intégration d'outils et l'évolution de nos systèmes. Il est donc impératif d'avoir une personne qui jouera un rôle fort dans le collectif, où l'entraide, la co-construction et la curiosité sont des valeurs indispensables à la réussite de la mission.

Missions

  • Concevoir, construire et maintenir des infrastructures et des pipelines robustes et performants

  • Garantir une architecture et une modélisation des flux optimisées et évolutives

  • Apporter une expertise et aider l'équipe à prendre les meilleurs choix techniques

  • Transformer la stack legacy vers les nouveaux standards de la Data Platform

  • Assurer la qualité, la fiabilité et la gouvernance des données

  • Maîtriser la qualité du code et promouvoir les meilleures pratiques

  • Collaborer en environnement Agile au sein d'une équipe internationale (anglais)

  • Garantir un RUN de qualité (SLA) selon le principe « You build it, you run it »

  • Respecter les engagements de sprint et s'inscrire dans une démarche d'amélioration continue

Outils & Environnement

  • Plateforme Data Core (Cloud & Gouvernance)

    • Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide

  • Langages & Modélisation

    • Maîtrise avancée et pratique de SQL pour la modélisation et l'interrogation des données

    • Expérience avec DBT (Data Build Tool) pour l'industrialisation, la documentation et le testing des modèles de données

    • Connaissance et pratique de PySpark pour la transformation et le traitement de données

    • Une connaissance en Scala sera aussi appréciée

  • Orchestration & MLOps

    • Expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes garantissant la fiabilité de la chaîne de production Data

  • Méthodologie & Qualité

    • Travail en environnement agile (Scrum/Kanban)

    • Pratique quotidienne de la revue de code et des principes de CI/CD via des outils comme GitHub

  • Communication Internationale

    • Maîtrise de l'anglais indispensable pour interagir au quotidien avec l'équipe internationale et les partenaires globaux

Conditions de travail

  • Client : Decathlon

  • Début souhaité : 01/06/2026

  • Durée : 12 mois

  • Localisation : Campus - 4 Bd de Mons, 59560 Villeneuve d'Ascq

Compétences techniques

Compétence Niveau DBT Avancé Databricks Confirmé SQL Avancé PySpark Avancé Astronomer Confirmé AWS Avancé Python Confirmé Apache Airflow Avancé

Langues

Langue Niveau Français Bilingue Anglais Courant

Profil recherché


  1. Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide
  2. Maîtrise avancée et pratique de SQL pour la modélisation et l'interrogation des données
  3. Expérience avec DBT (Data Build Tool) pour l'industrialisation, la documentation et le testing de modèles de données
  4. Connaissance et pratique de PySpark pour la transformation et le traitement de données
  5. Une connaissance en Scala sera aussi appréciée
  6. Expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes
  7. Travail en environnement agile (Scrum/Kanban)
  8. Pratique quotidienne de la revue de code et des principes de CI/CD via des outils comme GitHub
  9. Maîtrise de l'Anglais indispensable pour interagir au quotidien avec une équipe internationale

D'autres offres idéales pour vous !

Ces entreprises cherchent également d'excellents profils

Naxo

Data Engineer CDP Stock

500

Freelance

Urgent

Lille, France

Hybride

Expertises

Requêtes SQLDatabricksAWSdbtPySparkApache Airflow

il y a 2 jours

Opportunité exclusive

FreelanceRepublik

Data Engineer GCP/Airflow - (H/F)

400

Freelance

Urgent

93400 Saint-Ouen-sur-Seine, France

Hybride

Expertises

Google Cloud PlatformPythonGoogle BigQueryApache AirflowVertex IAADR

il y a 9 heures

Opportunité exclusive

Freelance.com

Senior Data Engineer

Freelance

Urgent

93400 Saint-Ouen-sur-Seine, France

Sur site

Expertises

Google Cloud PlatformRequêtes SQLData EngineeringPythonGoogle BigQueryTerraform

il y a 5 heures

Opportunité exclusive

Réseau professionnel conçu pour les talents

© 2026. Tous droits réservés.

Freelancers

Créer un profil

Rejoindre un collectif

Solutions et outils