Expertises
il y a 11 heures
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
CDI
Salaire / Taux journalier :
550
Cette offre est à 0% de commission 🎉Localisation :
93400 Saint-Ouen-sur-Seine, France
Date de démarrage :
Urgent
Mode de travail :
Hybride, Sur site
Publié le :
14 avril 2026
Le besoin
Notre client dans le secteur Autre recherche un/une Data Engineer - ExperimentéH/F
Description de la mission:
Le client est un acteur majeur du secteur Luxe & Cosmétique.
Contexte de la mission :
L'équipe Data & Analytics Corporate est responsable des plateformes de données et d'analytics à l'échelle mondiale. Elle pilote l'ensemble des plateformes data du groupe au niveau Corporate, en couvrant des domaines métier critiques tels que les Ressources Humaines, le Campus & l'Immobilier.
L'équipe opère principalement sur deux technologies cloud de référence :
• Google Cloud Platform (GCP) — socle de la plateforme data Corporate (Cloud Composer/Airflow, BigQuery, Google Cloud Storage)
• Snowflake — plateforme analytique et de partage de données à l'échelle groupe
L'équipe s'inscrit dans le cadre du programme Beauty Tech Data Platform (BTDP), qui définit les standards d'architecture, les patterns d'ingestion, de transformation et d'exposition de la donnée à l'échelle du groupe. L'ambition de l'équipe pour 2026 est de devenir le partenaire business le plus agile pour les domaines Corporate, en délivrant des solutions data et AI à haute valeur ajoutée.
Dans ce cadre, l'équipe recrute un(e) Data Engineer GCP expérimenté(e) pour renforcer ses capacités de delivery et contribuer activement à des projets stratégiques à fort impact.
🎯 Première mission : Pipeline de données Campus — Zscaler
La première mission du consultant portera sur la conception, le développement et l'industrialisation de pipelines de données GCP dans le cadre du domaine Campus (gestion des espaces de travail, données de présence et d'occupation).
Contexte spécifique
L'équipe Corporate Data travaille sur l'intégration de données issues de l'application Zscaler — outil de sécurité réseau dont les données sont exploitées pour analyser et restituer les comportements de fréquentation et d'occupation des sites du groupe (notamment via le Workplace Attendance Dashboard).
Objectif de la mission
Concevoir et déployer des pipelines de données conformes au framework BTDP pour :
1. Ingérer les données brutes en provenance de Zscaler vers les couches de stockage GCP (Google Cloud Storage / BigQuery)
2. Transformer ces données selon les règles métier définies (nettoyage, normalisation, agrégation des métriques de présence et d'occupation)
3. Exposer les données transformées vers les couches de consommation : BigQuery et Power BI selon les besoins des parties prenantes.
Livrables attendus :
• Pipelines Airflow (Cloud Composer) conformes aux standards BTDP
• Documentation technique (architecture, flux de données, règles de transformation)
• Couches de données BigQuery (SDDS/ CDS / Dataset) dûment documentées
• Connecteurs d'exposition vers Power BI
• Tests unitaires et monitoring des flux
🔧 Compétences techniques requises
Indispensables
• ✅ Google Cloud Platform (GCP) — minimum 3 ans d'expérience :
o BigQuery : modélisation, requêtage, optimisation des performances et des coûts
o Cloud Composer / Apache Airflow : développement et gestion de DAGs complexes
o Google Cloud Storage (GCS) : gestion des buckets, autoclass, lifecycle policies
o Cloud Logging / Monitoring : supervision des pipelines, alerting
o IAM & Sécurité GCP : gestion des permissions, service accounts, secrets
• ✅ Python : développement de scripts de transformation et d'opérateurs Airflow
• ✅ SQL avancé : manipulation de grandes volumétries de données dans BigQuery
• ✅ Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités
• ✅ Maîtrise des principes ELT/ETL et des architectures Data Lakehouse
Appréciées
• ⭐ Terraform : infrastructure as code pour les ressources GCP
• ⭐ Expertise sur des plateformes data entreprise (type BTDP, Medallion Architecture ou équivalent)
• ⭐ Connaissance des outils de qualité de données (Great Expectations, Soda ou équivalent)
• ⭐ Expertise dans un contexte Grand Compte / Multinational
• ⭐ Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif)
🤝 Environnement de travail & organisation
Le consultant intégrera une équipe pluridisciplinaire composée d'ingénieurs data internes et de consultants externes. Il/elle travaillera en étroite collaboration avec :
• L'équipe Data & Analytics Corporate (Data Engineers, Tech Lead)
• Le Campus Application Manager pour la définition des besoins métier
• Les équipes IBM en charge de l'exploitation quotidienne des plateformes GCP (run opérationnel)
• Les équipes Power BI / Microsoft Fabric pour les couches d'exposition
Méthodologie
• Gestion des tâches via ServiceNow et backlog DATA structuré
• Rituels d'équipe hebdomadaires (bi-weekly Data Gov, stand-ups techniques)
• Travail en mode agile, avec des sprints de delivery
• Présence sur site à Saint-Ouen minimum 3 jours/semaine (réunions techniques, ateliers)
📐 Critères de sélection
Expertise GCP (BigQuery, Composer, GCS) ⭐⭐⭐ Critique
Maîtrise Python / SQL ⭐⭐⭐ Critique
Expertise Power BI ⭐⭐ Importante
Connaissance frameworks data (BTDP, Medallion) ⭐⭐ Importante
Capacité à travailler en autonomie dans un grand groupe ⭐⭐ Importante
📝 Profil recherché
• Formation : Bac+5 en Informatique, Data Engineering, ou domaine équivalent
• Expertise : Minimum 3 ans en tant que Data Engineer avec une spécialisation GCP avérée
• Langues : Français courant — Anglais professionnel (l'environnement est international)
📌 Informations complémentaires
• Démarrage souhaité : Dès que possible
Télé travail : 2 jours par semaine / 3 jours de présence sur site
Profil recherché
Compétences / Qualités indispensables :
Google Cloud Platform (GCP) — minimum 3 ans d'expérience, • ✅ Python : développement de scripts de transformation et d'opérateurs Airflow, • ✅ SQL avancé : manipulation de grandes volumétries de données dans BigQuery, • ✅ Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités, • ✅ Maîtrise des principes ELT/ETL et des architectures Data Lakehouse, • ⭐ Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif), Anglais professionnel
Compétences / Qualités qui seraient un + :
⭐ Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif) Expérience en grands groupe et luxe apprécié
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
CBTW
Data Engineer - CDI - LILLE
CDI
Dans 2 à 4 semaines
Lille, France
Hybride
Expertises
il y a 16 heures
Opportunité exclusive
F.r.e.e.f.i.n.d.e.r.
Data eng. GCP
Freelance
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 14 heures
Opportunité exclusive
LeHibou
Data Engineer IA LLM - Snowflake H/F
560
CDI
Urgent
93400 Saint-Ouen-sur-Seine, France
Hybride, Sur site
Expertises
il y a 11 heures
Opportunité exclusive