Expertises
il y a 1 jour
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Salaire / Taux journalier :
600-650€/jour
Cette offre est à 0% de commission 🎉Localisation :
Paris, France
Date de démarrage :
Urgent
Mode de travail :
Hybride, Sur site
Publié le :
2 avril 2026
Le besoin
Contexte
Notre client est une entreprise de taille intermédiaire (environ 2 500 collaborateurs) engagée dans la mise en place et l’industrialisation de sa plateforme Data sur Google Cloud Platform. Dans un contexte de forte tension capacitaire (turnover / départs) et d’architecture encore en consolidation, l’organisation doit sécuriser la continuité de service tout en accélérant la structuration de la plateforme et la livraison de premiers cas d’usage.
La mission vise à renforcer immédiatement l’équipe Data Engineering avec un profil senior autonome, capable de « tenir la baraque » et de recommander les meilleurs choix techniques.
La plateforme Data est en phase de construction et d’industrialisation : les pipelines existent mais nécessitent une remise à niveau en termes de robustesse, d’architecture et de bonnes pratiques DataOps. Le SI comporte de nombreuses sources (plus de 40), des applicatifs hétérogènes et un contexte de fusion/harmonisation (multiples référentiels/CRM), rendant la standardisation et la qualité de données particulièrement critiques.
L’objectif de la mission est double :
- Assurer la continuité et la fiabilité opérationnelle de l’existant (ingestion, orchestration, transformations, exploitation) dans un contexte d’équipe réduite.
- Structurer et faire monter en maturité la plateforme (infrastructure as code, standards de développement, monitoring, qualité, sécurité) afin de permettre la création de services de données pour des applications consommatrices (web, CRM interne, RH, etc.).
Le profil attendu doit combiner une forte expertise GCP (infrastructure et services data) et une posture de consultant : prise de hauteur, capacité à challenger les solutions proposées, à formuler des recommandations pragmatiques et à embarquer les parties prenantes.
Missions
- Prendre en main l’écosystème Data sur GCP et sécuriser l’exploitation quotidienne (run & support niveau 2/3) : diagnostic, stabilisation, correction d’incidents, gestion des dettes techniques.
- Concevoir, développer et industrialiser des pipelines d’ingestion multi-sources (ex. Salesforce et autres providers) via Airbyte (déployé sur GKE) et/ou connecteurs existants.
- Développer et maintenir les transformations analytiques avec DBT (modélisation, tests, documentation, optimisation des modèles et des coûts).
- Mettre en place et opérer l’orchestration via Cloud Composer (Airflow) : DAGs, scheduling, dépendances, gestion des environnements, bonnes pratiques de déploiement.
- Renforcer l’infrastructure et la plateforme via Infrastructure as Code (Terraform) : provisioning, réseaux/permissions, environnements, services managés, configuration GKE, sécurisation et reproductibilité.
- Participer à l’évolution de l’architecture cible (data platform) : patterns d’ingestion, zones de données, gouvernance minimale, stratégie de montée en charge, choix techniques argumentés.
- Définir et diffuser des standards Data Engineering / DataOps : conventions de développement, CI/CD, stratégie de branching, revues de code, qualité, tests automatisés, observabilité (logs/metrics/alerting), gestion des secrets.
- Contribuer à la mise en place de “data services” pour des applications clientes (API/exports/jeux de données), en lien avec les Data Analysts et les équipes métiers.
- Assurer un rôle de référent technique au sein d’une équipe en construction : coaching des profils plus juniors, partage de bonnes pratiques, capacité à dire “non” lorsque nécessaire et à proposer des alternatives.
- Produire les livrables attendus : documentation technique, schémas d’architecture, runbooks, backlog priorisé et plan de remédiation/industrialisation.
Outils & Environnement
- Google Cloud Platform (GCP) avec forte dominante infrastructure
- Cloud Composer (Airflow) : orchestration, bonnes pratiques, exploitation
- GKE (Google Kubernetes Engine) : déploiement et exploitation de services data (ex. Airbyte), notions réseau/sécurité
- Terraform (IaC) : conception et maintenance de l’infrastructure
- DBT : modélisation, tests, documentation, optimisation des performances et des coûts
- Airbyte (ou solutions ELT équivalentes) : ingestion multi-sources et maintenance des connecteurs
- CI/CD et pratiques DevOps/DataOps (Git, pipelines, tests, déploiements, gestion des environnements)
- Observabilité : monitoring, alerting, logs, métriques, troubleshooting
- Connaissance des patterns data platform (zones de données, gouvernance minimale, sécurité, IAM)
Conditions de travail
- Date de démarrage : ASAP
- Durée : À définir
- Localisation : Paris
- Télétravail : 3 jours sur site (négociable à 2 jours)
- TJM : 600-650€
Profil recherché
- Expertise confirmée Google Cloud Platform (GCP), avec forte dominante infrastructure
- Maîtrise de Cloud Composer (Airflow) : orchestration, bonnes pratiques, exploitation
- Expérience avec GKE (Google Kubernetes Engine) : déploiement et exploitation de services data, notions réseau/sécurité
- Compétences en Terraform (IaC) : capacité à concevoir et maintenir l’infrastructure de manière autonome
- Maîtrise de DBT : modélisation, tests, documentation, optimisation des performances et des coûts
- Expérience avec Airbyte (ou solutions ELT équivalentes) : ingestion multi-sources et maintenance des connecteurs
- Connaissance des pratiques CI/CD et DevOps/DataOps (Git, pipelines, tests, déploiements, gestion des environnements)
- Compétences en observabilité : monitoring, alerting, logs, métriques, troubleshooting
- Connaissance des patterns data platform (zones de données, gouvernance minimale, sécurité, IAM)
- Compétences en Data Engineering end-to-end : ingestion, transformation, industrialisation, exploitation
- Capacité à travailler dans un SI hétérogène (multiples applicatifs, référentiels, contexte de fusion/harmonisation)
- Compréhension des besoins des équipes consommatrices (web, CRM, RH) et traduction en services de données
- Capacité de priorisation et pilotage pragmatique en contexte d’urgence (continuité de service, dette technique, quick wins)
- Posture de conseil : recommandation, argumentation, gestion des compromis (coûts, délais, risques)
- Très forte autonomie (capable de prendre un sujet de A à Z, sans encadrement rapproché)
- Prise de hauteur et esprit critique : capacité à challenger et à proposer des solutions robustes
- Communication claire et sens du service (posture de consultant, fiabilité)
- Rigueur et sens de l’industrialisation (qualité, documentation, standards)
- Leadership opérationnel et capacité à embarquer une équipe en construction
- Profil “tête très bien faite” ; formation grande école appréciée
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Upfast - Data Engineer
Data Enginner Senior
Freelance
Urgent
Paris, France
Hybride, Télétravail
Expertises
il y a 19 heures
Opportunité exclusive
E-Volve
Consultant AMOA Senior Finance
Freelance
Urgent
92130 Issy-les-Moulineaux, France
Hybride
Expertises
il y a 1 heure
Opportunité exclusive
Ever T
Analytics Engineer (Finance / RH)
500
Freelance
Urgent
Lille, France
Hybride
Expertises
il y a 24 minutes
Opportunité exclusive