Trouver une offreRecruteurs

Data Engineer Senior GCP - Finance

Opportunité exclusive

Urgent

Hybride, Sur site

Data Engineer Senior GCP - Finance

Ecaris

Data Engineer Senior GCP - Finance

Expertises

dbtTerraformGoogle Cloud Platform (GCP)Cloud Composer (Airflow)Google Kubernetes Engine (GKE)AirbyteCI/CDDataOps

il y a 1 jour

Opportunité exclusive

Partagez cette opportunité

Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.

Information importante


Type de contrat:

Freelance

Salaire / Taux journalier :

600-650€/jour

Cette offre est à 0% de commission 🎉

Localisation :

Paris, France

Date de démarrage :

Urgent

Mode de travail :

Hybride, Sur site

Publié le :

2 avril 2026

Le besoin


Contexte

Notre client est une entreprise de taille intermédiaire (environ 2 500 collaborateurs) engagée dans la mise en place et l’industrialisation de sa plateforme Data sur Google Cloud Platform. Dans un contexte de forte tension capacitaire (turnover / départs) et d’architecture encore en consolidation, l’organisation doit sécuriser la continuité de service tout en accélérant la structuration de la plateforme et la livraison de premiers cas d’usage.

La mission vise à renforcer immédiatement l’équipe Data Engineering avec un profil senior autonome, capable de « tenir la baraque » et de recommander les meilleurs choix techniques.

La plateforme Data est en phase de construction et d’industrialisation : les pipelines existent mais nécessitent une remise à niveau en termes de robustesse, d’architecture et de bonnes pratiques DataOps. Le SI comporte de nombreuses sources (plus de 40), des applicatifs hétérogènes et un contexte de fusion/harmonisation (multiples référentiels/CRM), rendant la standardisation et la qualité de données particulièrement critiques.

L’objectif de la mission est double :

  • Assurer la continuité et la fiabilité opérationnelle de l’existant (ingestion, orchestration, transformations, exploitation) dans un contexte d’équipe réduite.
  • Structurer et faire monter en maturité la plateforme (infrastructure as code, standards de développement, monitoring, qualité, sécurité) afin de permettre la création de services de données pour des applications consommatrices (web, CRM interne, RH, etc.).

Le profil attendu doit combiner une forte expertise GCP (infrastructure et services data) et une posture de consultant : prise de hauteur, capacité à challenger les solutions proposées, à formuler des recommandations pragmatiques et à embarquer les parties prenantes.

Missions

  • Prendre en main l’écosystème Data sur GCP et sécuriser l’exploitation quotidienne (run & support niveau 2/3) : diagnostic, stabilisation, correction d’incidents, gestion des dettes techniques.
  • Concevoir, développer et industrialiser des pipelines d’ingestion multi-sources (ex. Salesforce et autres providers) via Airbyte (déployé sur GKE) et/ou connecteurs existants.
  • Développer et maintenir les transformations analytiques avec DBT (modélisation, tests, documentation, optimisation des modèles et des coûts).
  • Mettre en place et opérer l’orchestration via Cloud Composer (Airflow) : DAGs, scheduling, dépendances, gestion des environnements, bonnes pratiques de déploiement.
  • Renforcer l’infrastructure et la plateforme via Infrastructure as Code (Terraform) : provisioning, réseaux/permissions, environnements, services managés, configuration GKE, sécurisation et reproductibilité.
  • Participer à l’évolution de l’architecture cible (data platform) : patterns d’ingestion, zones de données, gouvernance minimale, stratégie de montée en charge, choix techniques argumentés.
  • Définir et diffuser des standards Data Engineering / DataOps : conventions de développement, CI/CD, stratégie de branching, revues de code, qualité, tests automatisés, observabilité (logs/metrics/alerting), gestion des secrets.
  • Contribuer à la mise en place de “data services” pour des applications clientes (API/exports/jeux de données), en lien avec les Data Analysts et les équipes métiers.
  • Assurer un rôle de référent technique au sein d’une équipe en construction : coaching des profils plus juniors, partage de bonnes pratiques, capacité à dire “non” lorsque nécessaire et à proposer des alternatives.
  • Produire les livrables attendus : documentation technique, schémas d’architecture, runbooks, backlog priorisé et plan de remédiation/industrialisation.

Outils & Environnement

  • Google Cloud Platform (GCP) avec forte dominante infrastructure
  • Cloud Composer (Airflow) : orchestration, bonnes pratiques, exploitation
  • GKE (Google Kubernetes Engine) : déploiement et exploitation de services data (ex. Airbyte), notions réseau/sécurité
  • Terraform (IaC) : conception et maintenance de l’infrastructure
  • DBT : modélisation, tests, documentation, optimisation des performances et des coûts
  • Airbyte (ou solutions ELT équivalentes) : ingestion multi-sources et maintenance des connecteurs
  • CI/CD et pratiques DevOps/DataOps (Git, pipelines, tests, déploiements, gestion des environnements)
  • Observabilité : monitoring, alerting, logs, métriques, troubleshooting
  • Connaissance des patterns data platform (zones de données, gouvernance minimale, sécurité, IAM)

Conditions de travail

  • Date de démarrage : ASAP
  • Durée : À définir
  • Localisation : Paris
  • Télétravail : 3 jours sur site (négociable à 2 jours)
  • TJM : 600-650€

Profil recherché


  1. Expertise confirmée Google Cloud Platform (GCP), avec forte dominante infrastructure
  2. Maîtrise de Cloud Composer (Airflow) : orchestration, bonnes pratiques, exploitation
  3. Expérience avec GKE (Google Kubernetes Engine) : déploiement et exploitation de services data, notions réseau/sécurité
  4. Compétences en Terraform (IaC) : capacité à concevoir et maintenir l’infrastructure de manière autonome
  5. Maîtrise de DBT : modélisation, tests, documentation, optimisation des performances et des coûts
  6. Expérience avec Airbyte (ou solutions ELT équivalentes) : ingestion multi-sources et maintenance des connecteurs
  7. Connaissance des pratiques CI/CD et DevOps/DataOps (Git, pipelines, tests, déploiements, gestion des environnements)
  8. Compétences en observabilité : monitoring, alerting, logs, métriques, troubleshooting
  9. Connaissance des patterns data platform (zones de données, gouvernance minimale, sécurité, IAM)
  10. Compétences en Data Engineering end-to-end : ingestion, transformation, industrialisation, exploitation
  11. Capacité à travailler dans un SI hétérogène (multiples applicatifs, référentiels, contexte de fusion/harmonisation)
  12. Compréhension des besoins des équipes consommatrices (web, CRM, RH) et traduction en services de données
  13. Capacité de priorisation et pilotage pragmatique en contexte d’urgence (continuité de service, dette technique, quick wins)
  14. Posture de conseil : recommandation, argumentation, gestion des compromis (coûts, délais, risques)
  15. Très forte autonomie (capable de prendre un sujet de A à Z, sans encadrement rapproché)
  16. Prise de hauteur et esprit critique : capacité à challenger et à proposer des solutions robustes
  17. Communication claire et sens du service (posture de consultant, fiabilité)
  18. Rigueur et sens de l’industrialisation (qualité, documentation, standards)
  19. Leadership opérationnel et capacité à embarquer une équipe en construction
  20. Profil “tête très bien faite” ; formation grande école appréciée

D'autres offres idéales pour vous !

Ces entreprises cherchent également d'excellents profils

Upfast - Data Engineer

Data Enginner Senior

Freelance

Urgent

Paris, France

Hybride, Télétravail

Expertises

AWSdbtApache AirflowIcebergsnowflake

il y a 19 heures

Opportunité exclusive

E-Volve

Consultant AMOA Senior Finance

Freelance

Urgent

92130 Issy-les-Moulineaux, France

Hybride

Expertises

Analyse businessFunctional specificationsBI reportingManagement controlEPMBOARDAMOA

il y a 1 heure

Opportunité exclusive

Ever T

Analytics Engineer (Finance / RH)

500

Freelance

Urgent

Lille, France

Hybride

Expertises

Databricksdbt

il y a 24 minutes

Opportunité exclusive

Réseau professionnel conçu pour les talents

© 2026. Tous droits réservés.

Freelancers

Créer un profil

Rejoindre un collectif

Solutions et outils