Trouver une offreRecruteurs

Data Engineer - Migration Data Lake

Opportunité exclusive

2 à 4 semaines

Hybride

Data Engineer - Migration Data Lake

Visian

Data Engineer - Migration Data Lake

Expertises

dbtData Lake migrationMedallion architectureTrinoDBApache IcebergArgo WorkflowsOpenMetadataApache Superset

il y a 1 jour

Opportunité exclusive

Publié par un Top Recruteur

Partagez cette opportunité

Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.

Information importante


Type de contrat:

Freelance

Taux journalier :

Salaire selon profil

Localisation :

Paris, France

Date de démarrage :

2 à 4 semaines

Mode de travail :

Hybride

Publié le :

27 avril 2026

Le besoin


Contexte

Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata.

Missions

  • Analyse de l’existant & migration

    • Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...).

    • Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold).

    • Conception des plans de bascule tout en minimisant les interruptions de service.

  • Architecture & ingestion

    • Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet.

    • Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit.

  • Modélisation & transformation

    • Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning.

    • Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit.

  • Orchestration

    • Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring).

  • Self-service & visualisation

    • Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake.

    • Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes.

  • Gouvernance, catalogue & lineage

    • Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité).

    • Mise en place des processus de data ownership, de versionning et de validation.

  • Qualité & validation

    • Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit).

    • Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques.

  • Sécurité & conformité

    • Application des standards de sécurité du groupe (RBAC, data-masking).

    • Contribution aux audits internes et aux revues de conformité réglementaire.

  • Collaboration inter-équipes

    • Travail en étroite coordination avec les équipes métiers.

    • Participation aux cérémonies projets et aux ateliers de design.

Compétences techniques

  • TrinoDB (SQL fédéré) — Intermédiaire

  • Apache Iceberg & Parquet — Intermédiaire

  • Dbt (modélisation, tests, documentation) — Intermédiaire

  • Argo Workflows (orchestration) — Intermédiaire à avancé

  • Apache Superset / Metabase (BI) — Intermédiaire

  • OpenMetadata (catalogue, lineage) — Intermédiaire

  • Architecture Medallion (Bronze-Silver-Gold) — Expérience démontrée

  • Migration / refonte d’un Data Lake existant — Expérience significative

  • Gestion de versions (Git), CI/CD (GitHub Actions, GitLab, Jenkins) — Intermédiaire

  • Scripting (Python, Bash) — Intermédiaire

Profil recherché


  1. Compétences intermédiaires en TrinoDB (SQL fédéré)
  2. Compétences intermédiaires en Apache Iceberg et Parquet
  3. Compétences intermédiaires en Dbt (modélisation, tests, documentation)
  4. Compétences intermédiaires à avancées en Argo Workflows (orchestration)
  5. Compétences intermédiaires en Apache Superset et Metabase (BI)
  6. Compétences intermédiaires en OpenMetadata (catalogue, lineage)
  7. Expérience démontrée en architecture Medallion (Bronze-Silver-Gold)
  8. Expérience significative en migration/refonte d’un Data Lake existant
  9. Compétences intermédiaires en gestion de versions (Git) et CI/CD (GitHub Actions, GitLab, Jenkins)
  10. Compétences intermédiaires en scripting (Python, Bash)

D'autres offres idéales pour vous !

Ces entreprises cherchent également d'excellents profils

Collective

Data Engineer

CDI

Dans 2 à 4 semaines

Casablanca, Maroc

Sur site, Hybride

Expertises

Google Cloud PlatformRequêtes SQLData EngineeringPythonPySparkAzureETL/ELTData Modeling

il y a 11 heures

Opportunité exclusive

Unitech Solutions

Data Engineer

430

Freelance

Urgent

Paris, France

Hybride

Expertises

BlockchainData EngineeringPythonSnowflakedbtDagster

il y a 9 heures

Opportunité exclusive

Top Profil

Data Engineer (startup)

Freelance

Urgent

Paris, France

Télétravail, Hybride

Top Recruteur

Expertises

Data EngineeringpandasPostgreSQLdbtIngénieur Data

il y a 2 heures

Opportunité exclusive

Réseau professionnel conçu pour les talents

© 2026. Tous droits réservés.

Freelancers

Créer un profil

Rejoindre un collectif

Solutions et outils