Expertises
il y a 12 jours
Opportunité exclusive
Publié par un Top Recruteur
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Salaire / Taux journalier :
500-550 € selon profil
Cette offre est à 0% de commission 🎉Localisation :
Paris, France
Date de démarrage :
Urgent
Mode de travail :
Hybride
Publié le :
9 mars 2026
Le besoin
Localisation : Paris
Télétravail : 2 jours par semaine
Durée : Mission longue (12 mois renouvelables)
Démarrage : sous 1 mois environ
Expérience attendue : 5 à 8 ans
Contexte
Dans le cadre du renforcement d’une Data Factory, nous recherchons un Data Engineer confirmé spécialisé Databricks afin de rejoindre une équipe data à taille humaine travaillant au plus près des métiers.
La plateforme data joue un rôle central dans la valorisation des données de l’entreprise, notamment autour de :
la consolidation de la donnée client pour les plateformes de Marketing Automation,
la consolidation des données transactionnelles utilisées pour les outils d’aide à la décision,
l’exploitation et la préparation des données pour des projets de Data Science.
L’équipe intervient sur toute la chaîne de valeur de la donnée : ingestion, transformation, modélisation, exposition BI et accompagnement des métiers.
Le consultant interviendra au sein d’une structure agile, avec une équipe resserrée, où les interactions avec les métiers sont fréquentes et où la communication est essentielle.
Missions
En tant que Data Engineer Databricks, vous serez rattaché à la Data Factory et participerez activement au développement et à l’évolution de la plateforme data.
Vos responsabilités incluront notamment :
Développement et industrialisation data
Concevoir, développer et maintenir des pipelines de données sur Databricks.
Développer des traitements PySpark / Spark SQL pour l’ingestion, la transformation et la préparation des données.
Participer à la mise en œuvre d’architectures Lakehouse (Delta Lake).
Optimiser les pipelines et les tables Delta afin d’améliorer les performances et la scalabilité.
Modélisation et valorisation de la donnée
Modéliser les datasets dans le Cloud afin de faciliter leur exploitation par les équipes métiers et BI.
Alimenter les datamarts et datasets utilisés dans Power BI.
Identifier les sources de données pertinentes et structurer leur intégration dans la plateforme data.
Interaction métier
Comprendre les problématiques métiers et contribuer à la réflexion sur l’exploitation de la donnée pour améliorer la performance des processus.
Travailler en collaboration avec les équipes métiers pour traduire leurs besoins en solutions data concrètes.
Restituer les résultats de manière claire et exploitable via des outils de visualisation.
Qualité, gouvernance et bonnes pratiques
Garantir la qualité, la fiabilité et la conformité des données.
Mettre en place des bonnes pratiques de développement (tests, documentation, qualité de code).
Participer à la mise en place et à l’amélioration de la chaîne CI/CD.
Contribuer à la documentation technique et au partage de connaissances au sein de l’équipe.
Veille technologique
Assurer une veille sur les technologies Data / Cloud / Databricks et proposer des améliorations de la plateforme.
Environnement technique
Data & Big Data
Databricks
PySpark / Spark SQL
Delta Lake
SQL
Cloud & Data Platform
Azure
Azure Data Factory
BI
Power BI
Qualité & DevOps
Git / CI-CD
monitoring des pipelines
Méthodologie
Agile / Scrum
travail en équipe Data Factory
Pourquoi cette mission est intéressante
Intervention au cœur d’une Data Factory stratégique.
Environnement Databricks moderne.
Interaction directe avec les métiers.
Équipe petite, agile et très collaborative.
Mission longue avec de la visibilité.
Profil recherché
Nous recherchons un Data Engineer confirmé, capable d’évoluer dans un environnement technique exigeant tout en étant proche des métiers.
Compétences techniques
Expérience significative sur Databricks en environnement de production (au moins 2 à 3 ans).
Maîtrise de Python / PySpark.
Très bonne maîtrise de SQL.
Expérience dans la mise en place de pipelines de données dans un environnement Cloud (Azure idéalement).
Bonne connaissance de Power BI pour l’exploitation et la restitution des données.
Compréhension des architectures Data Lake / Lakehouse.
Soft skills (critère clé pour le client)
Une attention particulière sera portée à la personnalité et aux qualités relationnelles du consultant.
Le client recherche avant tout une personne agréable à travailler, communicante et collaborative, capable de :
s’intégrer dans une équipe à taille humaine,
travailler au plus près des métiers,
expliquer simplement des sujets techniques complexes,
faire preuve d’autonomie, de curiosité et de proactivité,
contribuer à une bonne dynamique d’équipe.
Langues
Français : courant
Anglais : professionnel (lu, écrit, parlé)
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Neonum
Data Analyst / BI Consultant (4 ans min) – Power BI & Alteryx @ Banque @ Paris
TJM 480 - 500 €
Freelance
Urgent
Paris, France
Hybride
Top Recruteur
Expertises
il y a 9 jours
Opportunité exclusive
Hoxton Partners
Architecte Power BI / Data Engineer Senior (H/F) – Expert Advisory
selon profil
Freelance
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 2 jours
Opportunité exclusive
Easypartner
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)
Freelance
Dans 2 à 4 semaines
Télétravail
Expertises
il y a 2 heures
Opportunité exclusive