Expertises
il y a 18 heures
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Salaire / Taux journalier :
Salaire selon profil
Localisation :
Paris, France
Date de démarrage :
Urgent
Mode de travail :
Hybride
Publié le :
15 avril 2026
Le besoin
Contexte
Nous recherchons un freelance pour Paris.
Pour réaliser cette ambition, la Data n'est pas un simple support : elle est la source de vérité qui guide chaque prise de décision et modèle l'innovation de notre écosystème. L'équipe Core Data Product HR est au centre de cette dynamique. Son rôle est capital : garantir l'accessibilité, la fiabilité et la qualité des données qui alimentent la performance financière de l'entreprise.
Notre équipe est composée d'un Product Manager et de plusieurs Data Engineers. Elle est en lien avec ses consommateurs de donnée et s'impose de bien comprendre les besoins analytiques. Au sein de cette équipe, nous cultivons l'excellence technique, l'impact business et une collaboration sans aucune frontière.
En tant que Data Engineer au sein de l'équipe Core Data Product HR, vous êtes une personne engagée, dynamique et proactive avec une forte appétence Business. Vous ne vous contentez pas de maintenir des pipelines ; vous les concevez pour générer de la valeur et accélérer l'innovation sur notre écosystème. Vous rejoignez l'équipe à un moment clé où nous menons une revue globale de notre modélisation et de notre architecture. Vous jouerez un rôle pivot dans le succès des nouveaux projets d'intégration d'outils et l'évolution de nos systèmes.
Missions
Concevoir, construire et maintenir des infrastructures et des pipelines robustes et performantes.
Garantir une architecture et une modélisation des flux optimisés et évolutives.
Apporter une expertise et aider l'équipe à prendre les meilleurs choix techniques.
Transformer la stack legacy vers les nouveaux standards de la Data Platform.
Assurer la qualité, la fiabilité et la gouvernance des données Finance.
Maîtriser la qualité du code et promouvoir les meilleures pratiques.
Collaborer en environnement Agile au sein d'une équipe internationale (Anglais).
Garantir un RUN de qualité (SLA) selon le principe "You build it, you run it".
Respecter les engagements de sprint et s'inscrire dans une démarche d'amélioration continue.
Garantir l'intégrité et la confidentialité des données sensibles, ainsi que le contrôle des accès.
Outils & Environnement
Plateforme Data Core (Cloud & Gouvernance)
Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide.
Langages & Modélisation
Maîtrise avancée et pratique SQL pour la modélisation et l'interrogation des données.
Une expérience avec DBT (Data Build Tool) serait un plus.
Maîtrise avancée et pratique de PySpark pour la transformation et le traitement de données.
Orchestration & MLOps
Solide expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes garantissant la fiabilité de notre chaîne de production Data.
Méthodologie & Qualité
Travail en environnement agile (Scrum/Kanban).
Pratique quotidienne de la revue de code et des principes de CI/CD (intégration et déploiement continus) via des outils comme GitHub.
Maîtrise des contraintes RGPD et des méthodes associées (encryption, masquage, suppression des données).
Communication Internationale
Maîtrise de l'anglais indispensable pour interagir au quotidien avec notre équipe internationale et nos partenaires globaux.
Compétences clés
PYTHON : Expert
PYSPARK : Confirmé
DBT : Élémentaire
AGILE : Confirmé
GITHUB : Confirmé
Optimisation SQL : Expert
AWS : Avancé
DATABRICKS : Confirmé
Apache Airflow : Confirmé
Langues
Anglais courant
Profil recherché
- Expertise sur DataBricks pour la gestion des clusters, l'optimisation des performances des workloads Big Data et la mise en place d'une gouvernance solide
- Maîtrise avancée et pratique de SQL pour la modélisation et l'interrogation des données
- Une expérience avec DBT (Data Build Tool) serait un plus
- Maîtrise avancée et pratique de PySpark pour la transformation et le traitement de données
- Solide expérience avec Airflow pour la création, le monitoring et l'optimisation des DAGs complexes
- Travail en environnement agile (Scrum/Kanban)
- Pratique quotidienne de la revue de code et des principes de CI/CD via des outils comme GitHub
- Maîtrise des contraintes RGPD et des méthodes associées (encryption, masquage, suppression des données)
- Maîtrise de l'Anglais indispensable pour interagir au quotidien avec une équipe internationale
- PYTHON Expert
- PYSPARK Confirmé
- DBT Élémentaire
- AGILE Confirmé
- GITHUB Confirmé
- Optimisation SQL Expert
- AWS Avancé
- DATABRICKS Confirmé
- Apache Airflow Confirmé
- Anglais Courant
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Espace Freelance
Data Engineer Senior - Freelance
Freelance
Urgent
Paris, France
Hybride
Expertises
il y a 18 heures
Opportunité exclusive
Elevate
Data engineer - IA générative & Databricks
Freelance
Dans 4 à 8 semaines
Paris, France
Hybride
Expertises
il y a 17 heures
Opportunité exclusive
LeHibou
Data Engineer Microsoft – Mission freelance – Paris
400
Freelance
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 11 heures
Opportunité exclusive