Expertises
il y a 17 heures
Opportunité exclusive
Publié par un Top Recruteur
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Salaire / Taux journalier :
Salaire selon profil
Localisation :
Paris, France
Date de démarrage :
Urgent
Mode de travail :
Hybride
Publié le :
8 avril 2026
Le besoin
Contexte
L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications.
Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc.
Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc.
Des exemples de projets sont nombreux :
Plateforme agentique
Socle vidéo, navigation et calcul des audiences
AI pour recommandation des programmes
Feature Store
Moderniser les flux financiers
Content Platform
Mise en place Kubernetes
Plateforme pour le traitement des données CRM et usage
Partager des informations sur les clients à des partenaires
Piloter plus efficacement l'activité des marchés professionnels
Mettre à disposition des applications de data-selfservice
Missions
Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.)
Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.)
Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs
Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python
Identifier et résoudre les problèmes de performance ou de qualité des données
Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.)
Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données
Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.)
Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme
Conditions de travail
Durée : longue durée
Début : ASAP
Profil recherché
- Vous justifiez d’une expérience de 5 ans minimum dans un environnement similaire
- Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges
- Vous êtes expert dans le développement de solution d'intégration de données
- Vous parlez Anglais couramment
- Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles »
- Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Neonum
Data Scientist Junior (0-3 ans) – Sécurité Financière (LCB-FT) & Data Eng @ IDF
380-400 € selon profil (profil débutant à 3 ans maximum)
Freelance
Urgent
Paris, France
Hybride
Top Recruteur
Expertises
il y a 21 heures
Opportunité exclusive
Visian
Senior Data Engineer Big Data
Freelance
Urgent
Paris, France
Hybride
Top Recruteur
Expertises
il y a 17 heures
Opportunité exclusive
Visian
Data Engineer Fraude/Conformité
CDI
Dans 2 à 4 semaines
Paris, France
Hybride
Top Recruteur
Expertises
il y a 9 heures
Opportunité exclusive