Expertises
il y a 9 heures
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Salaire / Taux journalier :
570€/jour
Cette offre est à 0% de commission 🎉Localisation :
92130 Issy-les-Moulineaux, France
Date de démarrage :
2 à 4 semaines
Mode de travail :
Sur site, Hybride
Publié le :
20 avril 2026
Le besoin
Contexte
La raison d’être de la Direction Data & IA Factory (DIAF) d’une grande entreprise du secteur postal est de concevoir, cadrer, construire, industrialiser et opérer des solutions Data & IA robustes, sécurisées et performantes, au service des cas d’usage pilotés par la direction Usages & Transformation, dans un environnement on-premise et en cours de migration vers le cloud.
Enjeux / objectifs :
Industrialisation des solutions Data & IA : concevoir, construire et exploiter les solutions Data & IA, en garantissant leur mise en production, leur robustesse et leur performance dans la durée.
Opérationnalisation de l’offre Data & IA : transformer les offres Data & IA en services et produits industrialisables, capables d’être déployés à l’échelle et réutilisés par les différents métiers de la branche.
Expertise technologique Data & IA : agir comme centre d’expertise sur les outils, méthodes et technologies Data & IA, en définissant les standards techniques et en sécurisant les choix structurants.
Architecture et socles Data : définir et mettre en œuvre l’architecture Data, en assurant la cohérence, la pérennité et l’évolutivité des plateformes et des flux de données.
Gestion du cycle de vie des données : prendre en charge le cycle de vie des données, de leur ingestion à leur exploitation, afin de garantir qualité, traçabilité et exploitabilité des données.
Exploitation des environnements techniques : administrer et faire évoluer les environnements techniques Data & IA, en on-premise et dans le cloud, en assurant disponibilité, sécurité et performance.
Missions
Renforcer la conception, le développement et l’industrialisation des solutions Data & IA au sein des plateformes, dans un environnement technologique on premise (stack Cloudera) et cloud (notamment Azure, Databricks).
Concevoir, développer et industrialiser les chaînes de traitement de données portées par la DIAF, dans le cadre des objectifs d’industrialisation des solutions Data & IA, d’opérationnalisation de l’offre Data & IA et de mise en œuvre des standards techniques.
Fournir une capacité d’intervention opérationnelle et de leadership technique au sein des équipes DIAF en charge de concevoir, développer, tester et documenter les pipelines et services Data en phase de BUILD.
Contribuer au support technique de niveau avancé et à l’amélioration continue des solutions en phase de RUN, en lien avec les équipes métiers et data.
Mettre en œuvre, optimiser et industrialiser les chaînes de traitement de données, en garantissant la qualité, la performance et la fiabilité des solutions Data en phases de BUILD et de RUN.
Expertise opérationnelle
Leadership technique et contribution active au sein des équipes Data & IA.
Conception, développement et industrialisation de solutions Data en environnement complexe.
Delivery orienté qualité, performance, robustesse et exploitabilité des solutions.
Respect des exigences de maintenabilité, sécurité et fiabilité des traitements.
Capacité à travailler en environnement transverse (métiers, Data Scientists, IT, DevOps, sécurité).
Communication efficace : suivi de l’avancement, remontée des risques et alertes, documentation et partage des solutions auprès des équipes.
Expertise technique
Maîtrise des architectures Data distribuées aussi bien On-Premise (Stack Cloudera) que Cloud (Azure, Databricks) : Data Lake / Lakehouse, écosystèmes Big Data.
Très bonne connaissance des frameworks de traitement Spark (batch et streaming) et capacité à analyser et optimiser les performances des jobs.
Expérience des architectures événementielles et streaming (Kafka et frameworks associés).
Mise en œuvre et exploitation de pipelines Data orchestrés (Airflow ou équivalent).
Solide expérience en développement Data Engineering : Scala, Python sur Spark et SQL.
Connaissance des environnements Cloud Data, notamment Azure et des plateformes Data associées (Databricks / Fabric selon contexte).
Maîtrise des principes d’industrialisation : CI/CD, automatisation des déploiements, sécurité et exploitabilité.
Connaissance des architectures orientées services et des socles d’échanges via APIM / API / web services / ESB / CFT / sFTP.
Bonne compréhension des enjeux d’exploitation en production : performance, scalabilité, disponibilité, monitoring, supervision, logging, etc.
Utilisation des outils de gestion de projet et de collaboration : JIRA, Confluence, Microsoft 365 / Teams.
Capacité à travailler efficacement dans un environnement Agile / Scrum / SAFe.
Conditions de travail
Localisation : Issy-les-Moulineaux (92)
Démarrage : 18/05/2026
Durée : 1 an renouvelable
Statut : Freelances & Salariés
TJM d’achat max : 570 €
Deadline réponse : 22/04/2026
Profil recherché
- 7 ans minimum d'expérience en Data Engineering
- Forte expertise en Data Engineering sur environnements industrialisés et multi-environnement (Stack Cloudera en Spark Scala, Azure, Databricks)
- Expérience significative sur des prestations équivalentes (minimum 6 à 9 ans)
- Leadership technique et contribution active au sein des équipes Data & IA
- Conception, développement et industrialisation de solutions Data en environnement complexe
- Delivery orienté qualité, performance, robustesse et exploitabilité des solutions
- Respect des exigences de maintenabilité, sécurité et fiabilité des traitements
- Capacité à travailler en environnement transverse (métiers, Data Scientists, IT, DevOps, sécurité)
- Communication efficace : suivi de l’avancement, remontée des risques et alertes, documentation et partage des solutions
- Maîtrise des architectures Data distribuées On-Premise (Stack Cloudera) et Cloud (Azure, Databricks) : Data Lake / Lakehouse, écosystèmes Big Data
- Très bonne connaissance des frameworks de traitement Spark (batch et streaming) et capacité à analyser et optimiser les performances des jobs
- Expérience des architectures événementielles et streaming (Kafka et frameworks associés)
- Mise en œuvre et exploitation de pipelines Data orchestrés (Airflow ou équivalent)
- Solide expérience en développement Data Engineering : Scala, Python sur Spark et SQL
- Connaissance des environnements Cloud Data, notamment Azure et plateformes associées (Databricks / Fabric)
- Maîtrise des principes d’industrialisation : CI/CD, automatisation des déploiements, sécurité et exploitabilité
- Connaissance des architectures orientées services et socles d’échanges via APIM / API / web services / ESB / CFT / sFTP
- Bonne compréhension des enjeux d’exploitation en production : performance, scalabilité, disponibilité, monitoring, supervision, logging
- Utilisation des outils de gestion de projet et collaboration : JIRA, Confluence, Microsoft 365 / Teams
- Capacité à travailler efficacement dans un environnement Agile / Scrum / SAFe
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Erebus
Senior Data Engineer / Data Platform Engineer (Azure)
Freelance
Dans 8 semaines et plus
Marseille, France
Sur site, Hybride
Expertises
il y a 4 jours
Opportunité exclusive
Nexoris
Senior Data Engineer
470
Freelance
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 8 heures
Opportunité exclusive
LittleBig Connection
Data engineer
650
Freelance
Urgent
Lille, France
Sur site
Expertises
il y a 6 heures
Opportunité exclusive