Expertises
il y a 16 jours
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Salaire / Taux journalier :
575
Cette offre est à 0% de commission 🎉Localisation :
Paris, France
Date de démarrage :
2 à 4 semaines
Mode de travail :
Hybride
Publié le :
5 mars 2026
Le besoin
Ingénieur Big Data expérimenté (H/F)
Secteur : Banque / Finance
Localisation : Guyancourt
Télétravail : 2 jours par semaine
Durée : 12 mois renouvelables
Démarrage : dès que possible
Contexte de la mission
Dans le cadre du renforcement d’une plateforme data stratégique au sein d’un grand groupe du secteur bancaire, nous recherchons un Ingénieur Big Data expérimenté afin d’administrer et d’optimiser des solutions Big Data déployées sur un environnement Kubernetes.
Vous interviendrez sur une plateforme data utilisée par différentes équipes métiers et data, avec un fort enjeu de performance, de fiabilité et d’automatisation des déploiements.
Missions
Vous serez notamment en charge de :
Déployer et administrer des applications Big Data telles que Spark, Trino ou Jupyter sur un cluster Kubernetes
Optimiser les performances des traitements et des requêtes (analyse des logs, tuning Spark, optimisation des requêtes SQL)
Assurer le RUN et le support applicatif : diagnostic des incidents, résolution des problèmes et amélioration continue des performances
Accompagner les utilisateurs dans l’optimisation de leurs requêtes et de leurs usages de la plateforme
Mettre en place une approche GitOps afin d’automatiser les déploiements et la gestion des applications
Implémenter des solutions de monitoring et d’observabilité (Prometheus, Grafana, Loki)
Contribuer à la sécurisation de la plateforme et à l’amélioration continue de l’infrastructure data
Environnement technique
Big Data : Spark, Trino / Starburst, MinIO
Conteneurisation et orchestration : Kubernetes, Helm, Kustomize
DevOps / GitOps : Terraform, Ansible, ArgoCD ou FluxCD, GitLab CI/CD, Docker
Monitoring : Prometheus, Grafana, Loki
Scripting : Python, Bash
Profil recherché
Vous disposez d’une solide expérience sur des environnements Big Data et sur l’exploitation de plateformes data à grande échelle.
Compétences attendues :
Expertise sur Spark, Trino ou des moteurs SQL distribués
Expérience confirmée sur Kubernetes et les environnements conteneurisés
Bonne maîtrise des outils DevOps et des approches d’automatisation (Terraform, Ansible, GitOps)
Expérience en optimisation des performances des traitements data
Bonne compréhension des problématiques de monitoring et de gestion des incidents
Qualités attendues
Esprit analytique et capacité à diagnostiquer des problèmes complexes
Rigueur et sens des priorités dans un environnement exigeant
Capacité à accompagner et conseiller les utilisateurs
Proactivité dans l’amélioration des systèmes et des processus
Anglais professionnel apprécié.
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Cosigma
Tech lead
CDI
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 1 jour
Opportunité exclusive
Hoxton Partners
Consultant Senior SAP SD Sales& Logistics – S/4HANA Greenfield Retail Luxe (H/F)
selon profil
CDI
Urgent
Paris, France
Hybride
Expertises
il y a 19 heures
Opportunité exclusive
Almatech
Senior Fullstack Engineer - Startup
100-120K euros
CDI
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 9 heures
Opportunité exclusive