Expertises
il y a 4 jours
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
Freelance
Salaire / Taux journalier :
500€/jour
Cette offre est à 0% de commission 🎉Localisation :
Lille, France
Date de démarrage :
Urgent
Mode de travail :
Sur site, Hybride
Publié le :
1 avril 2026
Le besoin
Contexte
Au sein de la Business Unit Data, les équipes sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein d’une grande entreprise de distribution et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques.
Vous êtes le référent technique sur l’offre de Bases de Données. Votre mission consiste à fournir une infrastructure agile et automatisée aux équipes Data, tout en garantissant une stabilité et une performance de niveau 3 sur des technologies de pointe (Druid, Aurora, ElasticSearch).
Missions
Administration avancée d’Amazon Aurora (Postgres/MySQL) et DynamoDB. Optimisation des performances (indexation, requêtage) et gestion fine de la scalabilité.
Responsable du déploiement, du maintien en condition opérationnelle (MCO) et de l’optimisation de nos clusters Apache Druid et Elasticsearch (ELS).
Industrialisation du provisioning des bases de données via Terraform/Ansible pour permettre aux Data Engineers une autonomie totale en "Self-Service".
Mise en place et maintien des dashboards de santé et des alertes critiques (latence, IOPS, taux de remplissage) pour garantir une proactivité totale.
Gestion et évolution de la flotte de serveurs Amazon EC2 (patching de sécurité, durcissement d'OS, automatisation des images).
Application des politiques de sécurité (IAM, chiffrement au repos et en transit) sur l'ensemble du parc de données.
Monitoring et optimisation des coûts liés au compute et au stockage (instances réservées, nettoyage, cycle de vie).
Développement de scripts et d'outils internes en Python pour automatiser les tâches récurrentes (clonage de bases, anonymisation de données, maintenance de Druid).
Conception de modules Terraform réutilisables pour le déploiement industrialisé d'instances EC2, clusters Druid et bases RDS.
Participation à la création d'une "Internal Developer Platform" permettant aux Data Engineers de provisionner leurs ressources en autonomie via des APIs ou des pipelines CI/CD.
Compétences demandées
Compute (Amazon EC2)
CloudWatch, Datadog
Python
AWS Aurora
Réseau & Sécurité
Terraform
Notions GCP
Support N3 & Troubleshooting
Apache Druid
Amazon DynamoDB
Configuration Management
Elasticsearch
Approche Self-Service (documentation)
Conditions de travail
TJM : 500€
Localisation : Lille
Profil recherché
- Compétences avancées en administration d’Amazon Aurora (Postgres/MySQL) et DynamoDB
- Maîtrise de l’optimisation des performances (indexation, requêtage) et gestion de la scalabilité
- Expérience en déploiement, maintien en condition opérationnelle et optimisation de clusters Apache Druid et Elasticsearch
- Compétences en automatisation via Terraform et Ansible pour le provisioning des bases de données
- Capacité à mettre en place et maintenir des dashboards de santé et alertes critiques (Latence, IOPS, taux de remplissage)
- Gestion et évolution de serveurs Amazon EC2, incluant patching de sécurité et durcissement d’OS
- Application des politiques de sécurité (IAM, chiffrement au repos et en transit)
- Suivi et optimisation des coûts liés au compute et stockage
- Développement de scripts et outils internes en Python pour automatiser les tâches récurrentes
- Conception de modules Terraform réutilisables pour le déploiement industrialisé
- Approche Self-Service avec documentation pour permettre l’autonomie des Data Engineers
- Connaissances en CloudWatch, Datadog, Réseau & Sécurité, Configuration Management et notions de GCP
- Capacité à assurer un support de niveau 3 (N3) et troubleshooting
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Skiils
Lead Database Infrastructure & Platform Engineer SUR LILLE
CDI
Dans 2 à 4 semaines
Lille, France
Hybride
Expertises
il y a 24 jours
Opportunité exclusive
NaxoTech
Lead Database Infrastructure & Platform Engineer
460
Freelance
Urgent
Lille, France
Hybride
Expertises
il y a 19 jours
Opportunité exclusive
LittleBig Connection
Azure Platform Engineer – Data & Analytics Platform
590
Freelance
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 5 jours
Opportunité exclusive