Share this opportunity
Share this opportunity to other talents of your network:
✓ Offer them a visibility boost with clients.
✓ Help your contacts find their next job.
Important information
Contract type:
Freelance
Salary / Daily rate:
700
This job is at 0% commission 🎉Location:
93100 Montreuil, France
Starting date:
Urgent
Work mode:
Hybrid
Published on:
15 April 2026
What they need
Contexte et objectif de la mission
Au sein d'un grand groupe bancaire, une équipe Data & AI développe depuis 5 ans un jumeau numérique du système d'information : une représentation vivante et dynamique de l'infrastructure IT (serveurs, routeurs, applications, interconnexions) alimentée en continu par les données du terrain.
L'architecture repose sur une base graphe massive détenant la cartographie temps réel de l'infrastructure, ainsi que sur une plateforme agentique accessible aux collaborateurs via chatbot web et messagerie collaborative.
Le projet entre en V3. Deux chantiers structurent la feuille de route immédiate :
• la refonte du modèle de données de la base graphe pour corriger le legacy
• la connexion des trois sources de données restantes
La mission s'inscrit dans ce contexte de transformation et d'industrialisation de la plateforme data et graphe.
Missions principales
Pipelines et ingestion
• Concevoir et maintenir les pipelines d'ingestion depuis les sources IT : Dynatrace, ServiceNow, Discovery, Kubernetes, Confluence, SharePoint, Jira
• Connecter les trois sources de données restantes via API, en coordination avec les équipes opérationnelles détentrices de la donnée
• Gérer les flux IT Data Capture, IT Event Capture et IT Doc Capture
Modélisation graphe et qualité des données
• Contribuer à la V3 du modèle de données TigerGraph : correction des erreurs structurelles héritées, absorption du legacy, amélioration de la rétro-compatibilité
• Résoudre les problèmes de déduplication et de merge inter-sources, lorsqu'une même entité est référencée différemment selon les outils
• Modéliser des entités cloud et Kubernetes dans le graphe en gérant les niveaux d'abstraction propres aux environnements hybrides
Infrastructure data
• Opérer et optimiser les instances TigerGraph de plus de 1 To et Memgraph dans un environnement Kubernetes / IaaS interne
• Contribuer à la CI/CD et à l'industrialisation des pipelines
• Participer à la mise en place du pipeline MLOps pour les modèles de maintenance prédictive
Collaboration produit
• Travailler avec les data scientists sur les besoins en données des agents spécialisés (incident, prédictif, Linux, Oracle, etc.)
• Contribuer au projet GraphRAG, en assurant la liaison entre base vectorielle interne et TigerGraph
Stack technique
• Base graphe principale : TigerGraph (GSQL)
• Bases graphe thématiques : Memgraph
• Orchestration agentique : LangGraph (Python)
• RAG / bases documentaires : LightRAG, base vectorielle interne, GraphRAG (à venir)
• Sources : Dynatrace, ServiceNow, Discovery, Kubernetes, Confluence, SharePoint, Jira
• Infrastructure : Kubernetes, IaaS interne
• CI/CD : GitLab CI, ArgoCD
• Observabilité : Dynatrace, Grafana, Prometheus
• ML : Python, PyTorch, scikit-learn, MLflow
Profil recherché
Compétences indispensables
• Expérience solide en bases de données graphe : Neo4j, Memgraph, Amazon Neptune, TigerGraph ou équivalent
• Bonne maîtrise de Python pour les pipelines d'ingestion et les transformations de données
• Expérience des environnements Kubernetes en production
• Capacité à gérer des problèmes complexes de qualité des données : déduplication, normalisation, merge multi-sources
• Une montée en compétence sur GSQL est prévue pendant la mission
Compétences appréciées
• Connaissance des architectures RAG / GraphRAG
• Expérience en environnement bancaire ou grand compte
• Familiarité avec les outils de monitoring IT tels que Dynatrace et ServiceNow
Soft skills
• Autonomie face à une donnée dense et hétérogène
• Capacité à négocier l'accès aux données avec des équipes opérationnelles
• Goût pour les environnements techniques complexes et les projets de longue haleine
Environnement et équipe
L'équipe compte environ 22 personnes, dont 6 data scientists, 3 DevOps, un architecte et des profils ML. L'environnement est orienté R&D appliquée avec un impact direct sur la résolution d'incidents dans un système d'information bancaire de grande ampleur.
Other offers great for you!
These companies are also looking for great profiles
Sapiens Group
Data Scientist - Bases de Données Graph & SQL
Freelance
In 2 to 4 weeks
Meudon, France
Hybrid
Skills
6 days ago
Exclusive opportunity
PROPULSE IT
Expert SCCM
Selon profil
Freelance
In 2 to 4 weeks
92350 Le Plessis-Robinson, France
Hybrid
Skills
13 hours ago
Exclusive opportunity
Sapiens Group
Expert Kubernetes
650€ à 700€
Freelance
Urgent
28000 Chartres, France
Hybrid
Skills
9 hours ago
Exclusive opportunity