Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
CDI
Salaire :
Salaire selon profil
Localisation :
Paris, France
Date de démarrage :
Urgent
Mode de travail :
Hybride
Publié le :
28 avril 2026
Le besoin
Dans le cadre du lancement du programme DevX, qui vise à industrialiser et standardiser les pratiques de développement de la DSI tout en intégrant massivement l'IA générative dans les outils du quotidien (IDE, CI/CD), nous recherchons un profil de Développeur Confirmé.
Vous trouverez ci-dessous le détail des compétences attendues :
1. IA Générative & Modern Engineering (Cœur de la mission)
• IA Agentique & Frameworks : LangChain ou équivalent [Intermédiaire]
• GenAI : LLM, RAG, Prompt Engineering [Intermédiaire]
• Outillage IA : Maîtrise avancée de Github Copilot (ou équivalent) pour le code [Intermédiaire]
• Langage : Python [Confirmé]
2. Socle DevOps & Automatisation
• Culture & Pratiques : Fortes compétences en Craftsmanship, "Everything-as-Code" et manipulation d'API.
• CI/CD & Usine Logicielle : Jenkins, Gitlab-CI, Maven, Artifactory, SonarQube [Intermédiaire/Confirmé]
• IaC & Config Management : Terraform, Ansible [Intermédiaire]
• Conteneurisation : Docker, Kubernetes [Intermédiaire]
• Scripting : Shell [Intermédiaire]
• Sécurité : Gestion des certificats/SSL et bonnes pratiques SecOps [Intermédiaire]
3. Stack de Développement Standard
• Backend : Java / SpringBoot [Intermédiaire]
• Frontend : Angular / Typescript [Intermédiaire]
• Cloud : AWS [Intermédiaire]
• Versioning : Git (flows collaboratifs avancés) [Intermédiaire]
4. Méthodologie & Soft Skills
• Agilité à l'échelle : Maîtrise du cadre SAFe (Note : la certification SPC est un plus, mais une expérience concrète en train SAFe est impérative) [Confirmé]
• Communication : Capacité à synthétiser et exposer un raisonnement technique de façon logique et argumentée (Niveau présentation CoDir DSI).
• Savoir-être : Forte autonomie et capacité à travailler en transverse.
Dans ce contexte DevX + IA générative, quand ton client parle de “contextualisation”, il ne parle pas juste de “mettre du contexte” au sens vague — c’est un sujet central des architectures GenAI, surtout autour du RAG (Retrieval-Augmented Generation).
Je te traduis ça concrètement 👇
⸻
🧠 1. La “contextualisation” = donner les bonnes infos au LLM
Un LLM (type GPT-4 ou équivalent) ne connaît pas tes données internes (docs, code, procédures, etc.).
👉 Donc la contextualisation consiste à :
• récupérer les bonnes données métier
• les injecter dans le prompt
• pour que le modèle réponde de façon pertinente
Sans ça → réponses génériques ou hallucinations.
⸻
🔎 2. Le lien avec RAG (le cœur du sujet)
Dans ta fiche, ils mentionnent explicitement LLM, RAG, Prompt Engineering.
👉 Le RAG, c’est exactement ça :
1. L’utilisateur pose une question
2. Tu fais du requêtage sur tes données (docs, code, KB…)
3. Tu récupères les morceaux pertinents
4. Tu les injectes dans le prompt du LLM
➡️ Ça = contextualisation dynamique
⸻
🧱 3. “Données / requêtage” = la partie technique derrière
Quand ils parlent de requêtage, ça veut dire :
a) Où sont les données ?
• Bases de données
• APIs internes
• Documentation (Confluence, Git, etc.)
• Logs, tickets…
b) Comment on les récupère ?
• recherche classique (SQL, API)
• recherche sémantique (embeddings + vector DB)
Exemple d’outils souvent utilisés :
• Elasticsearch (full-text)
• Pinecone ou équivalent (vector search)
⸻
⚙️ 4. Exemple concret (très DevX)
Imaginons un dev qui demande :
“Comment configurer le pipeline Jenkins pour ce projet ?”
Sans contextualisation :
→ réponse générique
Avec contextualisation :
• tu vas chercher dans :
• repo Git
• doc interne CI/CD
• tu injectes ça dans le prompt
→ réponse spécifique à TON SI
⸻
🤖 5. “IA agentique” (mentionné dans la fiche)
Avec des frameworks comme LangChain :
👉 tu automatises tout ça :
• agent qui décide quoi requêter
• appelle API / DB
• construit le contexte
• appelle le LLM
Donc la contextualisation devient automatique et intelligente
⸻
🧩 6. Pourquoi c’est clé dans un programme DevX
Le but DevX ici :
• intégrer l’IA dans IDE, CI/CD, etc.
👉 donc contextualisation pour :
• suggérer du code basé sur ton repo
• expliquer une erreur CI/CD avec logs internes
• générer du code conforme aux standards DSI
⸻
🧠 En résumé simple
👉 “Contextualisation” =
récupérer les bonnes données internes + les injecter dans le prompt du LLM
👉 “Requêtage” =
comment tu vas chercher ces données (API, DB, vector search)
👉 Le tout =
architecture RAG
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Salutech
Expert Intelligence Artificielle
550
Freelance
Urgent
Toulouse, France
Sur site, Hybride
Expertises
il y a 7 jours
Opportunité exclusive
SixièmeHomme
Consultant IA – Stratégie & Transformation
3500 dhs
Freelance
Urgent
Casablanca, Maroc
Télétravail, Hybride
Top Recruteur
Expertises
il y a 8 heures
Opportunité exclusive
Celaneo
Chef de Projet IT - IA
500
Freelance
Urgent
Paris, France
Hybride
Expertises
il y a 7 heures
Opportunité exclusive