Expertises
il y a 19 minutes
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
CDI
Salaire :
Autour de 43k
Localisation :
Lille, France
Date de démarrage :
4 à 8 semaines
Mode de travail :
Hybride
Publié le :
28 avril 2026
Le besoin
Contexte
la mobilery conçoit et développe des produits numériques web et mobile. Chez nous, l'IA n'est pas un module en option : c'est le levier central de notre approche, du cadrage au déploiement. On travaille en architecture provider-agnostic, avec des pipelines LLM multi-modèles, et une vraie culture du context engineering, appliquée autant à notre workflow interne qu'aux produits qu'on livre à nos clients.
la mobilery fait partie d'UMITEK, un AI Transformation Group qui regroupe six expertises complémentaires (architecture d'entreprise, data & IA, software engineering, cybersécurité, produits numériques, cloud). UMITEK accompagne plus de 50 grands comptes et ETI dans leur transformation IA.
Le poste
On cherche un·e développeur·euse en montée sur les sujets IA.
Pas un·e expert·e qui maîtrise déjà toute la chaîne LLM, mais quelqu'un qui a autour de 5 ans d'expérience en développement logiciel, qui a déjà mis les mains dans une API LLM, et qui veut professionnaliser sa pratique sur des sujets de production : guardrails, fiabilité, agents, RAG, MCP.
Concrètement, c'est un poste pour toi si :
tu codes déjà solidement en backend : Node.js, Python ou Java, au choix, mais au moins un des trois bien maîtrisé ;
tu as déjà touché à un IDE AI-first (Cursor, Claude Code, GitHub Copilot) et tu veux en faire ton outil principal ;
tu as déjà intégré une API LLM dans un projet (pro, perso, side-project — peu importe, montre-nous le code) ;
tu penses "fiabilité avant features" quand on parle de mettre de l'IA en production
Tu progresseras au contact d'une équipe AI-first qui livre déjà des produits IA en prod chez des grands comptes. Une partie du périmètre sera dans ta zone de confort dès le départ ; l'autre est à construire avec nous. C'est volontaire : on cherche quelqu'un qui progresse avec les projets, pas quelqu'un qui sait déjà tout.
Missions
Au démarrage
Intégrer des APIs LLM (Claude, Gemini, OpenAI) dans des produits web et mobile en production
Coder au quotidien avec Claude Code / Cursor et contribuer à nos frameworks de règles IA (CLAUDE.md, AI Rules)
Concevoir des prompts système structurés et des schémas de sortie JSON pour des cas d'usage clients réels
Brancher les pipelines IA aux bases Supabase / PostgreSQL et aux Cloud Functions Firebase
Contribuer à l'intégration des features IA côté apps Flutter (mobile) et Nuxt 3 / Vue 3 (web)
Au fur et à mesure
Concevoir des pipelines LLM multi-couches avec validation déterministe entre les étapes
Mettre en place des guardrails non-contournables, du confidence scoring et des techniques anti-hallucination
Déployer des agents IA spécialisés et intégrer des serveurs MCP (Model Context Protocol)
Construire des systèmes RAG avec n8n + Pinecone
Suivre les coûts LLM par appel, par modèle, dans le temps (cost tracking, dashboards)
Mettre en place des workflows Human-in-the-Loop sur les chaînes IA critiques
Stack hiérarchisée
Cette liste est une carte de notre écosystème, pas un cahier des charges exhaustif. On ne cherche pas quelqu'un qui coche toutes les cases.
Must-have (ce sur quoi tu es à l'aise dès l'arrivée)
Un backend solide : Node.js, Python OU Java (au moins un des trois bien maîtrisé)
TypeScript côté front
Au moins une API LLM utilisée en pratique (Claude, OpenAI, Gemini)
Au moins un IDE AI-first utilisé régulièrement (Cursor, Claude Code, Copilot…)
Fondamentaux : Git, CI/CD, conception d'APIs REST
Nice-to-have (un plus, jamais un filtre éliminatoire)
Expérience mobile Flutter / Dart
Web Nuxt 3 / Vue 3
n8n pour l'orchestration de workflows
Notions de RAG et de vector databases (Pinecone ou équivalent)
Architectures Monorepo, Clean Architecture, GitHub Actions, Fastlane
À découvrir avec nous (on t'embarque dessus)
Model Context Protocol (MCP) : connexion d'agents IA à des bases et des APIs
Architecture provider-agnostic multi-LLM (Claude / Gemini / Mistral / OpenAI)
Pipelines multi-couches avec validation déterministe entre étapes
Mémoire persistante inter-sessions et context engineering avancé
Guardrails 100% code, scoring de risque, cost tracking
Extraction multimodale (images, PDFs, documents scannés → JSON structuré)
Profil recherché
Profil recherché
autour de 5 ans d'expérience en développement logiciel
Maîtrise pratique d'au moins un langage backend parmi Node.js, Python ou Java
Une expérience concrète d'intégration d'une API LLM : en pro, en perso, ou en side-project (on regardera le code, pas le diplôme)
Curiosité réelle pour la culture AI-first : tu utilises déjà Cursor / Claude Code / Copilot au quotidien, ou tu meurs d'envie de t'y mettre sérieusement
Sens de la fiabilité : tu préfères une feature qui marche à coup sûr à trois features qui hallucinent
Tu sais dire "je ne sais pas, je vais creuser" et tu creuses vraiment
Conditions de travail
Contrat : CDI, temps plein
Localisation : villa à Wasquehal (métropole lilloise)
Télétravail hybride (2/3 jours)
Rémunération : autour de 43k€ brut annuel selon profil
Avantages :
RTT
Mutuelle prise en charge à 100%
Transports remboursés à 100%
Carte culture 800€ / an
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
Celad
Business Analyst Test - Confirmé (F/H)
450-500
Freelance
Urgent
92000 Nanterre, France
Hybride
Expertises
il y a 6 heures
Opportunité exclusive
Salutech
Data Engineer confirmé
550
Freelance
Urgent
Paris, France
Hybride
Expertises
il y a 2 heures
Opportunité exclusive
iSupplier
PMO / Planificateur de Fabrication Confirmé
Freelance
Urgent
Cherbourg-en-Cotentin, France
Sur site
Expertises
il y a 4 minutes
Opportunité exclusive