Expertises
il y a 10 heures
Opportunité exclusive
Partagez cette opportunité
Partagez cette opportunité à quelqu’un de votre réseau :
✓ Offrez-lui un boost de visibilité auprès du client.
✓ Aidez vos contacts à trouver leur prochain job.
Information importante
Type de contrat:
CDI
Salaire / Taux journalier :
560
Cette offre est à 0% de commission 🎉Localisation :
93400 Saint-Ouen-sur-Seine, France
Date de démarrage :
Urgent
Mode de travail :
Hybride, Sur site
Publié le :
14 avril 2026
Le besoin
Notre client dans le secteur Autre recherche un/une Data Engineer IA LLM - Snowflake H/F
Description de la mission:
Le client est un acteur majeur du secteur Luxe & Cosmétique.
Contexte de la mission :
L'équipe Data & Analytics Corporate - IT Global pilote les plateformes de données et d'analytics à l'échelle mondiale. Elle couvre des domaines métier stratégiques - Ressources Humaines, Campus, Finance - et opère sur un socle technologique bimodal :
• Snowflake - plateforme analytique centrale du groupe, hébergeant notamment l'ensemble des données RH consolidées à l'échelle mondiale
• Google Cloud Platform (GCP) - infrastructure de traitement et d'orchestration des pipelines data (BigQuery, Cloud Composer, GCS)
L'équipe s'inscrit dans l'ambition OGSM 2026 du groupe : devenir le partenaire business le plus agile pour les domaines Corporate, en délivrant des solutions Data & AI à haute valeur ajoutée. Parmi les axes stratégiques clés : lancer des cas d'usage IA innovants, activer les capacités BTAP (Beauty Tech Agentic Platform).
Dans ce contexte, l'équipe engage un virage fort vers l'IA générative et agentique sur Snowflake, en capitalisant sur l'offre Snowflake Cortex et l'écosystème Snowflake Intelligence. Elle recrute un(e) AI LLM Engineer expérimenté(e) pour co-construire avec les équipes internes un framework IA robuste, industrialisé et scalable autour des données RH.
________________________________________
🎯 Mission : Framework IA Agentique - Talk to My HR Data
Objectif stratégique
La mission consiste à concevoir et déployer, en collaboration étroite avec l'équipe interne, une architecture d'agents IA reposant sur l'écosystème Snowflake, capable de permettre aux utilisateurs métier RH d'interroger en langage naturel les données RH hébergées dans Snowflake - le tout dans un cadre sécurisé, gouverné et industrialisable à l'échelle du groupe.
Ce projet s'inscrit dans la continuité des travaux menés sur le projet People Analytics & données de paie et de l'exploration déjà initiée sur Snowflake Cortex / Talk to Data, dont les premiers retours ont démontré un fort potentiel de démonstration de valeur, tout en identifiant des limites sur les cas d'usage complexes (hallucinations, profondeur d'analyse). L'objectif de cette mission est précisément de franchir ce cap : passer du PoC à l'industrialisation.
________________________________________
Périmètre technique de la mission
1. 🏗️ Conception du Framework IA Snowflake
• Définir l'architecture cible du framework agentique sur Snowflake (couches LLM, orchestration, mémoire, routing)
• Établir les patterns de développement réutilisables (agents, tools, prompts) applicables à plusieurs domaines métier
• Documenter les standards de développement et les bonnes pratiques pour l'équipe interne
2. 🤖 Développement d'Agents & Tools
• Développer des agents Snowflake Cortex capables de répondre à des questions RH complexes en langage naturel (effectifs, turnover, coûts salariaux, présence, apprentissage)
• Créer des tools spécialisés (fonctions SQL sémantiques, retrieval augmenté, agrégations métier) connectés aux objets Snowflake (tables, vues, Iceberg)
• Gérer la chaîne de raisonnement (chain-of-thought, ReAct pattern) pour limiter les hallucinations et améliorer la fiabilité des réponses
3. 🔌 Création de Serveurs MCP (Model Context Protocol)
• Concevoir et déployer des serveurs MCP exposant les données et fonctions Snowflake comme contexte structuré pour les LLMs
• Assurer l'interopérabilité entre le contexte MCP, les agents Cortex et les interfaces utilisateurs (Streamlit, Power BI)
• Sécuriser les accès aux serveurs MCP dans le respect des politiques de gouvernance des données RH du groupe (RGPD, confidentialité des données employés)
4. 💬 Interface Streamlit - Talk to My Data RH
• Développer des applications Streamlit in Snowflake offrant une interface conversationnelle intuitive pour les utilisateurs métier RH
• Intégrer les agents IA dans des dashboards analytiques existants (Headcount, Turnover, People Cost, Learning KPI Cockpit)
• Gérer l'expérience utilisateur : historique de conversation, feedback loop, gestion des erreurs et des réponses incertaines
5. 📊 Gouvernance & Observabilité IA
• Mettre en place des mécanismes de monitoring des appels LLM (tokens consommés, latence, qualité des réponses)
• Contribuer à la maîtrise des coûts GenAI sur Snowflake (optimisation des modèles utilisés, caching, gestion des warehouses)
• Documenter le ROI des cas d'usage déployés (adoption, précision des réponses, réduction du temps de traitement des requêtes métier)
________________________________________
🔧 Compétences techniques requises
Indispensables
• ✅ Snowflake - minimum 3 ans d'expérience :
o Modélisation avancée, SQL Snowflake, Streams, Tasks, Dynamic Tables
o Gestion des rôles, Row Access Policies, Column Masking (sécurité des données RH)
o Snowpark (Python) pour le développement de logique métier avancée
• ✅ Snowflake Cortex :
o Cortex Analyst / Talk to Data : configuration sémantique, semantic models YAML
o Cortex Search : indexation et retrieval augmenté (RAG) sur données structurées/non structurées
o Cortex LLM Functions : COMPLETE, SUMMARIZE, CLASSIFY, EXTRACT_ANSWER
o Cortex Code (CoCo) : génération de code SQL/Python assistée par LLM
o Cortex CLI : déploiement et gestion des ressources Cortex en ligne de commande
• ✅ Snowflake Intelligence : conception et déploiement d'agents IA dans l'écosystème Snowflake
• ✅ Streamlit in Snowflake : développement d'applications conversationnelles et analytiques embarquées
• ✅ Serveurs MCP (Model Context Protocol) : conception, développement et exposition de serveurs MCP connectés à Snowflake
• ✅ Python avancé : LangChain / LlamaIndex ou frameworks agentiques équivalents, gestion des prompts, orchestration LLM
• ✅ Maîtrise des concepts RAG, ReAct, Chain-of-Thought, Function Calling
Appréciées
• ⭐ Connaissance du domaine RH / People Analytics (effectifs, paie, formation, turnover)
• ⭐ Expertise Power BI : connexion Snowflake, co-exposition de résultats IA dans des rapports Power BI
• ⭐ Connaissance des architectures BTDP / Medallion et des standards data groupe
• ⭐ Sensibilité RGPD & confidentialité des données employés
• ⭐ Expertise en contexte Grand Compte / Multinational
________________________________________
🤝 Environnement de travail & organisation
Le consultant sera intégré à l'équipe Data & Analytics Corporate et travaillera en binôme avec les Data Engineers et le Tech Lead internes. Il/elle interagira régulièrement avec :
• L'équipe Data Corporate interne (Tech Lead, Data Engineers)
• Les équipes métier RH (People Analytics, HR Data Quality, Headcount & Turnover reporting) - pour la compréhension des cas d'usage et la validation des réponses des agents
• L'équipe Snowflake dans le cadre du partenariat stratégique Groupe / Snowflake, incluant des jours d'assistance technique Snowflake planifiés
• Les partenaires data (IBM, Devoteam, Accenture) - pour la cohérence avec le run opérationnel et les projets en cours
Organisation
• Gestion du backlog via ServiceNow et rituels agiles (bi-weekly, stand-ups)
• Ateliers techniques réguliers avec l'équipe Snowflake (assistance technique dédiée)
• Présence sur site à Saint-Ouen 3 jours minimum par semaine (ateliers de conception, démos métier)
• Environnement international : documentation et échanges en français et anglais
________________________________________
📐 Critères de sélection
Expérience Snowflake (3 ans min.) ⭐⭐⭐ Critique
Maîtrise Snowflake Cortex (Analyst, Search, LLM) ⭐⭐⭐ Critique
Snowflake Intelligence & Agents ⭐⭐⭐ Critique
Cortex Code & Cortex CLI ⭐⭐ Importante
Création de serveurs MCP ⭐⭐⭐ Critique
Streamlit in Snowflake ⭐⭐ Importante
Python & frameworks LLM (LangChain, LlamaIndex) ⭐⭐ Importante
Connaissance domaine RH / People Analytics ⭐ Appréciée
Expérience Power BI ⭐ Appréciée
________________________________________
📝 Profil recherché
• Formation : Bac+5 en Informatique, Data Science, IA ou domaine équivalent
• Expertise : Minimum 3 ans sur Snowflake avec une spécialisation avérée sur l'offre IA Snowflake Cortex
• Langues : Français courant - Anglais professionnel (contexte international)
________________________________________
📌 Informations complémentaires
• Démarrage souhaité : Dès que possible
TT : 2 jours/semaine
Profil recherché
Compétences / Qualités indispensables :
Snowflake - minimum 3 ans d'expérience, Snowflake Cortex, Snowflake Intelligence, Streamlit in Snowflake, Serveurs MCP, Python avancé, Maîtrise des concepts RAG, ReAct, Chain-of-Thought, Function Calling, Formation : Bac+5 en Informatique, Data Science, IA ou domaine équivalent, Anglais professionnel
Compétences / Qualités qui seraient un + :
Appréciées • ⭐ Connaissance du domaine RH / People Analytics (effectifs, paie, formation, turnover) • ⭐ Expertise Power BI : connexion Snowflake, co-exposition de résultats IA dans des rapports Power BI • ⭐ Connaissance des architectures BTDP / Medallion et des standards data groupe • ⭐ Sensibilité RGPD & confidentialité des données employés • ⭐ Expertise en contexte Grand Compte / Multinational
Informations concernant le télétravail :
2 jours
D'autres offres idéales pour vous !
Ces entreprises cherchent également d'excellents profils
F.r.e.e.f.i.n.d.e.r.
Data eng. GCP
Freelance
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 14 heures
Opportunité exclusive
LeHibou
Data Engineer - Experimenté H/F
550
CDI
Urgent
93400 Saint-Ouen-sur-Seine, France
Hybride, Sur site
Expertises
il y a 11 heures
Opportunité exclusive
LeHibou
Freelance – Ingénieur MLOps / IA Générative On-Premise (H/F)
700
Freelance
Dans 2 à 4 semaines
Paris, France
Hybride
Expertises
il y a 8 heures
Opportunité exclusive