Rôle principal
Industrialiser les modèles d’intelligence artificielle sur le cluster Kubernetes, structurer les pipelines d’entraînement et d’inférence, et accompagner les équipes Data Scientists et métiers dans leurs projets IA.
Missions
- Concevoir et mettre en place des pipelines MLOps / LLMOps (CI/CD IA) robustes et automatisés.
- Gérer les workflows d’entraînement des modèles IA.
- Optimiser l’utilisation des GPU via batching, mixed precision, et parallélisation multi-GPU.
- Déployer des API d’inférence performantes et scalables.
- Mettre en place et gérer un registre (registry) des modèles IA.
- Assurer la gestion des versions des datasets et des modèles.
- Effectuer une veille technologique constante sur les outils et méthodes IA.
- Apporter un support technique aux équipes R&D.
- Réaliser des benchmarks de performance des modèles et des pipelines.
Compétences clés
- MLOps / LLMOps : Expérience dans la mise en place et la gestion de pipelines MLOps, maîtrise des outils tels que MLflow, Weights & Biases, Kubeflow, Argo Workflows, GitLab CI, GitHub Actions, vLLM.
- Intelligence Artificielle : Expertise en IA générative, deep learning, utilisation des frameworks Hugging Face.
- Optimisation GPU : Maîtrise de CUDA, techniques de batching, mixed precision, multi-GPU.
- Langages de script : Python, Bash.
- DevOps : Intégration et automatisation avec Kubernetes, Docker, gestion des déploiements automatisés.
Profil recherché
Vous justifiez d’une expérience professionnelle confirmée dans un poste similaire, et maîtrisez les environnements suivants :
- Formation : Bac+5 en informatique, data science, IA ou domaine équivalent.
- Expérience : Minimum 3 ans en MLOps / LLMOps ou ingénierie IA.
- Qualités : Autonomie, rigueur, esprit d’équipe, capacité à accompagner les équipes métiers et R&D.
- Langues : Français courant, anglais technique.
Match votre profil
POSTULER