À propos d’iPepper
iPepper, c'est à la fois une société de conseil et de solutions logicielles. Nous sommes une communauté experte et humaniste qui accompagne les meilleurs Talents de la Data Tech dans leurs missions auprès de clients impactants.
Nous accompagnons nos clients, start-ups, PME, grandes entreprises, dans leurs projets stratégiques, en valorisant les talents dans un cadre où l’intelligence collective et le bien-être sont au cœur de notre approche. Nous croyons que c'est en créant une communauté soudée, épanouie et en perpétuelle évolution que nous répondrons au mieux aux futurs grands enjeux de la DataTech.
En rejoignant iPepper en tant que consultant, vous intégrez un réseau dynamique, humain et bienveillant, avec un accompagnement personnalisé tout au long de votre mission.
Le contexte de la mission
Dans le cadre d’un projet stratégique mené chez l’un de nos clients, nous recherchons un(e) Data Engineer pour contribuer à la scalabilité, à la performance et à l’industrialisation des traitements de données.
Vous évoluerez dans un environnement multi-cloud (Azure, GCP & AWS) et manipulerez des outils modernes : DBT, Snowflake, Airflow, MLflow, Kubeflow...
Vos missions
Architecture & Déploiement Cloud
- Participer à la définition de l’architecture technique en lien avec le backlog produit
- Collaborer avec le PO, les DevSecOps et les architectes de la plateforme Cloud
- Automatiser et sécuriser les environnements (IaC, DevOps, monitoring…)
Coaching & Transmission
- Accompagner les équipes dans la montée en compétences
- Vulgariser les enjeux techniques auprès d’interlocuteurs non techniques
- Promouvoir les bonnes pratiques DevSecOps
Exploitation & Data Engineering
- Garantir la stabilité et la performance des environnements de production
- Concevoir des pipelines de données robustes et optimisés
- Participer à la création d’algorithmes de transformation et à la valorisation des données (visualisation, ML)
Compétences clés
- Maîtrise des environnements Cloud (Azure, GCP, AWS).
- Expertise en DBT, Snowflake, Airflow, Prefect
- Expérience en MLOps (Kubeflow, MLflow, Vertex AI, SageMaker…)
- Très bon niveau en Python, SQL, Spark
- Sens de l’optimisation technique et économique des infrastructures data & ML
Profil recherché
- Vous possédez un diplôme d’ingénieur informatique et/ou un Master avec une spécialité data.
- Vous justifiez de 3 à 4 ans d’expérience minimum sur un poste similaire en environnement cloud.
- Vous avez une expertise dans l’utilisation d’outils tels que Spark, Python, Scala, et une solide -compréhension des processus ETL.
- Vous êtes à l’aise avec les services cloud (Azure, GCP, AWS) et les plateformes de données comme Snowflake ou Databricks.
- Vous maîtrisez le français et l’anglais, à l’écrit comme à l’oral.
- Votre capacité d’analyse et votre sens de la résolution de problèmes sont des atouts clés pour cette mission.
Conditions & Collaboration
Il s’agit d’une mission en freelance 6 mois renouvelable, un avec démarrage rapide.