Postée il y a 24 heures
Vous souhaitez évoluer dans un environnement cloud et data moderne ? Rejoignez une équipe engagée pour développer et optimiser des pipelines de données en lien avec les équipes plateforme et métier. Vous serez au cœur du développement des systèmes de traitement des données, garantissant sécurité, qualité et performance.
🎯 Missions à réaliser
- Concevoir, développer et sécuriser les systèmes de traitement des données
- Collaborer avec les équipes Platform & Run pour optimiser les pipelines de données
- Implémenter et intégrer les données pour alimenter les solutions et partenaires
- Structurer et organiser les bonnes pratiques et méthodologies pour garantir la performance et la maintenabilité
💡 Environnement Technique
📌 Data Platform : Databricks, Google Cloud Platform
📌 Langages : Python (POO), SQL, Scala
📌 Orchestration : Airflow
📌 Delivery : Git, GitHub, Jinja
🔹 3 ans d'expérience minimum HORS alternance et stages
🔹 Maîtrise avancée de Python (POO), Databricks, Airflow, SQL et Git / Github
🔹 Expérience dans la structuration et la réutilisabilité des livrables
🔹 Connaissance des méthodologies Agile, CI/CD et documentation
🔹 Curiosité technique et esprit d’optimisation