Groupe Aptenia
Postée il y a 24 heures
Vos principales missions
Contribuer à la migration de l?environnement Hadoop / Spark vers le cloud GCP
Participer au développement et à l?optimisation des traitements Big Data
Concevoir et maintenir des pipelines de données performants et scalables
Mettre en place des architectures serverless et clusterisées sur GCP (DataProc, BigQuery, GSC)
Assurer la qualité et la robustesse des solutions déployées
Accompagner et coacher les équipes internes sur les bonnes pratiques Cloud et Big Data
Profil candidat:
Compétences techniques indispensables :
Hadoop & Spark
Écosystème GCP
Java 8 / 11 & Python (Spring Boot)
Git, Agile / Scrum
Soft skills recherchées :
Communication et leadership
Autonomie et esprit collaboratif
Capacité à accompagner et coacher les équipes