Postée il y a 29 jours
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique dans le secteur bancaire et participer à la mise en ?uvre et à l?optimisation des chaînes de traitement des données. L?objectif principal est de récupérer, traiter et mettre à disposition des données enrichies, tout en exploitant la puissance d?un Data Lake.
Vos principales missions :
Mettre en ?uvre les chaînes de traitement des données : ingestion, validation, croisement et intégration dans le Data Lake.
Développer dans le respect des règles d?architecture définies.
Documenter les user stories avec le Product Owner.
Produire des scripts de déploiement et prioriser les corrections d?anomalies.
Automatiser les tests fonctionnels et participer à la chaîne de delivery continue.
Assister les équipes d?exploitation et collaborer en mode Scrum/Kanban.
Compétences techniques indispensables :
Plateforme et environnement GCP (Google Cloud Platform).
Environnement GKE (Google Kubernetes Engine).
Stockage : HDFS / GCS.
Traitement : Maîtrise de Spark, Kafka, Scala.
Planification : Airflow / Composer.
DWH : SQL, BigQuery, BigTable.
Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build.
Méthodologies : Scrum, Kanban, Git.
Aspects humains recherchés :
Capacité à travailler en équipe, en mode Agile (Scrum/Kanban).
Excellentes compétences relationnelles et communicationnelles.
Curiosité et sensibilité aux évolutions technologiques.
Profil candidat:
Expérience : Minimum 5 ans en tant que Data Engineer dans un contexte similaire.
Expertise technique :
Solide maîtrise de l?écosystème GCP (GKE, BigQuery, BigTable).
Compétences confirmées en Spark, Kafka, Scala, et Airflow.
Expérience avec les outils d?intégration et de déploiement continu : Terraform, Jenkins, Docker.
Soft skills :
Excellente capacité à travailler en équipe (Scrum/Kanban).
Sens du détail et rigueur dans la documentation et le développement.
Curiosité pour les nouvelles technologies et capacité d?adaptation.