Postée il y a 24 heures
Vous êtes passionné(e) par la gestion et l'architecture des données et souhaitez évoluer dans un environnement cloud innovant ? Nous avons une opportunité passionnante pour vous ! Rejoignez notre équipe et contribuez à la conception et à l'optimisation des infrastructures data au service de projets stratégiques.
Vos missions
En tant qu'Architecte / Ingénieur Data, vous serez au coeur de notre stratégie data :
- Concevoir et déployer des architectures data robustes et scalables sur le cloud (Azure, AWS, GCP).
- Développer et optimiser des pipelines de données pour l'ingestion, la transformation et l'exploitation des données.
- Gérer la sécurité et la gouvernance des données, en assurant la conformité avec les réglementations en vigueur (RGPD, audits, etc.).
- Superviser la gestion des coûts cloud (FinOps) et l'optimisation des performances des flux de données.
- Collaborer avec les équipes Data Science, Data Analysts et métier pour garantir des solutions adaptées aux besoins.
- Mettre en place et gérer des API avec Azure Functions, Databricks et API Management.
- Assurer une veille technologique et promouvoir les bonnes pratiques de développement (CI/CD, Git flow, code review, tests).
Expérience : Minimum 5 ans en data engineering / architecture.
Compétences techniques :
- Expertise en Azure (Databricks, Data Factory, Storage Gen2, DEVOPS) et maîtrise de Spark, Hadoop, Kafka, AirFlow.
- Très bonne connaissance de Python, Scala, SQL et des bases de données relationnelles (PostgreSQL, SQL Server, Hive) et NoSQL (MongoDB, Cassandra, CosmosDB).
- Expérience avec les outils DEVOPS : Jenkins, Docker, Kubernetes, Terraform, CI/CD.
- Certifications cloud (Azure, Databricks, AWS) appréciées.
Qualités requises :
- Esprit analytique et rigueur dans la gestion des données.
- Capacité à travailler en équipe et à animer des ateliers techniques.
- Force de proposition et appétence pour l'innovation.
Expérience : Minimum 5 ans en data engineering / architecture.
Compétences techniques :
- Expertise en Azure (Databricks, Data Factory, Storage Gen2, DEVOPS) et maîtrise de Spark, Hadoop, Kafka, AirFlow.
- Très bonne connaissance de Python, Scala, SQL et des bases de données relationnelles (PostgreSQL, SQL Server, Hive) et NoSQL (MongoDB, Cassandra, CosmosDB).
- Expérience avec les outils DEVOPS : Jenkins, Docker, Kubernetes, Terraform, CI/CD.
- Certifications cloud (Azure, Databricks, AWS) appréciées.
Qualités requises :
- Esprit analytique et rigueur dans la gestion des données.
- Capacité à travailler en équipe et à animer des ateliers techniques.
- Force de proposition et appétence pour l'innovation.