Postée il y a 3 jours
Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.
? Connaissances techniques :
- Expérimenté(e) sur la mise en place des flux d?ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)
- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)
- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)
- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).
- Notions des outils d?explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Langue(s) : Anglais : Opérationnel (usage quotidien)
ACTIVITES PRINCIPALES & LIVRABLES
? Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs?) en relation avec les streams Leaders et l?architecte Design Authority.
? Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l?amélioration des processus, l?administration de la TMC et l?entretien du lien avec l?éditeur et le support.
? Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.
? Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).
? Evaluer et valider les estimations de l?infogérant et des sous-traitants.
? Accompagner et superviser les missions confiées aux sous-traitants.
? Analyse, conception et mise en place d?un monitoring centralisé des flux Datawarehouse.
Profil candidat:
Je suis à la recherche pour un de nos clients d'un Expert ELT & Data & API.
? Connaissances techniques :
- Expérimenté(e) sur la mise en place des flux d?ingestion des données (ETL et ELT, Talend, DBT, Snowpipe)
- Maitrise des outils de DevOps et des langages de programmation (Java, Spark, ELK, Kubernetes, Gitlab, Jenkins, Spring Framework, Unix, Shell, Python)
- Connaissance bases de données relationnelles et non relationnelles (Snowflake, Oracle, Vertica)
- Connaissance ou experimentation de Snowflake (Snowpipe, Virtual warehouse, Stage, Time-Travel, SnowPark).
- Notions des outils d?explorations de données mis à disposition sur le Datalake/Datalab (SAS, Qliksense, Dataiku, Jupyter).
- Technologies complémentaires : Active Directory, SSO, AWS s3, AWS Bedrock, wso2, Jfrog Artifactory, Docker, MLflow, Airflow, Terraform.
Langue(s) : Anglais : Opérationnel (usage quotidien)
ACTIVITES PRINCIPALES & LIVRABLES
? Être le référent technique sur plusieurs applicatifs et composantes sur socles IT (DWH, CI/CD, Datalab, APIs?) en relation avec les streams Leaders et l?architecte Design Authority.
? Apporter le support nécessaire aux entités dans leur utilisation accompagnement sur Talend/Java et sur l'amélioration de la performance de leur JOB ainsi que sur les bases de données (Snowflake, Oracle, Vertica). Impliquant le suivi de migrations, l?amélioration des processus, l?administration de la TMC et l?entretien du lien avec l?éditeur et le support.
? Développer les nouveaux composants (Talend,DBT, Java, Shell, Oracle, Vertica, Snowflake, Jupyter, Python) afin d'alléger le travail des entités dans la Data Factory et permettre aux entités de se focaliser sur leur business.
? Assurer le RUN (niveau 3) de l'infrastructure pour debugger les applicatifs et pour apporter des solutions efficientes (ElasticSearch, Logstash, Kibana,Grafana).
? Evaluer et valider les estimations de l?infogérant et des sous-traitants.
? Accompagner et superviser les missions confiées aux sous-traitants.
? Analyse, conception et mise en place d?un monitoring centralisé des flux Datawarehouse.