Description du poste
Le/la consultant(e) interviendra au sein des équipes Data et sera en charge de concevoir, développer et maintenir des solutions de traitement de données à grande échelle au sein de la Plateforme Data, dans une architecture “Data Centric”.
L’objectif est d’industrialiser la collecte, la transformation et l’exposition des données via API afin d’accélérer les traitements analytiques et la convergence entre l’opérationnel et le décisionnel.
Le consultant intégrera l’équipe Plateforme Data pour :
- Concevoir et implémenter des pipelines de données performants sur GCP (BigQuery, BigTable, Dataproc).
- Développer des traitements distribués sous Spark et Kafka.
- Participer à la mise en œuvre de pratiques CI/CD (GitLab, Docker) et à l’automatisation des workflows data.
- Garantir la qualité du code via tests unitaires et d’intégration.
- Collaborer avec les équipes développement et production en environnement agile (Scrum).
Qualifications
De formation bac+5 en informatique
Expérience : > 7 ans, maîtrisant les environnements Cloud (GCP ou AWS) et les technologies de traitement distribué (Kafka, Spark, BigQuery).
Compétences requises :
- Développement : Scala et/ou Java (expertise)
- Data : Apache Spark, Apache Kafka, BigQuery, BigTable
- Cloud : GCP (Cloud Storage, Dataproc, Kubernetes) ou AWS équivalent
- CI/CD : GitLab CI/CD, Docker Compose
- SQL avancé, Linux, scripting
- Méthodologie Agile / Scrum
- Bonne communication écrite et orale (FR/EN)
Informations complémentaires
Au plaisir de vous lire !