Description du poste
Vous aurez comme objectif de concevoir, développer et maintenir des solutions Big Data performantes pour la Digital Factory Supply Chain. Optimiser les pipelines de données, analyser les performances et assurer l’amélioration continue des solutions existantes afin de soutenir la chaîne d’approvisionnement (commandes magasins, fournisseurs, entrepôts, transport).
Vous serez amené à :
- Concevoir, développer et maintenir des solutions de traitement de données massives.
- Mettre en place et optimiser des pipelines de données complexes.
- Analyser les performances et améliorer les solutions existantes.
- Travailler en environnement Big Data avec GCP, Hadoop, Spark, Kafka.
- Contribuer à l’automatisation via CI/CD et orchestrateurs (Kubernetes, Docker, Ansible).
- Collaborer avec les équipes DF Supply Chain en mode Agile/Scrum.
Qualifications
Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente
Expérience : 7 ans en Data Engineering, idéalement dans le secteur du retail / grande distribution
Compétences requises :
- GCP (BigQuery, BigTable)
- Scala ou Java
- Hadoop, Spark, Kafka, Avro
- NoSQL (Cassandra, BigTable)
- Elasticsearch
- CI/CD : GitLab, Jenkins, Docker, Kubernetes, Ansible
- Méthodologie Agile (Scrum)
- Communication claire et travail en équipe
Informations complémentaires
Looking forward to hearing from you !