Mission/Activités
Vous serez responsable de la conception, de l'optimisation et de l'exploitation de pipelines de traitement de données massives, dans un environnement distribué et fortement automatisé. Vous contribuerez à l'administration et à la supervision des plateformes techniques, notamment dans des contextes conteneurisés. Vous pourrez également intervenir dans l'opérationnalisation de projets IA : déploiement, mise à l'échelle et supervision de modèles de Machine Learning en production, en collaboration avec les équipes Data Science et MLOps ainsi que dans la mise en œuvre de solutions de visualisation de données techniques,
Compétences techniques :
Big Data & Traitement de données : Hadoop, Spark et Kafka
Langages & automatisation : Java, Python, Bash et Apache Airflow
Conteneurisation & Cloud :Kubernetes, OpenShift et Cloud
Supervision & monitoring : Nagios, Grafana et ELK Stack
Administration système : Linux et performances système
IA / Machine Learning : Notions de MLOps et participation à des projets d'industrialisation de modèles IA à l'échelle
Data visualisation :
Compétences personnelles :