Intégrateur Big Data

CDI
Rouen
Salaire : 37,8K à 41K €
Télétravail fréquent
Expérience : > 2 ans
Éducation : Bac +5 / Master
Postuler

La Sécurité Sociale
La Sécurité Sociale

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Mission/Activités

Vous serez responsable de la conception, de l'optimisation et de l'exploitation de pipelines de traitement de données massives, dans un environnement distribué et fortement automatisé. Vous contribuerez à l'administration et à la supervision des plateformes techniques, notamment dans des contextes conteneurisés. Vous pourrez également intervenir dans l'opérationnalisation de projets IA : déploiement, mise à l'échelle et supervision de modèles de Machine Learning en production, en collaboration avec les équipes Data Science et MLOps ainsi que dans la mise en œuvre de solutions de visualisation de données techniques,

  • Développer et maintenir des pipelines Big Data (batch & streaming) à forte volumétrie (plusieurs To/jour).
  • Participer à l'administration et à la supervision des clusters Big Data (Hadoop, Spark, Kafka, Hive).
  • Superviser les plateformes à l'aide d'outils comme Nagios, Grafana, et ELK (Elasticsearch, Logstash, Kibana).
  • Gérer les déploiements de composants dans des environnements Kubernetes et OpenShift, en collaboration avec les équipes DevOps.
  • Développer des traitements ou intégrations spécifiques en Java.
  • Automatiser les tâches récurrentes (exploitation, déploiement, contrôle de qualité) via Airflow, Python, ou Bash.
  • Assurer la sécurité, la gouvernance, la conformité (RGPD, ISO...) et la performance des traitements back office.
  • Travailler en étroite collaboration avec les équipes infrastructure, sécurité et data science pour garantir un service de données fiable et scalable.
  • Participer à l'industrialisation de modèles IA/ML : ingestion de données, déploiement de modèles, suivi de performance.
  • Créer des dashboards de monitoring et d'analyse métier pour piloter les traitements ou visualiser les métriques critiques.


Profil recherché

  • Bac +5 (école d'ingénieur ou université) en informatique, data engineering ou systèmes.
  • Expérience significative (3 à 5 ans minimum) dans un environnement Big Data en production.

Compétences techniques :

Big Data & Traitement de données : Hadoop, Spark et Kafka

Langages & automatisation : Java, Python, Bash et Apache Airflow

Conteneurisation & Cloud :Kubernetes, OpenShift et Cloud

Supervision & monitoring : Nagios, Grafana et ELK Stack

Administration système : Linux et performances système

IA / Machine Learning : Notions de MLOps et participation à des projets d'industrialisation de modèles IA à l'échelle

Data visualisation :

  • Création de dashboards techniques et métiers
  • Maîtrise de Power BI
  • Capacité à exposer des indicateurs clairs et actionnables pour des publics variés (techniques et non-techniques)

Compétences personnelles :

  • Rigueur et fiabilité
  • Capacité d'analyse
  • Autonomie
  • Sens du service & esprit d'équipe
  • Communication claire
  • Curiosité et apprentissage continu
  • Résilience et sang-froid : en situation de crise ou d'incident, vous savez garder la tête froide, organiser la réponse, et agir efficacement.

Envie d’en savoir plus ?

Postuler