Au sein du pôle Tech & IT, le poste sera constitué des travaux suivants :
1. Intégration de nouvelles données
Analyser les nouvelles sources de données (format, volumétrie, fréquence, qualité, contraintes techniques).
Concevoir et développer des pipelines ETL robustes et automatisés.
Implémenter des parsers / connecteurs spécifiques à chaque source dans le cadre du futur ETL unifié.
Documenter les flux de données, les transformations, les mappings et les dépendances.
2. Monitoring & fiabilisation des flux
Mettre en place et maintenir des mécanismes de supervision (logs, alertes, dashboards de suivi des jobs).
Assurer la détection et le traitement des anomalies (données manquantes, incohérences, erreurs d’exécution).
Proposer et mettre en œuvre des règles de qualité de données (contrôles, validations, rejets, rapports d’erreurs).
Contribuer à l’amélioration continue de la résilience des pipelines (reprise sur erreur, gestion des échecs, reruns).
3. Optimisation des performances
Analyser les performances des jobs ETL existants (temps d’exécution, consommation de ressources, coûts).
Identifier les goulets d’étranglement (requêtes lourdes, traitements redondants, I/O, etc.).
Optimiser les transformations, les requêtes et l’architecture des flux pour réduire les temps de traitement et les coûts.
Proposer des améliorations techniques (parallélisation, incrémental, optimisation SQL, cache, etc.).
4. Harmonisation & industrialisation de l’ETL
Concevoir une architecture modulaire : un cœur applicatif unique + des modules / librairies / parsers par source.
Définir et appliquer des standards de développement (structure de projet, conventions de nommage, gestion des erreurs, logs, tests).
Factoriser le code existant pour mutualiser les composants réutilisables (connecteurs, fonctions de nettoyage, transformations génériques).
Contribuer à la mise en place de CI/CD pour les pipelines ETL (tests automatisés, déploiements, versioning des schémas).
Nous recherchons un(e) candidat(e) :
Curieux, autonome, force de proposition et à l’aise avec l’environnement “start up”
Maîtrisant les langages de programmation de type Python, les librairies d’analyse de données associées et les modalités de gestion des données (SQL et non SQL)
A l’aise avec les technologies cloud (Azure)
Maîtrisant a minima le français et de l’anglais (tout autre langue serait un plus)
Sens de la qualité, de la robustesse et de la maintenabilité du code.
Capacité à travailler en proximité avec les équipes produit et data.
Pratique des méthodes Agiles serait un plus.
Études : De profil ingénieur ou équivalent.
Stack technique: Python, PostgreSQL, Azure, Windows, Linux, Docker
Entretien RH
Entretien en Visio avec l’équipe technique
Test technique
Entretien final en présentiel
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.