Intitulé du poste
Au sein de la Direction des Contenus, Acquisitions et Partenariats, le pôle Audiences & Advertising est chargé de la monétisation des données de consommation TV/Vidéo des clients SFR.
Ces données sont exploitées pour différents usages :
- Suivi des audiences TV en temps réel pour les chaînes TV et producteurs,
- Ciblage publicitaire en TV basé sur les contenus visionnés, dans le cadre de la « TV segmentée »
- Études de performance publicitaire via des croisements de données internes et externes.
Depuis 2017, le traitement des données d'audiences était effectué sur une plateforme on-premise hébergée par les équipes Réseaux de SFR (applications en Python dans un environnement Linux).
Dans le cadre d'un projet de modernisation, une évolution est prévue vers un environnement Google Cloud Platform - avec la refonte des traitements data en SQL BigQuery.
Vous participerez à la transformation des traitements de données d'audiences TV et à la mise en place de nouveaux cas d'usages data.
Vos principales missions seront :
1) Accompagnement du projet de migration vers GCP
- Participer à la validation des besoins métier et aux ateliers de modélisation des traitements de données d'audiences,
- Participer à la documentation des nouveaux traitements développés dans GCP : consigner les éléments clés afin d'assurer la traçabilité des développements réalisés.
2) Participation à l'intégration de nouveaux partenaires et cas d'usage data
- Rédiger ou adapter des requêtes SQL dans BigQuery (GCP), pour la production de données à destination de nos partenaires data,
- Suivre la qualité et la cohérence des livrables et des flux de données en collaboration avec les équipes techniques et SI
3) Suivi et automatisation des indicateurs clés (KPIs)
- Développer, maintenir et automatiser des tableaux de bord pour le suivi de l'activité « TV segmentée » (pub ciblée en TV),
- Participer à l'analyse de la performance des campagnes TV segmentées et à la détection d'éventuelles anomalies dans la délivrance de ces campagnes
4) Maintenance sur l'ancienne plateforme « on-premise » :
- Rédiger des scripts en Python pour assurer le maintien des process encore en activité sur l'ancienne plate-forme « on-premise », tant que celle-ci n'est pas décommissionnée.
- Aider à la gestion des incidents de production : assurer le redémarrage des traitements, identifier et rattraper les fichiers non générés, synchroniser les flux de données.
Profil
Profil recherché :
Étudiant(e) en Master 2 ou fin d'études (école d'ingénieurs, université ou école spécialisée) avec une formation en Data Ingénierie ou Data Analyse
Solides compétences en SQL (idéalement BigQuery) et Python.
Connaissance des environnements Cloud, notamment GCP (Google Cloud Storage, Identity Access Management, Dataflow, Pub/Sub).
Connaissances des plateformes de planification et de monitoring des flux automatisés (idéalement Airflow)
Bon sens analytique, rigueur et appétence pour la valorisation business de la donnée.
Curiosité, autonomie et goût pour le travail collaboratif.
Rencontrez Romain, Lead Machine Learning Engineer
Rencontrez Bertrand, Responsable Développement Software Gateway
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.