Cette offre n’est plus disponible.

Data Engineer Plateforme Publicitaire (H/F)

CDI
Boulogne-Billancourt
Salaire : Non spécifié
Télétravail occasionnel
Expérience : < 6 mois
Éducation : Bac +5 / Master

Effilab
Effilab

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

En rejoignant l’équipe DataOps tu occuperas une place centrale dans l’organisation, en mettant la data au service des équipes opérationnelles et en garantissant la performance des produits publicitaires. Le poste requiert des compétences data transverses que l’on assimile majoritairement à du data engineering mais aussi avec une brique analytics. Au sein de cette équipe tu participeras à la programmation des algorithmes et des data pipelines faisant fonctionner l’ensemble de nos plateformes.

Dans cette équipe, tes missions seront :

  • Designer et développer des algorithmes et des data pipelines en Python et SQL
  • Améliorer continuellement les bases de données : nettoyage, enrichissement et qualification de données
  • Traduire les besoins opérationnels concerts en solutions techniques automatisables
  • Coconstruire l’architecture des bases de données et des tables
  • Maintenir les systèmes existants (résolution de bugs, déploiement des mises à jour)
  • Monitorer la performance des algorithmes et proposer des améliorations
  • Travailler en mode agile dans les squads de développement
  • Mise à jour de la documentation relative aux données
  • Diffuser les bonnes pratiques de la data à tous ses utilisateurs internes

Ton environnement de travail sera :

  • Une stack technique performante : GCP, Dataiku, Python, PostgreSQL, Git
  • Une équipe passionnée et dynamique en quête d’apprentissage continu
  • Télétravail possible 2 jours par semaine

Profil recherché

  • Bac+4/5 école d’ingénieur, d’informatique, mathématiques et/ou statistiques
  • Expérience dans l’analyse de données ou le data engineering
  • Solides connaissances en SQL : requêtes, architecture et création de data models
  • Solides connaissances en Python, librairie Pandas, utilisation d’APIs
  • Avoir déjà travaillé avec Dataiku ou un ETL (Airflow ou autre)
  • Connaissance de la stack GCP : BigQuery, GCS, outils Data
  • Anglais professionnel

Les plus :

  • Compréhension des concepts de machine learning
  • Compréhension des concepts de CI/CD, chaines de déploiement, tests automatisés et bonnes pratiques
  • Connaissances des outils de reporting (Metabase, Microstratégy, Tableau,..)
  • Être présent sur Git

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres