Data Engineer (F/M)

Résumé du poste
CDI
Paris
Salaire : 55K à 65K €
Début : 30 juin 2024
Télétravail fréquent
Expérience : > 5 ans
Éducation : Bac +5 / Master
Compétences & expertises
Contenu généré
Rédaction technique
Confidentialité des données
Collaboration et travail d'équipe
Git
Serverless
+10
Postuler

Blank
Blank

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Notre équipe

Nous sommes convaincus que c’est en construisant une équipe Data solide et enthousiaste que nous bâtirons des outils décisionnels puissants qui répondent au besoin de nos utilisateurs.

A ce jour, l’équipe globale est composée 80 talents avec notamment côté data : François-Team Lead Data, Briac, Lorine et Vincent-Data Analysts.

Nous cherchons aujourd’hui à intégrer un(e) nouveau / nouvelle Data Engineer mais aussi bientôt un(e) Data Scientist !

Notre stack Technique

Développement Back-end : Typescript, AWS Lambda, API Gateway
Data : Python (pandas, PySpark)
Architecture et Infrastructure Microservices & serverless basée sur AW, ECS (en minorité), AWS VPC, Infra as code avec CloudFormation
Base de Données et Stockage : DynamoDB, Aurora (en minorité), S3, SQL, AWS Open Search
Data et Analyse : Glue, Athena, Metabase, Tableau, SageMaker
Versioning : Git

Si tu as des questions, c’est parfait et ce sera pour toi l’occasion de les poser lorsque tu rencontreras François, notre Team Lead Data !

Rôle et missions

Dans l’équipe Data, en tant que Data Engineer, tu seras responsable de l’amélioration de notre stack Data, de l’automatisation, la récupération et la normalisation de données (hygiène, qualité, accessibilité) ainsi que la mise en production de nos projets Python.

Dans les premiers mois suivants ton arrivée, nous aurons besoin de toi pour identifier les améliorations possibles dans l’ensemble de nos process data et co-construire avec François une roadmap sur ces sujets.

En Fil rouge, l’ensemble de l’équipe Data travaille sur le suivi et l’amélioration continue de la qualité des données, la mise en place d’algorithmes et sur l’acculturation des équipes métier aux pratiques data. Et plus particulièrement :**

Maintien et Gestion de l’Environnement AWS :**

  • Surveiller et administrer l’utilisation des services AWS tels que S3, Glue, Athena et VPC notamment sur la partie IAM.

  • Configurer et gérer les pipelines de données pour les processus ETL.

  • Optimiser les services AWS existants avec pour objectif moyen terme de rendre l’équipe Data autonome.

Déploiement de Projets Python liés à la data :

  • Assurer le bon déploiement des scripts (Python) en infra as code avec Typescript, en collaboration avec l’équipe tech dans un premier temps puis en autonomie.

  • Avec un regard critique, mettre en place des environnements de test comme SageMaker ou BedRock et normaliser les déploiements des algorithmes développés par les Data scientists.

Automatisation des Processus de Récupération de data et d’ETL :

  • Développer des scripts pour automatiser la récupération de données via des API externes.

  • Créer des librairies (Python) pour la récupération et le traitement des données par les Data Scientists (avec pandas quand c’est adapté).

  • Développer des workflows ETL et des pipelines de données

  • Optimiser les systèmes de monitoring des données pour assurer leur conformité.

Sécurité et Gouvernance des Données :

  • Assurer la sécurité et la conformité des données stockées.

  • Apporter un regard critique sur la conformité (RGPD) des données et leur sécurité.

Collaboration et Support :

  • Collaborer avec les Data Scientists & Analysts pour comprendre les besoins data.

  • Fournir un support technique et des solutions aux problèmes liés aux pipelines de données.

  • Promouvoir la culture data au sein de l’entreprise.

  • Rédaction de documentations à destination des équipes techniques et métiers.

Ce que nous offrons :

En résumé, tu joueras un rôle à impact fort dans la tribu Data de Blank et l’ensemble des autres équipes métier.

Tes idées seront les bienvenues sur l’ensemble des sujets data à venir et les sujets build sont nombreux ! En tant que pionnier sur le Data Engineering chez Blank, tu auras la possibilité d’avoir une grande autonomie dans une perspective d’évolution à terme vers un rôle de Lead Data Engineering.

Enfin, tu seras accompagné(e) tout au long de ton évolution et nous veillerons à ce que tu aies toutes les cartes en main pour te permettre d’être épanoui(e) au quotidien.

Et plus concrètement :

  • Salaire fixe attractif

  • Remote possible 2 à 3 jours par semaine

  • Horaires flexibles

  • 10 jours de RTTs/an

  • Un MacBook Pro M3

  • Prime pour le télétravail : 400€ tous les 2 ans pour t’équiper en matériel informatique

  • Prime pour renouveler ton téléphone portable : 500 € tous les 2 ans

  • Prime d’ancienneté : au bout de 3 ans d’ancienneté 12% de la rém annuelle brute

  • Un compte formation Blank abondé de 200€ par mois

  • Une prime vacance : 1% du brut perçu par an pour les vacances d’été

  • Tickets restaurants : LunchrSwile 9,05€ (pris en charge @60% par l’entreprise)

  • Mutuelle Alan Blue (prise en charge @70% par l’entreprise)

  • Abonnement transport (pris en charge @55% par l’entreprise)

  • Prime de mobilité de 37,33€ par mois si tu n’utilises pas les transports en commun

  • Des primes de cooptation de 500€ (alternance ) et 1 500€ (CDI)

  • Un CSE

  • Des team buildings réguliers, dont 1 voyage de 3 jours par an

  • Des cours de sport pris en charge à 50% via Gymlib

  • Équipe soudée & bonne ambiance


Profil recherché

Pour intégrer notre équipe Data en tant que Data Engineer, nous recherchons un(e) candidat(e) passionné(e) par la data, avec une forte expertise technique et une capacité à travailler de manière autonome.

Et plus précisément :

  • Expérience avec AWS : Maîtrise des services AWS, notamment S3, Glue, Athena, IAM et VPC. Capacité à configurer et gérer des pipelines de données pour les processus ETL. Une certification AWS est un plus.

  • Développement Python & Typescript : Solides compétences en développement et analyse de scripts Python et en développement Typescript pour le déploiement de projets en infra as code. Capacité à créer et normaliser des environnements de test.

  • Automatisation des Processus : Expertise dans l’automatisation de la récupération de données via des API externes et dans le développement de workflows ETL. Connaissance de bibliothèques python (Bonus : Panda) pour le traitement des données.

  • Optimisation et Surveillance : Capacité à optimiser les systèmes de monitoring des données pour assurer leur conformité et améliorer l’efficacité des services AWS.

  • Sécurité et Gouvernance des Données : Connaissances autour des meilleures pratiques de sécurité des données et de la conformité, notamment en matière de RGPD.

  • Autonomie et Collaboration : Capacité à travailler de manière autonome et à prendre des initiatives pour améliorer les processus existants tout en collaborant avec des équipes pluridisciplinaires, notamment les Data Scientists, Analysts, et l’équipe tech (avec laquelle tu gères l’interface au quotidien).

  • Esprit Critique : Capacité à évaluer de manière critique les environnements, les scripts et les déploiements de données, en assurant leur qualité et leur conformité.


Déroulement des entretiens

Notre approche est conçue pour découvrir non seulement les compétences techniques, mais aussi les personnalités qui enrichissent notre équipe.
Voici un aperçu de notre processus en quatre étapes :

  1. Screening avec Hugo, Talent Acquisition (30 min) : C’est l’occasion pour nous de mieux vous connaître, comprendre vos motivations et évaluer votre adéquation avec notre culture d’entreprise.

  2. Entretien avec François, Team Lead Data (45 min) : Vous aurez l’opportunité de discuter en profondeur de vos compétences techniques et de votre expérience dans le domaine des données.

  3. Use Case en autonomie suivi d’un débrief avec François et Florian (60 min) : Nous vous présenterons un cas pratique à résoudre en asynchrone, suivi d’une session de débriefing avec François pour discuter de votre approche et de vos solutions.

  4. Echange culture fit avec Nicolas, notre Head Of People (15 min) pour discuter de votre vision et de votre ambition, et voir comment vous pourriez contribuer à notre mission.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres
Postuler