Dans le cadre de la création d’une nouvelle Architecture Data, nous recherchons un Data Ingénieur expérimenté.
Votre mission principale sera la conception et l’implémentation d’un framework Python permettant d’alimenter et de consommer les données issues de nos partenaires (APIs, brokers de messages, fichiers, flux batch/streaming…).
Vous travaillerez en étroite collaboration avec notre Architecte Data ainsi que notre Référent Fonctionnel Data.
Missions principales :
1. Conception et développement du framework d’ingestion
Concevoir, développer et documenter un framework Python générique permettant : l’ingestion de données depuis diverses sources (APIs, messaging brokers, fichiers, dépôts externes…) et la consommation et l’exposition de données vers les systèmes internes.
Mettre en place un ensemble de composants réutilisables (connecteurs, transformations, loaders, orchestrations, validations).
2. Structuration et modélisation des flux de données
Analyser les besoins data et définir les modèles de flux adéquats (batch & streaming).
Concevoir les pipelines d’ingestion et les organiser entre :
-Jobs génériques (patterns communs),
-Jobs spécifiques (adaptés aux partenaires ou besoins métier).
Garantir la conformité, la qualité et la structuration des datasets produits.
3. Implémentation technique sur une data platform moderne
Participer à l’architecture technique et à la mise en œuvre des pipelines sur une plateforme moderne telle que Databricks, Snowflake, BigQuery, Redshift…
Contribuer aux bonnes pratiques de développement, de CI/CD et d’infrastructure Data.
4. Supervision, monitoring et observabilité
Concevoir et mettre en place une couche de supervision robuste :
- Monitoring d’exécution,
- Gestion automatique des erreurs,
- Alerting,
- Suivi de SLA & KPIs d’ingestion.
- Assurer la stabilité et la performance des pipelines en production.
5. Participation au cadrage et à la stratégie Data
Contribuer à la définition des standards techniques de l’équipe.
Aider à structurer les processus d’ingestion et d’exposition des données.
Travailler en collaboration avec l’Architecte Data et les Fonctionnels Data afin d’aligner besoins métiers et capacités techniques.
4 à 7 ans d’expérience en Data Engineering.
Expérience significative dans la création de frameworks ou pipelines data complexes.
Autonomie forte et capacité à structurer un environnement encore en construction.
Approche rigoureuse, documentée et orientée qualité.
Bon relationnel, capacité à collaborer avec des équipes architecture, produit et métier.
Volonté de construire les fondations techniques d’une nouvelle architecture.
Compétences techniques recherchées
Langages & outils :
Excellente maîtrise de Python (frameworks orientés data: Pandas, Polars, Pydantic, requests, asyncio, SQLAlchemy…).
Très bonne maîtrise de SQL (optimisation de requêtes, modélisation).
Connaissance avancée d’au moins une data platform moderne : Databricks, Snowflake, BigQuery, Redshift ou équivalent.
Expérience avec des services d’intégration :
- APIs REST / GraphQL,
- Brokers (Kafka, Pub/Sub, Kinesis, RabbitMQ),
- Stockage fichiers (S3, GCS, Azure Blob…).
Orchestration, CI/CD et supervision :
Airflow, Dagster, dbt, Prefect ou équivalents.
Monitoring & observabilité (Datadog, Grafana, CloudWatch, Prometheus…).
Outils CI/CD (GitLab CI, GitHub Actions, Azure DevOps…).
Les + dePeoplespheres :
Le poste est à pourvoir sur Montpellier ☀️
Rémunération : Entre 65K et 70K (selon profil)
Vous participez au développement d’une entreprise en pleine croissance et à taille humaine, avec la possibilité d’apporter votre pierre à l’édifice.
Nous mettons en avant nos valeurs qui sont essentielles : #Ténacité #Empathie #Innovation
Tous nos postes sont ouverts au recrutement de travailleurs handicapés
Entretien téléphonique avec Chloé notre RH
Entretien physique ou visio avec David notre Head of Data
Entretien physique ou visio avec Julien notre CTO
Rencontrez Amandine, Technicienne support
Rencontrez Julien, CTO
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.