Chez Skillup, la R&D regroupe environ 30 personnes (développement, produit, design).
Elle est organisée autour de feature teams (par module) et d’équipes transverses, dont l’équipe Data.
L’équipe Data est aujourd’hui composée de 3 personnes : 2 Data Engineers et 1 Data Analyst.
Elle intervient sur des sujets structurants et critiques pour le produit : intégrations, imports/exports, synchronisation de données, pipelines, référentiels, et fiabilité de bout en bout. Le périmètre est très “système”, avec des enjeux de robustesse, maintenabilité et passage à l’échelle.
Le poste est rattaché au CTO (Jérémie).
En tant que Senior Data Engineer, tu prends en charge des sujets data complexes, de la conception à la mise en production, avec une exigence forte sur la qualité et l’opérabilité.
C’est un poste senior, hands-on, avec un haut niveau d’autonomie.
Il n’implique pas de management. En revanche, il peut ouvrir vers un rôle de référent / lead technique à terme, selon tes envies et l’évolution de l’organisation.
Skillup déploie progressivement Shape Up (déjà en place dans la plupart des équipes).
Côté Data, l’objectif est de s’aligner sur ce cadre, avec des ajustements liés à la nature des sujets (systèmes, run, variabilité des urgences).
L’enjeu est de préserver une capacité de build sur des cycles, tout en assurant un niveau de service et de fiabilité élevé sur l’existant.
Concevoir et livrer des systèmes data robustes
Concevoir, développer et maintenir des intégrations (SaaS, partenaires, outils clients) et des flux imports/exports.
Construire et faire évoluer des pipelines et services data : qualité, performance, coût, scalabilité.
Formaliser des contrats, invariants et validations (tests, contrôles, data quality) pour sécuriser les flux et les transformations.
Maintenir une base de documentation fiable : architecture, runbooks, conventions, décisions techniques.
Industrialiser l’approche “intégrations” avec l’agentique
Le sujet prioritaire de l’équipe est de faire passer les intégrations à l’échelle avec un paradigme fort autour de l’agentique : agents et automatisations au service de la maintenabilité et de l’opérabilité.
Dans ce cadre, ton impact passera notamment par :
la conception de patterns réutilisables (connecteurs, abstractions, workflows),
la structuration des pratiques (tests, checklists, conventions),
une documentation de haute qualité, pensée aussi pour être exploitable par des agents (clarté, précision, complétude).
Qualité, exploitation et entraide d’équipe
Contribuer à la fiabilité en production (monitoring, alerting, investigations ponctuelles).
Participer aux rituels communs et assurer une continuité lors des absences/congés, en soutien de l’activité opérationnelle.
Tirer l’équipe vers le haut via les reviews, la transmission, et l’amélioration continue des standards.
Langage / Backend : Python, FastAPI
Orchestration / jobs : Airflow
Stockage : PostgreSQL, MongoDB, Neo4j (selon besoins)
Infra : S3
Tooling interne : Streamlit
Observabilité : OpenTelemetry, Datadog
Expérience significative (souvent 6–8 ans+) en data/software engineering sur des systèmes en production.
Solide maîtrise des enjeux d’architecture : scalabilité, performance, robustesse, coûts, sécurité.
À l’aise avec des sujets d’intégrations : contrats, versioning, compatibilité, cas clients, variabilité.
Habitué(e) à travailler dans des environnements où la qualité et l’opérabilité sont des exigences fortes.
Scoping : capacité à cadrer un problème, découper, prioriser, clarifier les critères d’acceptation, identifier les risques.
Assertivité : savoir challenger une demande, poser des arbitrages, défendre un design, et expliciter les compromis.
Documentation : aptitude à produire une documentation utile, maintenable, et exploitable (humains + agents).
Exécution : capacité à livrer, itérer, et faire converger un sujet jusqu’en production.
Chez Skillup, l’IA fait partie du quotidien des équipes tech.
Sur la Data, elle est particulièrement mobilisée via l’agentique, au service des intégrations et de la scalabilité. On attend un usage exigeant : accélérer sans dégrader la qualité, structurer des pratiques fiables, et contribuer aux standards (documentation, conventions, quality gates).
Un rôle clé sur des sujets structurants, au cœur des enjeux de passage à l’échelle.
Jusqu’à 3 jours de télétravail / semaine (1 jour / semaine le premier mois).
Bureaux à Paris (10ème).
3h/semaine dédiées à ta formation, accès O’Reilly Learning.
Politique de cooptation.
1️⃣ Entretien RH (30 min)
2️⃣ Entretien visio avec Jérémie (CTO)
3️⃣ Entretien technique avec un pair
4️⃣ Visite des locaux + rencontre de l’équipe
5️⃣ Prise de références (2, dont un manager)
Rencontrez François, Machine Learning Engineer
Rencontrez Alice, Developpeur fullstack
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.