Daveo est un cabinet de conseil spécialisé dans les domaines du product management, de la technologie et du cloud. Fondé en 2008, Daveo a bâti sa réputation sur une culture d’entreprise forte axée sur la réussite collective.
Voici quelques points clés à propos de Daveo :
Innovation et Collaboration : Daveo allie amour de l’innovation et état d’esprit collaboratif pour offrir des solutions de pointe à ses clients.
Expertise : Daveo est un pure player du product management, de la tech et du cloud public AWS et GCP. L’entreprise est présente dans plusieurs villes, dont Paris, Lille, Lyon, Bordeaux et Nantes.
Accompagnement à 360° : Daveo propose un accompagnement complet à ses clients, en mettant en avant ses compétences en matière d’innovation, de technologie et de gestion de produits.
En somme, Daveo est un acteur dynamique qui allie expertise technique, culture de la différence et ambition de réussite collective. 🚀
Daveo, membre du groupe Magellan Partners, se classe 3ème Best Workplace en France en 2024.
Rejoindre une équipe Daveo c’est offrir une expérience collaborateur impactante : la réussite de votre projet professionnel est indissociable du développement de Daveo.
Ce que Daveo vous offre**
Projets variés et stimulants chez des clients grands comptes
Formation continue et passage de certifications
Participation à des projets d’innovation au sein de notre Labeo
Opportunités d’évolution vers des rôles d’expert, de formateur…
Co-construction d’une innovation durable
Vie d’agence riche et collaborative
Missions
En tant qu’expert.e Databricks, vous serez en charge de :
Conception et architecture
Piloter et définir les architectures data autour de Databricks, en intégrant les derniers standards du Data Engineering et des architectures modernes (Lakehouse, Data Mesh…).
Développement et optimisation
Réaliser et industrialiser les pipelines de données en batch et streaming, veiller à leur robustesse, leur scalabilité et leur performance.
Leadership technique et accompagnement
Animer l’équipe : encadrer les ingénieurs data, partager les meilleures pratiques, organiser les code reviews, participer à la montée en compétence via coaching et formation interne.
Qualité et industrialisation
Implémenter et garantir les standards de développement (tests automatisés, CI/CD, bonnes pratiques DevOps), optimiser les coûts et la performance des traitements Spark et Databricks.
Vision & roadmap
Contribuer à la stratégie technique : accompagner la définition de la roadmap data, proposer et évaluer les solutions technologiques, benchmarker les outils, et soutenir le choix des architectures en phase avec les besoins métiers.
Collaboration transverse
Travailler main dans la main avec les équipes Data Science, BI et métiers pour construire des solutions pertinentes et évolutives.
Partage et communication
Diffuser les savoirs : rédiger des documentations claires, animer des sessions de retours d’expérience, favoriser la veille technologique.
Minimum 4 ans d’expérience sur des environnements Big Data (idéalement Spark/Databricks), et au moins 6 ans en développement logiciel (Python, Scala…)
Expertise technique sur Databricks (Spark, Autoloader, DLT, Delta Lake), solide maîtrise de PySpark & SQL, Scala/Java et expérience cloud (AWS ou GCP) sont appréciés
Expérience confirmée en structuration et traitement de données massives en temps réel (Kafka, Spark Streaming)
Pratique avancée des outils DevOps (Jenkins, Gitlab, Maven), et des pratiques CI/CD, automatisation et industrialisation
Aptitude à fédérer et accompagner une équipe, sens du partage et de la pédagogie
Esprit orienté solution, communication efficace, méthode et autonomie
Culture Agile (Scrum, Kanban) et curiosité technologique
Capacité à communiquer en anglais à l’écrit comme à l’oral
Échange avec un Talent Manager
Entretien technique approfondi
Rencontre avec un membre de la direction
Rencontrez Mickaël, CTO AWS
Rencontrez Rahma, CTO Product
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.