Tu vas rejoindre la team Cloud & Data en tant que Lead Data Engineer. Vous travaillerez en étroite collaboration pour mener à bien vos missions et répondre aux besoins.
Tu es responsable de la conception et l’optimisation de solutions technologiques pour le traitement de nos données et répondre aux besoins des utilisateurs/clients.
Tes missions :
Concevoir, développer et maintenir les pipelines, les analyses et les visualisations des données
Collecter, transformer et enrichir les données provenant de multiples data sources de l’entreprise
Garantir le bon fonctionnement, la disponibilité, l’évolution et la performance des outils
Accompagner les Data Analysts dans l’optimisation de leurs algorithmes et dans la vérification de la qualité des données et des processus
Participer à l’évolution de la stack technique
Partager ton expertise avec l’ensemble des équipes
Veille technologique
Stack Technique : AWS (RDS Aurora PostgreSQL, Glue, S3, Athena, QuickSight, Lambda), Python, SQL, Docker, Terraform, Kubernetes, Git, Github Actions …
Au moins 5 ans d’expérience sur des projets Data engineering dont au moins une année d’expérience avec le Cloud AWS et ses services Data (RDS, Lambda, Kinesis, EMR, SageMaker, Glue, S3, Athena, etc)
Tu as au moins 2 ans sur un poste de Lead data avec l’encadrement d’une équipe
Une expérience dans la data visualisations (QuickSight, PowerBI, Tableau, QlikView, etc)
Une expérience dans le monde DevOps et de ses outils (Git, Github actions, GitLab, Terraform, AWS/GCP/Azure, etc)
Tu maîtrises python et/ou Java et tu as une expertise dans l’écriture et l’optimisation du code SQL
Tu as un esprit analytique et une appétence pour la Data/Big Data et la BI
Tu es rigoureux(se) et autonome
Tu fais preuve d’initiative et tu es force de proposition pour l’amélioration continue des processus existants
Ce qui fera la différence :
une bonne compréhension des solutions de stockage données (bases de données SQL / NoSQL, datawarehouse, datalake, data lakehouse)
maîtrise d’un autre langage de programmation (Spark, Scala, Java, R)
une expérience dans Kubernetes, Docker, Terraform
connaissance de la librairie Pandas, ainsi que les Jupiter Notebooks
une expérience dans l’un des outils suivants: Snowflake, Airflow, kafka
des connaissances en IA / data science (machine learning, deep learning, NLP)
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.