Cette offre n’est plus disponible.

Data Engineer AWS

Résumé du poste
CDI
Paris
Salaire : 45K à 60K €
Télétravail fréquent
Compétences & expertises
Contenu généré
Gestion de l’infrastructure cloud
Camunda
Java
Amazon s3
Gitlab
+6

MP DATA
MP DATA

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe. En tant que Data Engineer, vous serez responsable de la conception, du développement et de la mise en œuvre de pipelines de traitement de données en temps réel à grande échelle. Vous travaillerez avec des technologies telles que Kafka, Flink, Kinesis et vous utiliserez les services du cloud AWS pour stocker et traiter les données.

Vos responsabilités :

  • Utiliser Kafka pour le traitement de flux de données en temps réel à grande échelle, en travaillant avec les producteurs, les consommateurs et les topics.

  • Mettre en œuvre des pipelines de traitement de données en streaming avec Flink, en appliquant des transformations complexes et en gérant les états.

  • Écrire du code efficace et maintenable en Java / Python pour manipuler et analyser les données en temps réel.

  • Utiliser Kubernetes pour déployer et gérer des applications conteneurisées à grande échelle, en assurant la résilience et l’évolutivité des services.

  • Utiliser les services AWS tels que Amazon S3, AWS Lambda, Elastic Kubernetes Service (EKS), Elastic Container Service (ECS) et Elastic Compute Cloud (EC2) pour le stockage, le traitement et le calcul des données en temps réel.

  • Suivre les meilleures pratiques pour une utilisation efficace du cloud, en assurant la gestion des coûts, la sécurité des données et la disponibilité des services.

  • Collaborer avec l’équipe de développement logiciel et la gestion de projets pour assurer un flux de développement fluide et une livraison efficace des fonctionnalités.


Profil recherché

Formation de niveau Bac +5 en informatique, en data science, ou en statistiques.

Expérience pratique dans le traitement en temps réel avec Kafka, Flink, et les services AWS.

Maîtrise de Java / python et expertise dans l’écriture et l’optimisation du code SQL.

Expérience significative dans un environnement industriel en mode DevOps, avec des outils tels que CICD, gitlab, Jenkins, Sonar, Nexus, XLdeploy, Camunda, etc.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres