Cette offre n’est plus disponible.

Lead Data Engineer

CDI
Lausanne
Salaire : Non spécifié
Télétravail occasionnel
Expérience : > 3 ans
Éducation : Bac +5 / Master

Technis
Technis

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

Nous développons actuellement plusieurs projets dans le secteur du Retail et dans d’autres environnements axés sur l’analyse des bâtiments intelligents (flux de personnes, surveillance des bâtiments, etc.). Votre mission sera de diriger le développement des solutions et de l’infrastructure pour alimenter le traitement de toutes les données de nos capteurs, ainsi que venant de sources de données supplémentaires, en indicateurs clés de performance et pour résoudre les problèmes commerciaux de nos clients.

Ce poste est au cœur de l’activité de Technis, entre l’acquisition des données et le service à l’utilisateur final. Votre travail s’étend de l’acquisition et du stockage des données à la mise en œuvre de pipelines en temps réel et au dépannage de la qualité des données. Vous travaillerez au sein d’une équipe de 4-5 ingénieurs aux compétences mixtes (Data Scientist, Data Engineer, Data Architect, etc…) et alimentant l’ensemble du pipeline de données soutenant les services de Technis.

Vos principales tâches consisteront à :

  • Concevoir / construire / maintenir le logiciel backend pour alimenter le traitement en direct des capteurs / données en indicateurs clients significatifs (KPI).
  • Effectuer des tests, des optimisations et des dépannages pour améliorer la qualité et la fiabilité des données.
  • Moderniser le pipeline de données à l’aide de nouvelles technologies.
  • Standardiser l’acquisition de données via API
  • Améliorer l’automatisation du déploiement
  • Travailler dans des équipes agiles multifonctionnelles pour expérimenter, itérer et livrer continuellement de nouveaux objectifs de produits tout en collaborant avec d’autres ingénieurs logiciels.

Profil recherché

  • Bachelor/Master Degree en informatique ou équivalent
  • +3 ans dans le développement de logiciels ou avec l’ingénierie de systèmes distribués à grande échelle.
  • +2 ans d’expérience avec les plateformes de cloud computing telles que AWS, GCP ou Azure.
  • Expérience avec les pipelines de données modernes tels que l’Event Streaming (par exemple Apache Kafka) requise.
  • Expérience dans l’écriture de services distribués en Python, Java ou Scala.
  • Expertise en matière de modélisation des données, d’accès aux données et de techniques de stockage des données.
  • Excellentes compétences numériques et analytiques
  • Attitude positive et fort engagement à fournir un travail de qualité.
  • Autonomie, rigueur, esprit combatif
  • Ouvert au travail en équipe

Déroulement des entretiens

  1. Un entretien RH avec Clémence
  2. Un entretien technique avec Laurent, VP Engineering
  3. Test, review & team fit
  4. Un entretien avec le CEO et fondateur Wiktor

Envie d’en savoir plus ?