Data Engineer & Rating engine

Résumé du poste
CDI
Ivry-sur-Seine
Salaire : Non spécifié
Télétravail fréquent
Compétences & expertises
Souci du détail
Compétences en communication
Adaptabilité
Langages de programmation
Power bi
+5

HD Assurances
HD Assurances

Cette offre vous tente ?

Questions et réponses sur l'offre

Le poste

Descriptif du poste

L’objet de ce poste est de contribuer à la stratégie de développement de produits d’assurance des animaux de compagnie en préparant les données pour des projets.

 Vous jouerez un rôle déterminant dans la conception et la gestion de notre infrastructure de données sophistiquée, essentiel pour nos besoins analytiques et opérationnels. Vos responsabilités quotidiennes incluront le développement de pipelines ETL, le soutien au développement de data lake et warehouse, et la collaboration étroite avec les parties prenantes afin de préparer les données pour développer des informations exploitables pour nos analystes et Data Scientists. Vous superviserez également le fonctionnement efficace du Rating Engine de l’assurance des animaux de compagnie, qui est essentiel à la réussite de l’entreprise.

Vous aurez l’opportunité de travailler en collaboration avec l’équipe locale basée à Paris et les autres membres de notre communauté data à travers l’Europe. Vous pourrez tirer parti des avantages liés à l’utilisation des dernières technologies de données, notamment l’infrastructure Azure cloud, ADF, ADLS Gen2, Databricks, Power BI, etc. tout en vous occupant de certaines technologies de données plus anciennes et de la migration vers des solutions modernes.

Ce poste offre un mélange unique d’exposition locale et internationale, fournissant un environnement idéal pour le développement personnel et professionnel.

Principales Responsabilités:

  • Développer et maintenir des solutions de données de bout en bout et de haute qualité en collaboration avec les Data Analysts, Scientists et les équipes de gouvernance.

  • S’engager avec les SMEs et les Product Owners pour comprendre en profondeur les besoins de l’entreprise et les traduire en architectures de données robustes.

  • Améliorer nos modèles et processus de données, en veillant à l’évolutivité et à la durabilité.

  • Promouvoir l’automatisation et l’amélioration continue de nos plateformes de données.

  • Maintenir les normes les plus élevées en matière de gestion et de sécurité des données, en restant au fait des dernières technologies et méthodologies.

  • Identifier les moyens d’améliorer la fiabilité, l’efficacité et la qualité des données ainsi que d’améliorer la technologie de l’équipe data.

  • Partager les connaissances, maintenir la documentation sur les outils techniques et implémenter les meilleures pratiques (versionnement du code et des données, périodes de rétention des données, interactions avec la protection des données/la conformité/le juridique, etc.).

  • Gérer de bout en bout le processus d’automatisation de la tarification : mise en œuvre, maintenance et amélioration.

  • Maintenir une documentation complète des processus de tarification et de leurs méthodologies, y compris la gestion des données référentielles .


Profil recherché

Compétences clés - Essentielles:

  • Compétences avancées en matière de manipulation de données à l’aide de SQL, SAS et Python et/ou R.

  • Expérience préférable dans la conception et le développement de solutions de données sur la plateforme Microsoft Azure, y compris ADF, ADLS, Databricks.

  • Solides compétences en matière de données, travail avec de grands volumes de données complexes.

  • Compréhension des plateformes de reporting et de BI telles que Power BI ou Tableau.

  • Capacité à respecter les délais à court et long terme et à travailler sous pression.

  • Capacité à travailler de manière autonome, à s’adapter à de nouvelles situations, à proposer de nouvelles idées et à remettre en question le statu quo.

  • Orienté.e résultats – faire preuve d’engagement et de volonté d’obtenir des résultats

  • Grand sens du détail, sens de l’organisation et de l’analyse

  • Capacité à acquérir de nouvelles compétences

  • Compréhension approfondie des outils et techniques pour ETL et ELT, y compris le design et l’implémentation de gestionnaire de tâches (job management framework)

  • Anglais (avancé+), français (une partie des entretiens se fera en anglais).

Qualifications – Essentielles

  • Diplôme en informatique ou dans une discipline technique ou numérique

Qualifications – Souhaitables

  • Expérience en développement utilisant des langages de programmation (tels que C#, SQL, VBA, Python…).

  • Expérience en processus IT et en design d’architecture IT.

  • Connaissance de Databricks.

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres