Data Scientist Junior

Résumé du poste
CDI
Courbevoie
Salaire : Non spécifié
Télétravail fréquent
Compétences & expertises
Travail d'équipe
Aptitudes techniques
Innovation
Création de programmes d'études
Prise de décision
+15
Postuler

Datanumia
Datanumia

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Filiale du Groupe EDF, Datanumia est une société éditrice de logiciel spécialisée dans la valorisation des données énergétiques (élec et gaz) et des données de consommation d’eau. Datanumia est considérée comme l’un des leaders du secteur en Europe.

Au quotidien, c’est plus de 240 collaborateurs qui évoluent dans un écosystème innovant - mêlant IA, machine learning et IoT – et donnent du sens à notre raison d’être : permettre à chacun d’optimiser sa consommation d’énergie et son empreinte carbone en révélant tout le potentiel de la data.

Plus de 14,5 millions de particuliers et plus 70 000 professionnels du tertiaire, de l’industrie et des collectivités bénéficient ainsi de solutions digitales innovantes (portail web, application…) aux fonctionnalités avancées : suivi multi-fluides, répartition des usages, alertes en cas de dépassement de seuil ou encore reporting, analyse et plan d’actions d’économies d’énergie. Les utilisateurs ont toutes les clés en main pour comprendre comment consommer moins, et mieux.

Au sein de l’équipe Data regroupant les Data Engineers, Data Analysts et Data Scientists, vous serez au carrefour des métiers de l’entreprise :

·       Product Management

·       Marketing / avant-vente

·       Innovation

·       UX / design

·       Equipes de développement

Vous aurez accès à des données de consommation et de pilotage d’équipement. Ces données vous seront mises à disposition sur une plateforme de type datalake/data analytics dans le cloud. Votre rôle sera de faire en sorte que Datanumia tire de la valeur de la connaissance de ces données et de leur utilisation pour enrichir nos produits via la production d’algorithmes.

Vos missions :

Contexte et prise de besoins

·       Etre en lien avec les équipes sales, opération et produit pour la prise de besoin

·       Définition de solution et proposition de démarche algorithmique

·       Selon cas d’usage, prise en main de solutions algorithmiques externes

·       Identification des sources de données nécessaire et précisions sur le périmètre d’étude

·       Contextualisation technique avec les équipes architecture et ops

Réalisation des études

·       Traitement de données sur le datalake et le datawarehouse

·       Automatisation des traitements de transformation

·       Analyses exploratoires via Jupyter notebook ou l’outil de data visualisation

·       Modélisations et création des librairies python qui seront déployées dans les produit

·       Préparation du code pour industrialisation en collaboration avec les features teams

·       Mise en place de rapport de supervision de la solution

Partage et communication

·       Communiquer auprès des différents acteurs de l’entreprise pour insuffler et entretenir une culture data

·       Partage des résultats

·       Spécifications techniques et accompagnement pour l’industrialisation


Profil recherché

Vous avez un esprit analytique et savez conceptualiser une réponse technique complexe.

Vous avez une première expérience en modélisation statistique et data science, idéalement avec industrialisation de solution.

Vous êtes intéressé par les enjeux sur la transition énergétique.

Vous êtes intéressé par les métiers de la data ; ingénierie, analyse et data science.

Vous êtes curieux, enthousiaste, et vos compétences relationnelles vous permettent de travailler avec tous les acteurs de l’entreprise :

·       Travail en équipe

·       Prise d’initiatives

·       Très bonne communication

·       Compréhension des enjeux métiers

·       Prise de parole

·       Curiosité et Créativité

·       Autonomie

Maitrise technique :

·       Manipulation de données depuis un datalake et un DWH (idéalement stack AWS)

·       Transformation de données en SQL / Python

·       Modélisation Data science en python (Deep learning / Machine learning)

·       Méthodes statistiques (prévision, classification)

Enfin, bénéficier de compétences parmi les suivantes serait un atout supplémentaire :

·       Machine learning engineering (mise en production, ML Flow)

·       Outil de data visualisation : configuration, manipulation de jeux de données, visualisation (PowerBI, Quicksight, Tableau, Qlik etc.)

·       Outils de scheduling et d’ETL (type Airflow, DBT)

·       Méthodes Agiles

·       Maîtrise d’environnements Linux, clouds (AWS) et de technologies Big Data (NoSQL, Scala/Spark)

·       Software Craftmanship : Bonnes pratiques de développement, partage et capitalisation, gestion de version, tests

Envie d’en savoir plus ?

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres
Postuler