42Next est notre nouvelle initiative visant à étendre notre modèle pédagogique innovant afin de répondre aux besoins évolutifs de l’industrie. Cette offre s’appuie sur notre programme cœur tout en intégrant de nouvelles technologies et méthodologies pour préparer les étudiants à un environnement numérique en constante évolution.
Affiner notre approche de modélisation de données dans toute l’organisation, en améliorant la manière dont nous structurons et organisons l’information.
Intégrer plusieurs sources de données, issues à la fois des systèmes existants et des nouveaux produits 42Next, au sein d’une architecture de données cohérente.
Concevoir et construire des modèles de données SQL (dbt).
Créer et améliorer des tableaux de bord dans Superset afin de renforcer la visualisation des données et leur accessibilité pour les différentes parties prenantes.
Rédiger une documentation technique ainsi que des propositions pour les initiatives data.
Collaborer avec les membres des équipes métiers afin de comprendre leurs besoins data et de fournir des solutions efficaces.
Soutenir les projets analytiques quotidiens et contribuer à la base de code existante.
Apprendre les principes et bonnes pratiques de l’Analytics Engineering tout en acquérant une expérience pratique des outils et technologies associés.
SQL & Modélisation de données : écriture de requêtes avancées, conception de schémas (étoile/flocon), optimisation
Scripting & Programmation : Python (Pandas, SQLAlchemy) ou équivalent
Visualisation & Tableaux de bord : Apache Superset (création de dashboards, filtres, paramétrage)
Tests & Qualité : Rédaction de tests unitaires/intégration, relecture de code, documentation
ETL & Orchestration : Construction et planification de pipelines avec Airflow, dbt, Dagster ou équivalents
Contrôle de version & CI/CD : Workflows Git ; notions de base Docker, tests automatisés (par exemple pytest), familiarité avec les concepts CI/CD
Engagement open-source : Expérience de contribution à des projets open-source (correction de bugs, propositions de fonctionnalités)
Niveau requis : Licence (BAC+3) ou plus (ou équivalent)
Domaines : Informatique, Data Science, Statistiques, Génie Logiciel, Systèmes d’Information, Big Data, ou domaines connexes
Projets académiques : Intégration de données de bout en bout, développement de tableaux de bord, livrables de groupe avec jalons.
Contributions open-source : (par exemple, Dagster, Superset, dlthub)
Hackathons, meetups data, compétitions Kaggle, blogging technique ou présentations en club/conférence étudiant
Esprit analytique : Savoir traduire les besoins métier en solutions data
Communication : Expliquer clairement des concepts techniques à des interlocuteurs variés
Collaboration : Pair-programming, relecture de code, alignement inter-équipes
Autonomie & Curiosité : Capacité à apprendre par soi-même et à prendre des initiatives
Organisation : Priorisation des tâches, documentation claire
Français courant obligatoire
Anglais recommandé (niveau professionnel)
Ces entreprises recrutent aussi au poste de “Data / Business Intelligence”.