QuantCube Technology’s Asset Mapping product is a cross-sectorial knowledge graph designed to identify and geolocate physical assets at scale across companies and industries. This dataset supports a wide range of ESG, economic, and risk analysis applications.
The objective of this internship is to contribute to the continuous enhancement of this database, focusing on data quality, coverage, and operational scalability.
Missions
You will contribute to the enrichment and reliability of our data pipeline through the following tasks:
Support data acquisition workflows by identifying and structuring relevant corporate and asset-level information
Monitor and improve data quality through validation processes and consistency checks
Assist in the measurement of database completeness and contribute to the development of scalable coverage metrics
Participate in the configuration and optimization of data collection processes based on defined rules and frameworks
Collaborate with technical teams on data integration workflows and contribute to validation steps within the pipeline
Support internal tools and processes (e.g., task management, data review workflows) to ensure efficient data operations
Benefits
As an intern in this position, you will gain hands-on experience in data operations within a cutting-edge data product environment. You will develop a strong understanding of how large-scale datasets are built, validated, and leveraged for real-world applications.
You will also:
Gain exposure to a wide range of industries and their operational structures
Work closely with Product, Data Science, and Engineering teams
Develop both analytical and operational skills in a fast-paced environment
Be directly exposed to client-driven use cases and feedback
We are a close-knit, international team looking for motivated individuals eager to contribute to the development of an ambitious data product.
Le produit Asset Mapping de QuantCube Technology est un graphe de connaissances intersectoriel visant à identifier et géolocaliser les actifs physiques des entreprises à grande échelle. Cette base de données est utilisée pour des applications ESG, économiques et d’analyse des risques.
L’objectif de ce stage est de contribuer à l’amélioration continue de cette base, en travaillant sur la qualité, la couverture et la scalabilité des données.
Missions
Vous interviendrez sur l’enrichissement et la fiabilité de notre pipeline de données à travers les missions suivantes :
Contribuer aux processus d’acquisition de données en identifiant et structurant des informations pertinentes sur les entreprises et leurs actifs
Assurer le suivi et l’amélioration de la qualité des données via des processus de validation et de contrôle de cohérence
Participer à la mesure de l’exhaustivité de la base et à la mise en place d’indicateurs de couverture scalables
Contribuer à la configuration et à l’optimisation des processus de collecte selon des règles définies
Collaborer avec les équipes techniques sur les workflows d’intégration des données et les étapes de validation
Participer à l’amélioration des outils et processus internes (gestion de tâches, workflows de validation, etc.)
Avantages
Ce stage vous permettra d’acquérir une expérience concrète en data operations au sein d’un produit data avancé. Vous développerez une compréhension approfondie des enjeux liés à la construction, la validation et l’exploitation de datasets à grande échelle.
Vous aurez également l’opportunité de :
Travailler sur des problématiques multi-sectorielles
Collaborer avec des équipes Produit, Data Science et Engineering
Développer des compétences analytiques et opérationnelles
Être exposé à des cas d’usage concrets portés par des clients
Nous sommes une équipe internationale, dynamique et soudée, à la recherche de profils motivés souhaitant contribuer activement au développement de QuantCube.
We are looking for a motivated and detail-oriented candidate with a strong interest in data and business analysis.
Requirements:
Basic knowledge of Python and SQL for data analysis (data manipulation, simple queries, or scripting is a plus)
Strong analytical skills and attention to detail
Ability to structure and interpret information from multiple sources
Comfortable working with data tools (Excel)
Familiarity with task management or collaborative tools (e.g., Jira) is a plus
Strong organizational skills and ability to follow structured processes
Proficiency in English (B2 minimum)
Nous recherchons un profil motivé, rigoureux et intéressé par les problématiques data et analyse d’entreprise.
Compétences requises :
Connaissances de base en Python et SQL pour l’analyse de données (manipulation de données, requêtes simples, scripting apprécié)
Esprit analytique et sens du détail
Capacité à structurer et interpréter des informations issues de sources variées
Bonne maîtrise d’Excel
Familiarité avec des outils collaboratifs (type Jira) appréciée
Rigueur, organisation et capacité à suivre des processus définis
Maîtrise de l’anglais (niveau B2 minimum)
1st interview (30 min): introductory discussion to get to know you, your background, and your motivation
2nd interview (1h): technical interview focused on analytical reasoning and problem-solving
1er entretien (30 min) : échange introductif pour mieux comprendre votre parcours, votre motivation et votre intérêt pour le poste
2ème entretien (1h) : entretien technique axé sur vos capacités d’analyse et de résolution de problèmes
Rencontrez Alice, Director of Product Development
Rencontrez Thanh-Long, CEO
Tyto společnosti rovněž nabírají pracovníky na pozici "{profese}".