Rejoignez notre équipe en tant que stagiaire Assistant(e) Data & IA. Sous la supervision du Data Architect, vous participerez à des missions passionnantes telles que l'exploration de l'IA pour interagir avec les données, la migration vers Unity Catalog, l'amélioration de la qualité des données et l'optimisation des coûts de l'infrastructure Data. Vous travaillerez avec des technologies modernes telles qu'Azure Data Lake, Databricks, Power BI, SQL et Python.
jobs.show.blocks.metaData.summary.generated
Explorer l’IA pour interagir avec les données, tester Databricks Genie et Copilot.
Participer à la migration vers Unity Catalog, aider à la structuration et à l’enrichissement des métadonnées.
Améliorer la qualité des données, mettre en place des règles simples et automatisées pour assurer la fiabilité des informations.
Votre rôle au sein de l’équipe
Sous la supervision du Data Architect, le/la stagiaire participera aux missions suivantes :
1. Explorer l’IA pour interagir avec les données (Mission principale)
• Tester Databricks Genie et Copilot pour poser des questions en langage naturel et obtenir des insights.
• Comparer les performances et la pertinence des réponses obtenues par l’IA par rapport aux méthodes classiques (SQL, BI).
• Contribuer à l’évaluation de ces outils et proposer des retours d’expérience à l’équipe.
2. Participer à la migration vers Unity Catalog
• Aider à la structuration et à l’enrichissement des métadonnées dans Unity Catalog.
• Accompagner l’équipe dans la mise en place des bonnes pratiques pour organiser et sécuriser les données.
3. Améliorer la qualité des données
• Mettre en place des règles simples et automatisées pour assurer la fiabilité des informations.
• Tester l’utilisation de modèles IA pour identifier et corriger les anomalies dans les données.
• Contribuer à la documentation des bonnes pratiques en Data Quality.
4. Optimiser les coûts de l’infrastructure Data
• Travailler avec le Tech Lead et le Data Architect pour mettre en œuvre des recommandations d’optimisation des coûts.
• Automatiser les opérations de maintenance des données (ex. Vacuum, optimisation des tables).
Technologies utilisées
• Cloud & Stockage : Azure Data Lake, Azure Blob Storage
• Data Processing : Databricks (PySpark, Delta Lake), Azure Data Factory
• BI & Reporting : Power BI
• Langages : SQL, Python
• IA : Databricks Genie, Copilot
Description du profil :
Tieto spoločnosti tiež prijímajú pracovníkov na pozíciu "{profesia}".