Développer des flux d?ingestion de données via Fabric Data Factory (et compréhension d?Azure Data Factory)
Développer des flux de transformation via Fabric Notebooks
Optimiser les requêtes de transformation, en tenant compte des coûts Azure
Contribuer à la modélisation du Lakehouse
Concevoir et implémenter l?architecture médaillon (Silver / Gold) dans Microsoft Fabric
Définir, automatiser et exécuter les tests unitaires
Participer aux estimations d?effort lors des phases de cadrage
Rédiger la documentation technique
Contribuer à l?amélioration continue (guidelines, standards de développement)
Participer à la maintenance applicative et à la résolution d?incidents en production
Profil candidat:
Must Have (obligatoires)Expérience confirmée en tant que Data Developer / Data Engineer
Maîtrise des formats Open Table : Delta, Iceberg
Très forte exigence linguistique : Français niveau C2 (CEFR)
Expérience avérée des Cloud Data Platforms (Azure impératif, AWS/GCP acceptés)
Expérience prouvée avec Apache Spark (PySpark)
Maîtrise du langage Python
Maîtrise de SQL et T-SQL
Expérience confirmée dans l?écosystème Azure
Expérience confirmée dans l?écosystème Microsoft Fabric
Utilisation professionnelle de Git et des chaînes CI/CD
Expérience en modélisation dimensionnelle
Maîtrise des principes Lakehouse
Should Have (fortement souhaités)Connaissance et application des bonnes pratiques de sécurité en développement
Anglais niveau B1 (CEFR) minimum
Maîtrise de Fabric Data Factory et/ou Azure Data Factory
Expérience avec Synapse Spark, Fabric ou Databricks
Bonne compréhension de Azure Storage Account / OneLake
Nice to Have (atouts complémentaires)Certification Azure Data Engineer ? DP-203
Connaissances théoriques en modélisation UML (diagrammes de classes)
Expérience sur les plateformes SAP BO / SAP Data Services
Expérience en DAX et Power BI