Voici le défi de notre mission
Dans le cadre du projet Tpda, nous sommes à la recherche de développeurs/ingénieurs data passionnés par les défis techniques.
Les candidats recherchés rejoindront l'équipe Factory Data utilisant les technologies data Azure. Le projet (Tpda) est dans un contexte Data Hub au sein de la plateforme data de l'entreprise.
Vos responsabilités principales
* Développer les flux d'ingestion via Fabric Data Factory pour collecter et traiter des données volumineuses.
* Développer les flux de transformation de données via Fabric Factory Notebook pour analyser et mettre en forme les données.
* Modéliser les données dans Azure Cosmos DB pour améliorer la performance et la sécurité des applications.
* Exposer les données via APIs (Azure Functions) pour permettre leur accès aux différents composants de l'application.
* Transférer les données via sFTP pour faciliter leurs échanges avec les autres systèmes.
* Établir le plan de tests unitaires (automatisables) de la solution pour garantir sa qualité et sa fiabilité.
* Suivre/exécuter les tests unitaires pour détecter et corriger les erreurs.
Profil recherché
Voici notre wishlist pour la candidature idéale :
* Compétences techniques :
+ Expérience confirmée (3 à 5 ans) en tant que Développeur data/Data engineer pour résoudre les problèmes complexes.
+ Expérience avec une base de données non relationnelle (idéalement Cosmos DB) pour gérer les données hétérogènes.
+ Expérience prouvée avec des outils cloud data (Azure, AWS, GCP, ...) pour optimiser les processus de traitement des données.
+ Expérience prouvée avec le langage .NET/C# (Azure Functions) pour créer des APIs sécurisées et efficaces.
+ Expérience prouvée avec le langage Python et du framework Spark (PySpark) pour analyser et traiter grandes quantités de données.
+ Expérience prouvée de GIT & du CI/CD pour automatiser les déploiements et les tests.
* Bonne connaissance de :
+ Pratiques de développement en matière de sécurité pour protéger les données sensibles.
+ Niveau de anglais B1 sur l'échelle européenne CEFR pour communiquer efficacement avec les collègues internationaux.
+ Fabric Data Factory et/ou Azure Data Factory pour intégrer les données provenant de diverses sources.
+ L'outil Synapse Spark ou Fabric ou Databricks pour analyser et traiter grandes quantités de données.
Skillsoft skills
* Autonome pour prendre en charge/résoudre une problématique complexe
* Structuré et méthodique pour gérer plusieurs projets simultanément
* Curieux avec une capacité d'apprentissage rapide pour maîtriser de nouvelles technologies
* Esprit de synthèse et communication pour collaborer efficacement avec les autres.
Lorsque vous rejoignez notre équipe, vous deviendrez un membre clé qui contribuera à la réussite de nos missions.