Objectifs de la mission
Concevoir et implémenter des flux ETL/ELT pour alimenter les systèmes de données du client.
Optimiser les processus de collecte, transformation et stockage des données afin d’assurer performance et fiabilité.
Garantir la qualité, la cohérence et la disponibilité des données dans les environnements de production et d’analyse.
Collaborer étroitement avec les data analysts et data scientists pour répondre aux besoins métiers et améliorer la gouvernance de la donnée.
Environnement / contexte
Le projet s’inscrit dans un contexte de modernisation de la plateforme data du client.
L’équipe est composée d’ingénieurs data, d’analystes et de scientifiques des données travaillant sur un socle Big Data (technos distribuées et orchestration de flux).
L’objectif est d’améliorer la scalabilité et la performance des pipelines existants, tout en renforçant les bonnes pratiques d’intégration continue et de monitoring des flux.
Stack technique / outils
Langages : SQL, Python
Frameworks et outils ETL : Talend, Informatica, Airflow
Environnements Data / Big Data : Spark
Bases de données : PostgreSQL, Oracle (ou équivalent relationnel)
Performance : optimisation des requêtes, tuning SQL, gestion des volumes de données importants
Compétences attendues
Solide maîtrise du développement de pipelines ETL/ELT (au moins un outil ETL moderne)
Compétences confirmées en SQL avancé et en traitement de données avec Python
Connaissance des architectures distribuées et scalables (Spark)
Expérience en optimisation de performances et gestion de la qualité des données
Capacité à travailler en environnement collaboratif avec des équipes data
Expérience dans le secteur hospitalier obligatoire
Durée / dispo / lieu
Durée : mission longue
Langues / TJM cible
Langue : Français courant (Anglais professionnel apprécié)
Collective is the platform to find freelance work 🔥 Go and check us out, we are the biggest platform in terms of jobs published