informations générales
Strasbourg
Vos missions :
- Qualification et gestion des données : collecter, transformer, structurer, nettoyer et valider les données provenant de diverses sources (structurées et non structurées).
- Cartographie des données et gestion de leur sémantique pour une meilleure intégration.
- Transformation des données avec Apache Spark et Pyspark, développement de notebooks Spark pour la gestion des données.
- Création et gestion de référentiels de données en environnement Cloud.
- Livrables attendus :
- Data Lake dimensionné et partagé
- Cartographie des données
- Solutions techniques adaptées pour les projets Cloud Azure et Microsoft Fabric
- Rapports Power BI correspondant aux besoins métiers.
Compétences et qualifications recherchées :
- Expertise confirmée sur Microsoft Fabric, Azure Synapse Analytics, Azure Data Factory, et Azure Data Lake.
- Compétences en Apache Spark, Pyspark, et développement avec Python et SQL.
- Maîtrise des outils de DEVOPS : Azure DEVOPS, Git, Visual Studio, SQL Developer.
- Connaissance des web services REST et des concepts de Data Warehousing.
- Une bonne maîtrise de Power BI est un atout.
Certifications souhaitées (un plus) :
- DP-600 (Implémentation de solutions d'analyse avec Microsoft Fabric)
- DP-203 (Azure Data Engineer Associate)
- AZ-305 (Conception de solutions d'infrastructure Azure)
- AZ-104 (Azure Administrator Associate)
- Apache Spark Certified Associate Developer
- PL-300 (Microsoft Power BI Data Analyst)
Le profil recherché
- Vous avez une expérience significative en tant que Data Engineer avec une forte expertise sur les technologies Azure.
- Vous êtes rigoureux(se) dans la gestion des données et avez une bonne capacité à travailler en équipe tout en étant autonome.
- Vous êtes passionné(e) par les technologies Cloud et avez un intérêt marqué pour l'optimisation des architectures de données.