Data engineer

déposez gratuitement
vos annonces et vos événements

signalez une erreur

informations générales

  • Houdemont

Spécialisé dans l'accompagnement sous toutes ses formes, le Groupe Mentor a pour vocation la création, la reprise ou la prise de participation au capital de sociétés dans le but d'en accélérer et d'en structurer le développement à horizons national et international.

Avec 7 principaux secteurs d'activité, 15 pays couverts et 2400 collaborateurs, le groupe est une véritable ruche de savoir-faire.

Sa filiale API TECH (créée en 2004) en fait partie intégrante depuis 2016. Elle est spécialisée en automatisme, électricité et informatique industrielle.

Depuis quelques années, API TECH prend un essor international dans le secteur de la Foodtech avec ses Smarts machines (distributeurs automatiques alimentaires de pizzas et de produits alimentaires).

Sa filiale Just Queen, est quant à elle spécialisée dans l'implantation de sites de production permettant la fabrication de pizzas de qualité afin de fournir ses distributeurs automatiques.

Nos distributeurs s'offrent aux gourmands jour et nuit. Nous nous engageons à rester à la pointe de l'innovation et à développer des produits et des solutions de qualité qui répondent aux besoins de nos clients.

Aujourd'hui, API Tech et sa filiale Just Queen ne cessent d'étendre leur marché.

Face au succès grandissant de nos équipements et à un développement international, nous cherchons à renforcer nos équipes avec un(e) Data Engineer

En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données, surtout en l'absence d'un data architect. Vous veillerez à ce que les données soient facilement accessibles, de haute qualité et bien organisées pour répondre aux besoins des équipes d'analyse, des data scientists, ainsi qu'aux exigences transversales du groupe et de ses filiales.

Vos missions :

1- Conception et développement des pipelines de données

Construire et maintenir des pipelines ETL (Extract, Transform, Load)

Intégrer des données provenant de diverses sources (BDD, API, fichiers, etc)

2- Gestion des BDD

Configurer et gérer les bases de données relationnelles et NoSQL

Assurer l'optimisation et la performance des systèmes de stockage de données

3- Qualité et intégrité des données

Mettre en place des processus pour garantir la qualité, la cohérence et l'intégrité des données

Automatiser les processus de nettoyage et de transformation des données

4- Collaboration avec les équipes

Travailler en étroite collaboration avec les Data Scientist et Analyst pour comprendre leurs besoins en données

Supporter les équipes de développement en fournissant des solutions de gestions de données efficaces

5- Support

Surveiller les flux de données et résoudre les problèmes techniques

Maintenir et documenter les flux et l'infrastructure des données

Diplôme :

BAC+3/5 en Informatique, Ingénierie de la donnée, Mathématiques ou domaine connexe.

Vos compétences techniques :

Python, Java, Scala

Systèmes de gestion des BDD (SQL, NoSQL) MySQL, PostrgreSQL, MongoDB, Cassandra, Parquet

Outils d'ETL : NiFi, Talend, Informatica, etc

Big Data (Hadoop, Spark, Kafka)

Cloud ? (AWS, GCP, Azure)

Analytiques :

Capacité à comprendre et manipuler des ensembles de données complexes

Compétences résolution de problèmes et optimisation des flux de données

Communication :

Excellentes compétences en communication orale et écrite

Capacité à travailler en équipe et à collaborer avec des parties prenantes non techniques

Organisationnelles :

Gestion de projet et priorités simultanément

Attention aux détails et souci de la précision

Qualités personnelles :

Curiosité, désir d'apprendre, esprit analytique et rigoureux

Capacité à travailler en équipe et de manière autonome

Adaptabilité et flexibilité
En savoir plus sur cette annonce sur le site de notre partenaire

posté par

logo

annonces à proximité