Cadre – Ingénieur(e) Cloud /Big Data / DATA (H/F)

avec nos talents
soit ça matche,
soit ça matche

Avec nos talents soit ça matche,
soit ça matche

Une aventure humaine

Parce que nous sommes convaincus que chaque collaboration, chaque réussite est d’abord une aventure Humaine. Avancer individuellement mais
aussi collectivement autour d’un même objectif :
DONNER LE MEILLEUR !

Tes futures missions

1

– Concevoir et mettre en oeuvre des solutions d’entreposage et de traitement de données massives
– Assurer une gestion efficace des flux de données.
– Concevoir les architectures de Datalake
– Développer des architectures microservices permettant la collecte et l’alimentation des données. modes possibles : Batch, Streaming, API
– Déploiement et gestion efficace des modèles d’apprentissage automatiques

Tes prérequis

2

– Parfaite maîtrise des outils Big Data tels que Apache Hadoop et Spark.
– Expertise approfondie dans l’utilisation de Snowflake, garantissant une manipulation optimale des données dans le cadre du traitement Big Data.
– Compétences en orchestration avec des outils comme Apache Airflow et en automatisation avec des scripts (Python, Shell)
– Maîtrise avancée des outils d’orchestration tels qu’Apache Airflow et Apache NiFi.
– GCP (Big Query, Airflow)
– Développement : Github/GitLab, Docker, Terraform, Python
– Analytiques : Qlik
– Plusieurs services GCP BigQuery (Mise en œuvre & Optimisation (partitionnement, clustering)), Cloud Storage, Dataflow, Composer, PubSub, Cloud Logging, Cloud Run, Cloud Functions.

Profil recherché

3

– De formation supérieure Ingénieur, vous disposez d’une expérience de 4 à 5 ans dans une ESN, un cabinet conseil ou une agence digitale et vous cherchez une opportunité qui vous permettra d’évoluer rapidement.

– Vous êtes passionné(e) par l’univers de la Data, motivé(e) par les challenges à relever

– Vous êtes doté(e) d’une excellente aisance relationnelle, d’un esprit d’équipe affirmé.

Compétences complémentaires appréciées

4

– Certifications GCP Data Engineer

– Docker, GKE, Cloud KMS, BigTable, Firestore, Dataplex, Analytics Hub.

– Connaissance d’outils ETL/ELT (DBT, Semarchy, Talend, …) et d’outils BI /
Datavisualization.

Ce que nous proposons

5

– Package fixe + variable de 40000 à 60000 euros bruts + participation
– Avantages : Primes de vacances, Tickets restaurant,
– Télétravail (2/3 jours par semaine)
– Programme de formation et certification

Processus de recrutement

L’Agent X s’engage sur un processus de recrutement rapide et sur 100% de réponse aux candidatures.

Étape 1

L'entretien de Pré-qualification de 5 à 10 minutes pour valider ensemble le poste recherché, le type de contrat, la rémunération et la mobilité.

Étape 2

L'entretien avec le Business Manager pour te connaître davantage et t'expliquer en détail le contenu de la mission.

Étape 3

L'entretien avec le Directeur Commercial pour valider définitivement si ton profil matchera (ou non) avec la mission.

N’hésite pas si

Tu penses que ce poste est fait pour toi

Partager cette offre

LinkedIn
Facebook
Mail