Missions principales :
-
Concevoir, développer et maintenir des solutions data sur la plateforme Databricks.
-
Mettre en place des pipelines de données robustes (batch et streaming) avec Spark / PySpark.
-
Optimiser les performances, la scalabilité et les coûts des traitements Databricks.
-
Intégrer les données depuis différentes sources (Data Lake, bases de données, API…).
-
Assurer la qualité, la sécurité et la gouvernance des données.
-
Collaborer avec les équipes Data, BI et métiers pour répondre aux besoins analytiques.
-
Participer aux projets de migration vers Databricks et à l’industrialisation des workloads.
-
Rédiger la documentation technique et assurer le support niveau avancé.
Compétences techniques requises :
-
Expertise confirmée sur Databricks.
-
Très bonne maîtrise de Apache Spark (PySpark / Spark SQL).
-
Connaissances solides en Data Lake / Lakehouse.
-
Expérience sur les environnements cloud (Azure, AWS ou GCP).
-
Maîtrise des outils d’orchestration (Airflow, Azure Data Factory, etc.).
-
Connaissance des bonnes pratiques DevOps / CI-CD appliquées à la data.
Profil recherché :
-
Bac+5 en informatique, data ou équivalent.
-
Minimum 5 années d’expérience en data engineering / big data.
-
Autonomie, esprit d’analyse et bonnes capacités de communication.
-
Français courant ; anglais professionnel apprécié.

