1130 IT & Développeurs offres d'emploi en France

Vusion Group jobs

Data Platform Engineer H/F

60 000 - 100 000 €
Vusion Group
Place Nelson Mandela 55, Levallois-Perret
60 000 - 100 000 €
Taille icon
Taille
1k-5k
Type d'entreprise icon
Type d'entreprise
Product
Niveau icon
Niveau
Regular
Type d'emploi icon
Type d'emploi
Plein temps
Langue icon
Langue
Française
Parrainage de visa icon
Parrainage de visa
Non

Exigences

Obligatoire:
- 5 à 8 ans dexpérience en Data Engineering / DataOps avec livraison en production. - Maîtrise de SQL et Spark ; expérience pratique de Databricks (Jobs/Workflows, Delta), y compris loptimisation des coûts/performances (autoscaling, spot, tuning). - Une expérience pratique avec dbt (modèles, tests, documentation) ou dautres tests est un plus. - Solide compréhension de la gouvernance avec Unity Catalog (RBAC, lignage, PII). - Esprit CI/CD et culture de lobservabilité (tests automatisés, métriques, alertes, runbooks), idéalement avec Datadog. - Connaissance des conteneurs (Docker/K8s), du streaming (Kafka/Event Hubs) et des orchestrateurs (Airflow, Prefect, Dagster) appréciée. - Expérience en analyse de données dans le domaine du retail (ventes, marges, promotions, fidélisation) appréciée. - Esprit déquipe et excellentes compétences en communication pour collaborer avec des équipes interfonctionnelles absolument indispensables.

Technologies

Airflow
CI/CD
Databricks
Datadog
RBAC
dbt

Responsabilités

- Migrer les architectures multi-technologies Databricks + Unity Catalog + dbt. - Évaluer les flux existants (batch/stream, orchestrations, modèles, coût/performance) et définir des modèles cibles (Delta Lake, Databricks Jobs/Workflows, modèles dbt). - Réécrire les pipelines (Kubernetes/Airflow/Spark/SQL) et replatformer les modèles dans dbt en appliquant les conventions de nommage, les tests et la documentation. - Intégrer les actifs dans Unity Catalog (RBAC/ACL, lignage, masquage des données/PII), structurer les catalogues/schémas et gérer les autorisations. - Mettre en oeuvre des systèmes robustes et tolérants aux pannes pour lingestion et le traitement des données. - Renforcer la CI/CD des données (tests dbt dans PR, linting, vérifications de schéma) et lorchestration avec réessai/backoff, dépendances et conformité avec les SLAs. - Déployer lobservabilité de bout en bout (métriques du pipeline, fraîcheur, couverture des tests) et les alertes (par exemple, Datadog) avec des playbooks et des objectifs de temps moyen de réparation (MTTR). - Définir et surveiller les contrats de données et les SLO avec les équipes consommatrices et garantir la conformité. - Tenir à jour la documentation (catalogue, définitions des métriques, journaux des modifications) et créer des runbooks standardisés pour laudit et le déploiement des données. - Optimiser les tâches/tables Delta (partitioning, ZOrder, OPTIMIZE, autoscaling) ; surveiller les coûts/performances (budget, rentabilité unitaire par pipeline). - Travailler en collaboration avec différentes équipes, notamment celles chargées de data science, infrastructure, équipe software, équipe produit et équipe conseil, afin de comprendre leurs besoins en matière de données et de leur fournir des solutions. - Collaborer avec les Client Analytics Engineers afin de traduire les besoins des retailers en modèles fiables et faciles à maintenir. - Diffuser les bets practices (modèles dbt, guides dintégration, listes de contrôle qualité). - Former les membres de léquipe à linterrogation SQL dans Databricks et diriger les mises à jour pendant les sessions Data Domain. - Déployer les directives existantes pour migrer les pipelines dingestion/ELT sur Databricks (jobs/workflows, Spark/SQL) et les modèles dbt avec des tests et des documents. - Créer des blocs de code standardisés à utiliser par le reste de léquipe et gérer les PRs acceptées afin de limiter la dette technique. - Déployer lobservabilité (dashboard Datadog, alertes) et réduire le MTTR à laide de runbooks exploitables. - Gérer les ensembles de données sous Unity Catalog (catalogues/schémas/tables, lignage, accès, masquage) afin de garantir la conformité et la sécurité. - Piloter les contrats de données et les SLO, surveiller la fraîcheur/qualité/dérive des schémas. - Tenir à jour une documentation claire et fournir des modèles afin daccélérer les migrations ultérieures.

La description


Nous sommes une entreprise dynamique engagée à créer un impact positif. En tant que membre de notre équipe de Data Platform Engineering / DataOps, vous participerez à la création de pipelines de production tout en renforçant notre écosystème avec des normes élevées de qualité et de gouvernance. Nous valorisons la collaboration interdisciplinaire et offrons un environnement propice à lapprentissage et à lévolution professionnelle. Rejoignez-nous pour contribuer à transformer le paysage des données dans notre secteur.
Quelque chose ne va pas ou est incorrect avec ce travail? Dites-le nous sur le chat 💬 à droite ➡️
Vous pouvez trouver les statistiques salariales des Data Ingénieur salaires en France.

Combien y a-t-il d'emplois Data Ingénieur dans en France?

Actuellement, il y a 1130 Data travaux. Consultez également: Spark offres d'emploi, Snowflake offres d'emploi, Kafka offres d'emploi, Hadoop offres d'emploi - tous avec des échelles de salaire.

Est De France est un bon endroit pour les Data Ingénieurs?

France est l'un des meilleurs pays pour travailler comme Data Ingénieur. Il a une communauté de startups dynamique, des hubs technologiques en pleine croissance et, le plus important : de nombreux emplois intéressants pour les personnes qui travaillent dans la technologie.

Quelles entreprises embauchent pour des Data Ingénieur offres d'emploi en France?

kernTerminal SAS, Agence Web Multimed Solutions, MBDA France, iscod alternance, AGENCE CADRES, ISCOD ALTERNANCE, Armée de l'Air et de l'Espace entre autres, recrutent actuellement pour des postes Data en France.

L'entreprise avec le plus d'ouvertures est AGENCE CADRES car ils embauchent pour 223 différents Data Ingénieur offres d'emploi en France. Ils sont probablement assez déterminés à trouver de bons Data Ingénieurs.