Toutes nos offres d’emploi

214 résultats
Revenir à la liste

Data Engineer Talend / AWS Glue

Data
Pusignan
48 000 - 50 000 € par an
Cloud AWS, Talend
  • Secteur d'activité :  Transport / logistique
  • Niveau de formation :  4 - Bac+3 / Licence
  • Type de contrat :  CDI
  • CSP :  Cadre
  • Entrée en fonction :  Immédiate
  • Durée de travail :  Temps Plein
  • Télétravail :  2j/sem Télétravail

L'entreprise accompagnée et les missions

Externatic accompagne un groupe international spécialisé dans l’organisation de transports nationaux et internationaux de marchandises, présent sur plus de 80 sites en France et dans 160 pays. Fort d’un chiffre d’affaires proche du milliard d’euros et d’une croissance soutenue par des acquisitions stratégiques, ce groupe poursuit une ambitieuse trajectoire de développement.

Au cœur de cette dynamique, la Direction Data joue un rôle clé dans la structuration et la valorisation des données au service des activités Supply Chain et logistiques. Rattaché(e) au Chief Data Officer, vous intégrez une équipe pluridisciplinaire composée de Data Engineers, Data Analysts et Data Stewards.

Votre mission, concevoir et faire évoluer des pipelines de données robustes et des indicateurs stratégiques (descriptifs et prédictifs), afin d’optimiser la performance opérationnelle et décisionnelle du groupe.

Au sein d’un environnement AWS structuré et industrialisé, vous intervenez sur l’ensemble du cycle de vie de la donnée :

  • Concevoir et faire évoluer des traitements AWS Glue (Python / PySpark) dans une logique de projets modulaires, librairies partagées et tests unitaires, en respectant les standards de qualité et les bonnes pratiques de développement.
  • Déployer et maintenir des pipelines de données batch, avec une perspective d’évolution vers des flux streaming, en garantissant performance, fiabilité et traçabilité.
  • Mettre en œuvre des pratiques DataOps / DevOps : gestion de versions, CI/CD, automatisation multi-environnements via l’Infrastructure as Code (CloudFormation, CDK, Terraform ou équivalent).
  • Structurer et optimiser le Data Lake / Data Warehouse : modélisation, partitionnement, gestion des formats, catalogage et gouvernance des données.
  • Industrialiser les processus d’ingestion, de transformation et de stockage sécurisé des données sensibles, dans le respect des exigences de qualité et de conformité.
  • Construire et maintenir les datasets à destination des outils de Business Intelligence (Qlik Sense) et contribuer à la définition des KPI métiers (historisation, quasi temps réel).
  • Accompagner les équipes opérationnelles dans leurs analyses : exploration de données, compréhension des processus Supply Chain et conception d’indicateurs à forte valeur ajoutée.
  • Selon votre appétence, participer à des projets en IA générative sur AWS (LLM, RAG, agents intelligents) pour enrichir les capacités d’analyse et d’aide à la décision.
  • Contribuer à la diffusion des bonnes pratiques Data & BI : documentation, standardisation, partage d’expérience et montée en compétence des équipes.

Profil recherché

De formation supérieure en informatique ou data (école d’ingénieur, master ou équivalent), vous justifiez d’une expérience significative en Data Engineering dans un environnement cloud, idéalement AWS.
Vos compétences s’articulent autour de plusieurs grands domaines :

Data Engineering & Cloud

  • Solide maîtrise de Python / PySpark et d’AWS Glue
  • Bonne connaissance des architectures Data Lake / Data Warehouse
  • Expérience sur des environnements AWS (ou cloud équivalent)

Industrialisation & DevOps

  • Pratique des outils de CI/CD et de gestion de versions
  • Expérience en Infrastructure as Code (CloudFormation, CDK, Terraform ou technologies comparables)
  • Sensibilité aux enjeux de performance, de qualité et de sécurité des données

BI & valorisation des données

  • Expérience dans l’alimentation d’outils décisionnels, notamment Qlik Sense (ou solution BI similaire)
  • Talend (alimentation de bases de données, création de web services/API, utilisation de sources externes semi-structurées)
  • Capacité à dialoguer avec les métiers et à traduire les besoins opérationnels en indicateurs pertinents

Une première exposition à des projets en IA générative (LLM, RAG, agents) constitue un atout apprécié, sans être indispensable.

Avantages

Les conditions de travail

  • Salaire : 48 000 à 50 000 € / an fixe pour le profil attendu
  • Remote : 2 jours / semaine
  • Localisation : Lyon-Pusignan

Ce que vous allez y gagner

  • Groupe pérenne
  • RTT
  • Mutuelle intéressante
  • Forfait de transport pris en charge à 50%

Le process de recrutement

  • Traitement candidature et RDV avec Audrey THIERY
  • 1 RDV avec le Chief Data Officer
  • 1 RDV avec le N+2

Présentation du cabinet Externatic

Crée il y a 15 ans, Externatic est l’un des 1ers cabinets de recrutement spécialisés « Informatique, Data & Cybersécurité » à voir le jour en France.
Notre credo est simple : « permettre à nos candidats, via notre réseau, d’accéder au marché caché et d’être recruté uniquement au sein d’entreprises finales (0% d’ESN) « .
Externatic en bref :

  • 15 ans de professionnalisme sur le recrutement « tech » externalisé pour des entreprises HORS ESN
  • 300 postes ouverts en permanence et 100% entreprise finale
  • Près de 30 consultants basés en France : Paris, Nantes, Rennes, Bordeaux, Lille, Lyon, Toulouse, Montpellier, …
  • Plus de 500 sociétés accompagnées dans leurs recrutements depuis 2010 : DSI, éditeurs, ETI/PME, Centre R&D, Startup/scale-up, organismes publics et para-publiques, …
  • Près de 300 candidats accompagnés par an : CTO, DSI, RSSI, Architecte, chef de projet, développeur, devops, administrateur systèmes / réseaux, Data engineer, Analyste SOC, PO/PM, consultant fonctionnel, etc !
  • Du recrutement mais pas que ! des outils comme notre grille de salaires faisant référence depuis 2015, des guides de préparation d’entretien, de négociation de la rémunération, des analyses de marchés, …

Pour en savoir plus et découvrir d’autres postes à pourvoir, rendez vous sur notre site !