Description
* Participer à la migration de Teradata vers BigQuery, en garantissant performance et scalabilité. * Industrialiser des pipelines ETL dans Dataiku et orchestrer les flux de données. * Mettre en place et optimiser des workflows CI/CD sur GitLab. * Déployer des pratiques avancées de gouvernance et qualité des données : documentation, traçabilité, observabilité. * Explorer et développer des cas d’usage autour de l’IA générative et agentique dans Dataiku. * Contribuer à la mise à disposition sécurisée de fichiers de détail à un centre externe, en veillant à la protection des données et à la fiabilité des transmissions. * Collaborer avec des interlocuteurs variés : data analyst et équipes métiers, afin de bien comprendre leurs besoins et traduire ces attentes en solutions techniques performantes. * Assurer une veille technologique active et proposer des améliorations concrètes. * Participer à la gestion et résolution des incidents de données, en communiquant de manière claire et adaptée aux utilisateurs.
Profils recherchés
* Préparation d’un Master 1 (Bac+4) en université ou en école d’ingénieur, dans un domaine lié à la data. * Maîtrise de SQL et Python. * Solides notions en gestion de données (ETL). * Familiarité avec BigQuery, Dataiku et GitLab appréciée. * Capacité à apprendre rapidement et à s’adapter à un environnement technologique évolutif. * Rigueur, sens des responsabilités et esprit d’initiative. * Excellentes compétences en communication et capacité à vulgariser des sujets techniques. * Goût pour le travail en équipe et le partage de connaissances.
