Ucase Consulting

TechLead Data GCP (IT) / Freelance

Click Here to Apply

Job Location

Paris, France

Job Description

Je recherche pour un de mes clients un TechLead Data : Missions principales : ? Accompagner les Data Engineers sur les bonnes pratiques, les choix d?architecture et dans leur travail au quotidien ? Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance ? Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale ? Participer aux analyses, études d?impacts et cadrage techniques ? Concevoir des solutions en respectant les bonnes pratiques d?architecture data et développement ? Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d?assurer la qualité des développements réalisés par l?équipe ? Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants ? Rédiger la documentation technique des data products ? Assurer un support aux testeurs ? Reporter l?activité à la Squad et travailler dans une démarche d?efficacité collective Livrables principaux : ? Études d?impact technique ? Faire des propositions techniques ? Schéma de solution des flux, modèle de données ? Fournir des chiffrages détaillés des futures réalisations ? Relecture de code technique ? Rédaction de SFD, STD, Manuel d?installation ? Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l?ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell ? Services de streaming data : Kafka ? Services d?ingestion des données : Kafka Connect, SFTP ? Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint ? Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow ? Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) ? Outils de collaboration et de CI/CD : GitLab, Flamingo ? Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform ? Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. ? Manipulation des formats de fichiers : CSV, JSON, Avro, XML Profil candidat: 1) Missions principales : ? Accompagner les Data Engineers sur les bonnes pratiques, les choix d?architecture et dans leur travail au quotidien ? Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance ? Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale ? Participer aux analyses, études d?impacts et cadrage techniques ? Concevoir des solutions en respectant les bonnes pratiques d?architecture data et développement ? Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d?assurer la qualité des développements réalisés par l?équipe ? Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants ? Rédiger la documentation technique des data products ? Assurer un support aux testeurs ? Reporter l?activité à la Squad et travailler dans une démarche d?efficacité collective 2) Livrables principaux : ? Études d?impact technique ? Faire des propositions techniques ? Schéma de solution des flux, modèle de données ? Fournir des chiffrages détaillés des futures réalisations ? Relecture de code technique ? Rédaction de SFD, STD, Manuel d?installation ? Réaliser du code applicatif à l?état de l?art sur notre Data Platform GCP ? Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l?ordonnancements 3) Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell ? Services de streaming data : Kafka ? Services d?ingestion des données : Kafka Connect, SFTP ? Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint ? Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow ? Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) ? Outils de collaboration et de CI/CD : GitLab, Flamingo ? Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform ? Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. ? Manipulation des formats de fichiers : CSV, JSON, Avro, XML

Location: Paris, FR

Posted Date: 1/14/2025
Click Here to Apply
View More Ucase Consulting Jobs

Contact Information

Contact Human Resources
Ucase Consulting

Posted

January 14, 2025
UID: 4995530419

AboutJobs.com does not guarantee the validity or accuracy of the job information posted in this database. It is the job seeker's responsibility to independently review all posting companies, contracts and job offers.