Ucase Consulting
TechLead Data GCP (IT) / Freelance
Job Location
Paris, France
Job Description
Je recherche pour un de mes clients un TechLead Data : Missions principales : ? Accompagner les Data Engineers sur les bonnes pratiques, les choix d?architecture et dans leur travail au quotidien ? Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance ? Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale ? Participer aux analyses, études d?impacts et cadrage techniques ? Concevoir des solutions en respectant les bonnes pratiques d?architecture data et développement ? Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d?assurer la qualité des développements réalisés par l?équipe ? Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants ? Rédiger la documentation technique des data products ? Assurer un support aux testeurs ? Reporter l?activité à la Squad et travailler dans une démarche d?efficacité collective Livrables principaux : ? Études d?impact technique ? Faire des propositions techniques ? Schéma de solution des flux, modèle de données ? Fournir des chiffrages détaillés des futures réalisations ? Relecture de code technique ? Rédaction de SFD, STD, Manuel d?installation ? Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l?ordonnancements Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell ? Services de streaming data : Kafka ? Services d?ingestion des données : Kafka Connect, SFTP ? Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint ? Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow ? Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) ? Outils de collaboration et de CI/CD : GitLab, Flamingo ? Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform ? Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. ? Manipulation des formats de fichiers : CSV, JSON, Avro, XML Profil candidat: 1) Missions principales : ? Accompagner les Data Engineers sur les bonnes pratiques, les choix d?architecture et dans leur travail au quotidien ? Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance ? Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale ? Participer aux analyses, études d?impacts et cadrage techniques ? Concevoir des solutions en respectant les bonnes pratiques d?architecture data et développement ? Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d?assurer la qualité des développements réalisés par l?équipe ? Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants ? Rédiger la documentation technique des data products ? Assurer un support aux testeurs ? Reporter l?activité à la Squad et travailler dans une démarche d?efficacité collective 2) Livrables principaux : ? Études d?impact technique ? Faire des propositions techniques ? Schéma de solution des flux, modèle de données ? Fournir des chiffrages détaillés des futures réalisations ? Relecture de code technique ? Rédaction de SFD, STD, Manuel d?installation ? Réaliser du code applicatif à l?état de l?art sur notre Data Platform GCP ? Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l?ordonnancements 3) Compétences techniques : Langages de programmation : Python, SQL, Scripts Shell ? Services de streaming data : Kafka ? Services d?ingestion des données : Kafka Connect, SFTP ? Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint ? Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow ? Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) ? Outils de collaboration et de CI/CD : GitLab, Flamingo ? Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform ? Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. ? Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Location: Paris, FR
Posted Date: 1/14/2025
Location: Paris, FR
Posted Date: 1/14/2025
Contact Information
Contact | Human Resources Ucase Consulting |
---|