Azure Data Architect F/H
-
Etablissement : Kapela
-
Type de contrat : CDI
-
Temps de travail : Temps plein
-
Lieu Rennes
Description de l'entreprise
Kapela, filiale du groupe Constellation, conçoit pour ses clients des applications intelligentes autour des données et les accompagne dans l’éco-développement de solutions digitales à usage externe ou interne.
Nos offres :
- KapFlow : Exploitation des données grâce à WebMethods. Maitrise et exploitation de toute la richesse du SI.
- KapStudio : Pour créer ensemble. Les équipes conçoivent, développent une solution sur mesures à partir de des projets clients et assurent la mise en production.
- KapExpert : Nos expertises au service du client. Des missions courtes telles que des audits de code, du coaching Agile, de l'accompagnement DevOps et bien plus encore.
- KapCare : Tierce maintenance applicative. Prendre soin des services clients en production avec les prestations de TMA
Fort de nos +90 collaborateurs, chez Kapela nous pensons que l'équipe est une valeur forte pour le rayonnement d'une entreprise et nous nous efforçons de construire un collectif uni, professionnel et bienveillant évoluant dans un environnement favorable à leur bien être et leur développement personnel afin de faire propager dans vos produits leur savoir faire
Description du poste
L’objectif principal sera la construction d’architectures Azure optimales capables de collecter, stocker,
traiter et analyser de vastes ensembles de données., puis de les faire évoluer.
Responsabilités-clés
• Collecte des exigences et de la création d'un ensemble de spécifications techniques détaillées et
de haut niveau.
• Développement d'un cadre d'ingestion de données pour différentes sources.
• Participation aux discussions architecturales, avec analyse du système qui implique un examen
des systèmes existants et des méthodologies d'exploitation.
• Participation à l'analyse des technologies les plus récentes et suggestion de solutions optimales
qui seront les mieux adaptées pour satisfaire les exigences actuelles et simplifieront les
modifications futures.
• Conception de modèles de données appropriés pour une utilisation dans des environnements
transactionnels et de mégadonnées en tant qu'entrée dans le traitement de l'apprentissage
automatique.
• Conception et construction d’infrastructures nécessaires pour un ETL optimal à partir d'une
variété de sources de données à utiliser sur les services Azure.
• Développement des spécifications d'interopérabilité des données et de la sémantique
• Collaboration avec plusieurs fournisseurs externes pour soutenir l'acquisition de données
• Analyse des systèmes existants pour identifier les sources de données appropriées.
• Identification, mise en œuvre et amélioration en permanence de processus d'automatisation des
données.
• Fourniture d'une expertise en conception avec la gestion des données de base, la qualité des
données et la gestion des métadonnées.
Profil recherché
Vous êtes titulaire d’un diplôme d’Ingénieur, d’un Master ou d’un Doctorat en informatique ou dans un
domaine technique connexe.
Vos compétences sont les suivantes :
• Bonne compréhension des principes de l'informatique distribuée.
• Bonne compréhension des architectures Lambda et Data lake, et de leurs principes associés.
• Expérience solide dans la conception de schémas et la modélisation de données
(multi)dimensionnelles, et leur cartographie.
• Plus de 6 ans d'expérience en ingénierie des données avec les architectures distribuées, ETL,
EDW et les technologies Big Data.
• Maîtrise et expérience démontrables sur l'utilisation d’Azure et de ses technologies Data (Azure
SQL, Azure Synapse Analytics, Azure Data Factory, Azure Databricks, Azure Purview,…).
• Vaste expérience de travail avec SQL sur une variété de bases de données.
• Expérience de travail avec des sources de données structurées et non structurées à l'aide
d'analyses cloud (Cloudera, Hadoop, Databricks, etc.)
• Expérience avec les outils d'analyse de données.
• Capacité éprouvée dans un ou plusieurs des langages de programmation ou de script suivants -
Python, Java, R.
• Connaissance de l’univers DevOps (y compris FinOps) souhaitable (Azure DevOps serait un
plus).
• Connaissance d’AWS et de GCP, un plus très apprécié.
• Veille technologique, et capacité à mener des ateliers d’évangélisation et de formation sur ses
domaines d’expertises
Réf: 79075501-91be-434a-9942-e3575a8068a8
Le poste n'est plus à pourvoir.