Azure Data Architect F/H

Je postule
  • Etablissement :  Kapela

  • Type de contrat :  CDI

  • Temps de travail :  Temps plein

  • Lieu Nantes

Description de l'entreprise

Kapela, filiale du groupe Constellation, conçoit pour ses clients  des applications intelligentes autour des données et les accompagne dans l’éco-développement de solutions digitales à usage externe ou interne. 

 

Nos offres : 

  • KapFlow : Exploitation des données grâce à WebMethods. Maitrise et exploitation de toute la richesse du SI.
  • KapStudio : Pour créer ensemble. Les équipes conçoivent, développent une solution sur mesures à partir de des projets clients et assurent la mise en production.
  • KapExpert : Nos expertises au service du client. Des missions courtes telles que des audits de code, du coaching Agile, de l'accompagnement DevOps et bien plus encore.
  • KapCare : Tierce maintenance applicative. Prendre soin des services clients en production avec les prestations de TMA

 

Fort de nos +90 collaborateurs, chez Kapela nous pensons que l'équipe est une valeur forte pour le rayonnement d'une entreprise et nous nous efforçons de construire un collectif uni, professionnel et bienveillant évoluant dans un environnement favorable à leur bien être et leur développement personnel afin de faire propager dans vos produits leur savoir faire

Description du poste

L’objectif principal sera la construction d’architectures Azure optimales capables de collecter, stocker,

traiter et analyser de vastes ensembles de données., puis de les faire évoluer.


Responsabilités-clés

• Collecte des exigences et de la création d'un ensemble de spécifications techniques détaillées et

de haut niveau.

• Développement d'un cadre d'ingestion de données pour différentes sources.

• Participation aux discussions architecturales, avec analyse du système qui implique un examen

des systèmes existants et des méthodologies d'exploitation.

• Participation à l'analyse des technologies les plus récentes et suggestion de solutions optimales

qui seront les mieux adaptées pour satisfaire les exigences actuelles et simplifieront les

modifications futures.

• Conception de modèles de données appropriés pour une utilisation dans des environnements

transactionnels et de mégadonnées en tant qu'entrée dans le traitement de l'apprentissage

automatique.

• Conception et construction d’infrastructures nécessaires pour un ETL optimal à partir d'une

variété de sources de données à utiliser sur les services Azure.

• Développement des spécifications d'interopérabilité des données et de la sémantique

• Collaboration avec plusieurs fournisseurs externes pour soutenir l'acquisition de données

• Analyse des systèmes existants pour identifier les sources de données appropriées.

• Identification, mise en œuvre et amélioration en permanence de processus d'automatisation des

données.

• Fourniture d'une expertise en conception avec la gestion des données de base, la qualité des

données et la gestion des métadonnées.

Profil recherché

Vous êtes titulaire d’un diplôme d’Ingénieur, d’un Master ou d’un Doctorat en informatique ou dans un

domaine technique connexe.

Vos compétences sont les suivantes : 

• Bonne compréhension des principes de l'informatique distribuée.

• Bonne compréhension des architectures Lambda et Data lake, et de leurs principes associés.

• Expérience solide dans la conception de schémas et la modélisation de données

(multi)dimensionnelles, et leur cartographie.

• Plus de 6 ans d'expérience en ingénierie des données avec les architectures distribuées, ETL,

EDW et les technologies Big Data.

• Maîtrise et expérience démontrables sur l'utilisation d’Azure et de ses technologies Data (Azure

SQL, Azure Synapse Analytics, Azure Data Factory, Azure Databricks, Azure Purview,…).

• Vaste expérience de travail avec SQL sur une variété de bases de données.

• Expérience de travail avec des sources de données structurées et non structurées à l'aide

d'analyses cloud (Cloudera, Hadoop, Databricks, etc.)

• Expérience avec les outils d'analyse de données.

• Capacité éprouvée dans un ou plusieurs des langages de programmation ou de script suivants -

Python, Java, R.

• Connaissance de l’univers DevOps (y compris FinOps) souhaitable (Azure DevOps serait un

plus).

• Connaissance d’AWS et de GCP, un plus très apprécié.

• Veille technologique, et capacité à mener des ateliers d’évangélisation et de formation sur ses

domaines d’expertises

Réf: e36175f7-5780-47c9-95f9-661fcdca19ef

Le poste n'est plus à pourvoir.

Partager l'offre

Nos dernières offres