Microsoft Azure – Ingénierie des données

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

  • Explorer les options de calcul et de stockage pour les charges de travail en matière d'ingénierie des données dans Azure
  • Explorer, transformer et charger des données dans l'entrepôt de données à l'aide d'Apache Spark
  • Effectuer l'exploration et la transformation des données dans Azure Databricks
  • Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
  • Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse
  • Prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
  • Assurer la sécurité de bout en bout avec Azure Synapse Analytics
  • Effectuez un traitement de flux en temps réel avec Stream Analytics
  • Créer des rapports à l'aide de l'intégration Power BI avec Azure Synpase Analytics
  • Exécuter des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics

ENI Service


votre centre de formation informatique de confiance
Voir la fiche entreprise

Tarif

A partir de 2 590,00 €

Durée 4 jours - 28 h
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

ENI Service


votre centre de formation informatique de confiance
Voir la fiche

Tarif

A partir de 2 590,00 €

Durée 4 jours - 28 h
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

Description

Cette formation certifiante Microsoft propose une exploration approfondie de l’ingénierie des données via les technologies de la plateforme de données Azure.
Vous apprendrez à travailler avec les données stockées dans les centres de données et à utiliser les différentes techniques d’ingestion avec Apache Spark, Azure Synapse Analytics, Azure Databricks, et Azure Data Factory.
De plus, nous nous intéresserons à la création de solutions analytiques en temps réel et par lots, l’optimisation des performances des requêtes avec des pools SQL dédiés, le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link, la sécurité de bout en bout, le traitement de flux en temps réel avec Stream Analytics, l’intégration de Power BI pour la création de rapports, et l’exécution des processus d’apprentissage automatique intégrés dans Azure Synapse Analytics.
Le coupon d’examen officiel, d’une valeur de 165 € HT, est inclus dans le coût de la formation.

Programme

Étudier les options de calcul et de stockage pour les charges de travail en ingénierie des données (1 heure)

  • Introduction à Azure Synapse Analytics
  • Décrire Azure Databricks
  • Introduction au stockage Azure Data Lake
  • Décrire l'architecture Delta Lake
  • Travailler avec des flux de données en utilisant Azure Stream Analytics
  • Travaux pratiques :
    • Combiner le traitement en continu et le traitement par lots avec un seul pipeline
    • Organisez les étendues de données en niveaux de transformation de fichiers
    • Indexez le stockage des étendues de données pour accélérer les requêtes et les charges de travail

Concevoir et mettre en œuvre la couche de services (2 heures)

  • Conception d'un schéma multidimensionnel pour optimiser les charges de travail analytiques
  • Transformation sans code à l'échelle avec Azure Data Factory
  • Alimentation des dimensions à évolution progressive dans les pipelines Azure Synapse Analytics
  • Travaux pratiques :
    • Conception d'un schéma en étoile pour les charges de travail analytiques
    • Remplissage de dimensions à évolution progressive avec Azure Data Factory et mappage des flux de données

Les aspects d'ingénierie des données pour les fichiers sources (1 heure)

  • Concevoir un entrepôt de données moderne avec Azure Synapse Analytics
  • Sécuriser un entrepôt de données dans Azure Synapse Analytics
  • Travaux pratiques :
    • Gestion des fichiers dans une étendue de données Azure
    • Sécurisation des fichiers stockés dans une étendue de données Azure

Exécution de requêtes interactives à l'aide des pools SQL sans serveur Azure Synapse Analytics (2 heures)

  • Explorez les capacités des pools SQL sans serveur Azure Synapse
  • Interroger les données d'une étendue à l'aide des pools SQL sans serveur Azure Synapse
  • Créer des objets de métadonnées dans les pools SQL sans serveur Azure Synapse
  • Sécurisation des données et gestion des utilisateurs dans les pools SQL sans serveur Azure Synapse
  • Travaux pratiques :
    • Créer des tables externes pour les fichiers et CSV
    • Créer des vues avec des pools SQL sans serveur
    • Sécuriser l'accès aux données dans une étendue de données en utilisant des pools SQL sans serveur
    • Configurer la sécurité d'une étendue de données en utilisant le contrôle d'accès basé sur les rôles (RBAC) et la liste de contrôle d'accès

Explorer, transformer et charger des données dans le magasin de données à l'aide d'Apache Spark (3 heures)

  • Comprendre l'ingénierie du big data avec Apache Spark dans Azure Synapse Analytics
  • Ingérer des données avec Apache Spark notebooks dans Azure Synapse Analytics
  • Transformer les données avec DataFrames dans les pools Apache Spark dans Azure Synapse Analytics
  • Intégrer des pools SQL et Apache Spark dans Azure Synapse Analytics
  • Travaux pratiques :
    • Exploration des données dans Synapse Studio
    • Ingérer des données avec Spark notebooks dans Azure Synapse Analytics
    • Transformer les données avec DataFrames dans les pools Spark dans Azure Synapse Analytics
    • Intégrer des pools SQL et Spark dans Azure Synapse Analytics

Exploration et transformation des données dans Azure Databricks (3 heures)

  • Décrire Azure Databricks
  • Lire et écrire des données dans Azure Databricks
  • Travailler avec des DataFrames dans Azure Databricks
  • Travailler avec les méthodes avancées des DataFrames dans Azure Databricks
  • Travaux pratiques :
    • Utiliser les DataFrames dans Azure Databricks pour explorer et filtrer les données
    • Mettre en cache un DataFrame pour accélérer les requêtes ultérieures
    • Supprimez les données en double
    • Manipulation des valeurs de date et d'heure
    • Supprimer et renommer des colonnes de DataFrame
    • Agrégation des données stockées dans un DataFrame

Ingérer et charger les données dans l'entrepôt de données (1 heure)

  • Utiliser les meilleures pratiques de chargement de données dans Azure Synapse Analytics
  • Ingestion à l'échelle du pétaoctet avec Azure Data Factory
  • Travaux pratiques :
    • Effectuer une ingestion à l'échelle du pétaoctet avec Azure Synapse Pipelines
    • Importez des données avec PolyBase et COPY en utilisant T-SQL
    • Utilisez les meilleures pratiques de chargement de données dans Azure Synapse Analytics

Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines (2 heures)

  • Intégration des données avec Azure Data Factory ou Azure Synapse Pipelines
  • Transformation sans code à l'échelle avec Azure Data Factory ou Azure Synapse Pipelines
  • Travaux pratiques :
    • Exécuter des transformations sans code à l'échelle avec Azure Synapse Pipelines
    • Créer un pipeline de données pour importer des fichiers CSV mal formatés
    • Créer des flux de données mappés

Orchestrer le déplacement et la transformation des données dans Azure Synapse Pipelines (1 heure)

  • Orchestrer le transport et la transformation des données dans Azure Data Factory
  • Travaux pratiques :
    • Intégrer les données des Notebooks avec Azure Data Factory ou Azure Synapse Pipelines

Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse (1 heure)

  • Optimiser les performances des requêtes d'entrepôt de données dans Azure Synapse Analytics
  • Comprendre les fonctions de développement d'entrepôt de données d'Azure Synapse Analytics
  • Travaux pratiques :
    • Comprendre les fonctions de développement d'Azure Synapse Analytics
    • Optimiser les performances des requêtes de l'entrepôt de données dans Azure Synapse Analytics
    • Améliorer les performances des requêtes

Analyser et optimiser le stockage de l'entrepôt de données (1 heure)

  • Analyser et optimiser le stockage de l'entrepôt de données dans Azure Synapse Analytics
  • Travaux pratiques :
    • Vérifiez si les données et l'utilisation de l'espace sont faussées
    • Comprendre les détails du stockage des colonnes
    • Étudiez l'impact des vues matérialisées
    • Explorez les règles pour les opérations à journalisation minimale

Prise en charge du traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link (2 heures)

  • Concevoir un traitement hybride transactionnel et analytique à l'aide d'Azure Synapse Analytics
  • Configurer Azure Synapse Link avec Azure Cosmos DB
  • Interroger Azure Cosmos DB avec des pools Apache Spark
  • Interroger Azure Cosmos DB avec des pools SQL sans serveur
  • Travaux pratiques :
    • Configurer Azure Synapse Link avec Azure Cosmos DB
    • Interroger la base de données Azure Cosmos avec Apache Spark pour Synapse Analytics
    • Interroger Azure Cosmos DB avec un pool SQL sans serveur pour Azure Synapse Analytics

Sécurité de bout en bout avec Azure Synapse Analytics (3 heures)

  • Sécuriser un entrepôt de données dans Azure Synapse Analytics
  • Configurer et gérer les secrets dans Azure Key Vault
  • Mettre en œuvre des contrôles de conformité pour les données sensibles
  • Travaux pratiques :
    • Sécuriser l'infrastructure de support d'Azure Synapse Analytics
    • Sécurisation de l'espace de travail et des services gérés d'Azure Synapse Analytics
    • Sécuriser les données de l'espace de travail Azure Synapse Analytics

Traitement des flux en temps réel avec Stream Analytics (1 heure)

  • Assurer une messagerie fiable pour les applications Big Data à l'aide d'Azure Event Hubs
  • Travailler avec des flux de données à l'aide d'Azure Stream Analytics
  • Ingérer des flux de données avec Azure Stream Analytics
  • Travaux pratiques :
    • Utiliser Stream Analytics pour traiter les données en temps réel provenant des Event Hubs
    • Utilisez les fonctions de fenêtrage de Stream Analytics pour créer des agrégats et les transmettre à Synapse Analytics
    • Faites évoluer le job Azure Stream Analytics pour augmenter le débit grâce au partitionnement
    • Répartir l'entrée du flux pour optimiser la parallélisation

Créer une solution de traitement des flux avec Event Hubs et Azure Databricks (1 heure)

  • Traiter les données en continu avec le streaming structuré d'Azure Databricks
  • Travaux pratiques :
    • Explorer les principales caractéristiques et utilisations du streaming structuré
    • Traiter des données en continu à partir d'un fichier et les écrire sur un système de fichiers distribué
    • Utiliser des fenêtres glissantes pour agréger des morceaux de données plutôt que toutes les données
    • Appliquer le filigrane pour supprimer les données périmées
    • Connexion aux flux de lecture et d'écriture des Event Hubs

Créer des rapports en utilisant l'intégration de Power BI avec Azure Synpase Analytics (2 heures)

  • Créer des rapports avec Power BI en utilisant son intégration avec Azure Synapse Analytics
  • Travaux pratiques :
    • Intégrer un espace de travail Azure Synapse et Power BI
    • Optimiser l'intégration avec Power BI
    • Améliorer les performances des requêtes avec les vues matérialisées et la mise en cache des ensembles de résultats
    • Visualisation des données avec SQL serverless et création d'un rapport Power BI

Exécuter des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics (1 heure)

  • Utiliser le processus d'apprentissage automatique intégré dans Azure Synapse Analytics
  • Travaux pratiques :
    • Créez un service lié à Azure Machine Learning
    • Déclencher une expérience d'apprentissage automatique à l'aide de données provenant d'une table Spark
    • Enrichir les données à l'aide de modèles formés
    • Servir les résultats de prédiction à l'aide de Power BI

Prérequis

Il est recommandé d'avoir suivi en préalable les formations Microsoft Azure – Notions fondamentales et Microsoft Azure Data – Notions fondamentales

Public

Le public cible de ce cours est constitué de professionnels des données, d'architectes de données et de professionnels de la veille stratégique qui souhaitent se familiariser avec l'ingénierie des données et la création de solutions analytiques à l'aide des technologies de plateforme de données qui existent sur Microsoft Azure.

Sont également concernés les analystes de données et les scientifiques de données qui travaillent avec des solutions analytiques construites sur Microsoft Azure.

Cette formation prépare au rôle d'ingénieur en traitement des données.

Ces formations pourraient vous intéresser

Formation Stratégie SI

Proposé par PLB CONSULTANT

Objectifs de la formation

Concrètement, à l'issue de cette formation Stratégie Si, vous serez en mesure de:

  • Analyser un Système d’information
  • Ouvrir son SI vers l’extérieur (enjeux, technologies, clients, fournisseurs, portails etc.)
  • Définir une stratégie pour les postes de travail en entreprise
  • Faire des choix dans l’externalisation des ressources (Cloud, Hébergement, Infogérance, …)
  • Intégrer les applications entre elles (ERP, API, Web Services, etc.)
  • Partager et capitaliser l’information métier (collaboratif, wiki, …)
  • Sécuriser son SI
  • Mettre en œuvre une stratégie SI en maîtrisant les coûts
Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Créer et manipuler des tableaux croisés dynamiques
  • Utiliser les fonctions de calcul avancées
  • Savoir lier les données de plusieurs documents
Tarif

A partir de 550,00 €

Durée

1 jour

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

À l'issue de cette formation Dialoguer avec les développeurs vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Connaître les phases de développement d’une application
  • Décrire les différents outils utilisés par les développeurs et leur environnement de travail
  • Savoir classer les langages et les technologies par famille (backend, frontend, base de données, etc.)
  • Comprendre comment un développeur gère les données dans une application
  • Connaître les architectures des applications et le vocabulaire associé
Tarif

A partir de 1 480,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

Cette formation combine les programmes des formations d'Introduction au web de données d'une part et de Mise en oeuvre des outils d'autre part. Elle permet d'introduire les concepts du web de données (Linked Data, URI, interopérabilité), et de les illustrer par des exemples de réalisation qui les mettent en oeuvre. La formation donne les notions nécessaires pour comprendre les standards du web sémantique : RDF, SPARQL, RDFa, OWL, SKOS; toutes ces notions sont illustrées par des exercices et la manipulation concrète d'outils. Dans sa partie avancée, le programme de formation couvre l'utilisation d'API de programmation Java pour manipuler les données RDF, la modélisation d'ontologies OWL, et la représentation de vocabulaires en SKOS. Par ailleurs, les aspects pratiques de conversion et de publication de données dans les projets sont couverts, ainsi que le SEO sémantique avec schema.org.

A l'issue de cette formation complète, les stagiaires auront acquis les compétences et connaissances nécessaires pour mettre en oeuvre les technologies du web de données pour chaque aspect d'un projet : de la modélisation des données à leur publication en passant par les traitements intermédiaires.

Tarif

A partir de 2 440,00 €

Durée

4j / 28h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

À l'issue de cette formation Mettre en oeuvre et administrer System Center 2012 Service Manager, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Apprendre à concevoir, déployer et maintenir le Service Manager 2012 au sein de son organisation
  • Découvrir les différents produits du System Center 2012
  • Apprendre comment System Center Service Manager 2012 est conçu et déployé au sein de la suite System Center
  • Savoir personnaliser l'environnement de l'utilisateur final et automatiser les réponses de demande de services
  • Connaître les meilleures pratiques pour l'utilisation de Service Manager 2012
Tarif

Contacter l'organisme

Durée

5j / 35h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

À l'issue de cette formation Node.js, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Connaître le fonctionnement et les usages courants de la plateforme Node.js
  • Connaître les spécificités de la programmation côté serveur en JavaScript
  • Savoir installer et configurer un serveur Node.js
  • Connaître les particularités de la programmation asynchrone et celles de la programmation orientée événements
  • Savoir paramétrer et manipuler l’API Node.js et son serveur d’API REST
  • Savoir se connecter à une base de données
  • Mettre en œuvre les bonnes pratiques Node.js
Tarif

A partir de 1 850,00 €

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Appliquer des tris et filtres
  • Utiliser les fonctions avancées
  • Maîtriser les outils d'aide à la décision
  • Réaliser des liaisons et consolidations
  • Créer des tableaux croisés dynamiques
  • Concevoir des graphiques adaptés
  • Mettre à jour les données d'un graphique
  • Créer et utiliser des graphiques croisés dynamiques
Tarif

A partir de 800,00 €

Durée

2 jours

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Créer des documents Web Intelligence complexes
  • Utiliser des techniques avancées de requête
  • Créer des rapports
  • Identifier les dimensions fusionnées en provenance de plusieurs sources de données
  • Identifier les requêtes combinées et sous-requêtes
  • Redéfinir des contextes de calcul
  • Identifier les fonctions de chaîne de caractères et de date
  • Utiliser les formules de calcul complexes (fonctions imbriquées, opérateur logique Si...)
  • Identifier les variables et les contextes de calcul
  • Suivre des données
  • Mettre en place des liens d'éléments
  • Définir la liaison de composants du document à l'aide d'hyperliens.
Tarif

A partir de 1 640,00 €

Durée

2j / 14h

Modes
  • Centre
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Identifier les rôles et postures à adopter pour contribuer à l'animation et la coordination des équipes, ainsi qu'à l'accueil
  • Rédiger un compte rendu de réunion en analysant, triant et synthétisant les informations et idées essentielles
  • Acquérir des outils pour adapter vos méthodes de travail et votre communication au distanciel
  • Organiser et coordonner les activités quotidiennes de l'équipe de direction et concevoir un outil de pilotage
  • Participer à la coordination et au suivi d'un projet
  • Pratiquer l'écoute active et l'argumentation en vous adaptant aux situations et aux interlocuteurs pour échanger et convaincre
  • Développer vos capacités à gérer des situations délicates.
Tarif

A partir de 1 400,00 €

Durée

2j / 14h

Modes
  • Centre
  • Distance

Objectifs de la formation

  • Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.
Tarif

Contacter l'organisme

Durée

3 jours (21 heures)

Modes
  • Centre
  • Distance

Je cherche à faire...