Formation Google Cloud Plateform : Ingénierie de Données

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

À l'issue de cette formation Google Cloud Platform : Ingénerie de données vous aurez acquis les connaissances et les compétences nécessaires pour : 

  • Concevoir et déployer des pipelines et des architectures pour le traitement des données
  • Créer et déployer des workflows de machine learning
  • Interroger des ensembles de données
  • Visualiser des résultats de requêtes et création de rapports

PLB CONSULTANT


Informatique et Management
Voir la fiche entreprise

Tarif

A partir de 3 190,00 €

Durée 4 jours (28h)
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

PLB CONSULTANT


Informatique et Management
Voir la fiche

Tarif

A partir de 3 190,00 €

Durée 4 jours (28h)
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

Description

L'ingénierie de données sur Google Cloud Platform se concentre sur les services Big Data et Machine Learning de la plate-forme cloud de Google.

L'objectif de cette formation Google Cloud Platform : Ingénerie des données est d'apprendre aux participants à concevoir des systèmes de traitement de données, à créer des pipelines de données de bout en bout, à analyser des données et à effectuer un apprentissage automatique. Les démonstrations s'appuient sur les différents services proposés par Google Cloud Platform : BigQuery, Dataflow, Tensorflow, CloudML, Dataproc...

Programme

Introduction à l’ingénierie des données

Explorez le rôle d’un data engineer
Analyser les défis d’ingénierie des données
Introduction à BigQuery
Data lakes et data warehouses
Démo : requêtes fédérées avec BigQuery
Bases de données transactionnelles vs data warehouses
Démo : recherche de données personnelles dans votre jeu de données avec l’API DLP
Travailler efficacement avec d’autres équipes de données
Gérer l’accès aux données et gouvernance
Construire des pipelines prêts pour la production
Étude de cas d’un client GCP

Travaux pratiques

Analyse de données avec BigQuery

Construire un Data Lake​

Introduction aux data lakes
Stockage de données et options ETL sur GCP
Construction d’un data lake à l’aide de Cloud Storage
Démo : optimisation des coûts avec les classes et les fonctions cloud de Google Cloud Storage
Sécurisation de Cloud Storage
Stocker tous les types de données
Démo : exécution de requêtes fédérées sur des fichiers Parquet et ORC dans BigQuery
Cloud SQL en tant que data lake relationnel

Construire un Data Warehouse

Le data warehouse moderne
Introduction à BigQuery
Démo : Requêter des TB + de données en quelques secondes
Commencer à charger des données
Démo : Interroger Cloud SQL à partir de BigQuery

Travaux pratiques

Chargement de données avec la console et la CLI

Explorer les schémas
Exploration des jeux de données publics BigQuery avec SQL à l’aide de INFORMATION_SCHEMA
Conception de schéma
Démo : Exploration des jeux de données publics BigQuery avec SQL à l’aide de INFORMATION_SCHEMA
Champs imbriqués et répétés dans BigQuery

Travaux pratiques

Tableaux et structures

Optimiser avec le partitionnement et le clustering
Démo : Tables partitionnées et groupées dans BigQuery
Aperçu: Transformation de données par lots et en continu

Introduction à la construction de pipelines de données par lots EL, ELT, ETL

Considérations de qualité
Comment effectuer des opérations dans BigQuery
Démo : ELT pour améliorer la qualité des données dans BigQuery
Des lacunes
ETL pour résoudre les problèmes de qualité des données

Exécution de Spark sur Cloud Dataproc

L’écosystème Hadoop
Exécution de Hadoop sur Cloud Dataproc GCS au lieu de HDFS
Optimiser Dataproc

Travaux pratiques

Exécution de jobs Apache Spark sur Cloud Dataproc

Traitement de données sans serveur avec Cloud Dataflow

Cloud Dataflow
Pourquoi les clients apprécient-ils Dataflow ?
Pipelines de flux de données

Travaux pratiques

Pipeline de flux de données simple (Python / Java)
MapReduce dans un flux de données (Python / Java)
Entrées latérales (Python / Java)

Templates Dataflow
Dataflow SQL

Gestion des pipelines de données avec Cloud Data Fusion et Cloud Composer

Création visuelle de pipelines de données par lots avec Cloud Data Fusion : composants, présentation de l’interface utilisateur, construire un pipeline, exploration de données en utilisant Wrangler

Travaux pratiques

Construction et exécution d’un graphe de pipeline dans Cloud Data Fusion

Orchestrer le travail entre les services GCP avec Cloud Composer - Apache Airflow Environment: DAG et opérateurs, planification du flux de travail
Démo : Chargement de données déclenché par un événement avec Cloud Composer, Cloud Functions, Cloud Storage et BigQuery

Travaux pratiques

Introduction à Cloud Composer

Introduction au traitement de données en streaming

Traitement des données en streaming

Serverless messaging avec Cloud Pub/Sub

Cloud Pub/Sub

Travaux pratiques

Publier des données en continu dans Pub/Sub

Fonctionnalités streaming de Cloud Dataflow

Fonctionnalités streaming de Cloud Dataflow

Travaux pratiques

Pipelines de données en continu

Fonctionnalités Streaming à haut débit BigQuery et Bigtable

Fonctionnalités de streaming BigQuery

Travaux pratiques

Analyse en continu et tableaux de bord

Cloud Bigtable

Travaux pratiques

Pipelines de données en continu vers Bigtable

Fonctionnalité avancées de BigQuery et performance

Analytic Window Functions
Utiliser des clauses With
Fonctions SIG
Démo : Cartographie des codes postaux à la croissance la plus rapide avec BigQuery GeoViz
Considérations de performance

Travaux pratiques

Optimisation de vos requêtes BigQuery pour la performance
Création de tables partitionnées par date dans BigQuery

Introduction à l’analytique et à l’IA

Qu’est-ce que l’IA ?
De l’analyse de données ad hoc aux décisions basées sur les données
Options pour modèles ML sur GCP

API de modèle ML prédéfinies pour les données non structurées

Les données non structurées sont difficiles à utiliser
API ML pour enrichir les données

Travaux pratiques

Utilisation de l’API en langage naturel pour classer le texte non structuré

Big Data Analytics avec les notebooks Cloud AI Platform

Qu’est-ce qu’un notebook
BigQuery Magic et liens avec Pandas

Travaux pratiques

BigQuery dans Jupyter Labs sur IA Platform

Pipelines de production ML avec Kubeflow

Façons de faire du ML sur GCP
Kubeflow AI Hub

Travaux pratiques

Utiliser des modèles d’IA sur Kubeflow

Création de modèles personnalisés avec SQL dans BigQuery ML

BigQuery ML pour la construction de modèles rapides
Démo : Entraîner un modèle avec BigQuery ML pour prédire les tarifs de taxi à New York
Modèles pris en charge

Travaux pratiques

Prédire la durée d’une sortie en vélo avec un modèle de régression dans BigQuery ML
Recommandations de film dans BigQuery ML

Création de modèles personnalisés avec Cloud AutoML

Pourquoi Auto ML?
Auto ML Vision
Auto ML NLP
Auto ML Tables

Prérequis

Pour suivre ce cours, il est nécessaire d'avoir préalablement assisté à la formation Google Cloud Platform : l'essentiel du Big Data et du Machine Learning (GCP100B) ou d'avoir de solides connaissances équivalentes. Il est par ailleurs demandé de connaître un langage de requête commun tel que SQL, d'avoir une expérience de la modélisation, de l'extraction, de la transformation et du chargement de données, de savoir développer des applications en utilisant un langage de programmation commun tel que Python et d'être familiarisé avec le machine learning ou les statistiques.

Public

Ce stage s'adresse prioritairement aux développeurs expérimentés en charge de la gestion des grandes transformations de données, notamment en ce qui a trait à : l'extraction, le chargement, la transformation, le nettoyage et la validation des données ; la conception de pipelines et d'architectures pour le traitement de données ; la création et le maintien d'un apprentissage automatique et des modèles statistiques ou encore l'interrogation de jeux de données, visualisation des résultats de requête et création de rapports.

Ces formations pourraient vous intéresser

Objectifs de la formation

  • Identifier l’objectif et la valeur des produits et services Google Cloud.
  • Définir la manière dont l’infrastructure est organisée et contrôlée dans Google Cloud.
  • Expliquer comment créer une infrastructure de base dans Google Cloud.
  • Sélectionner et utiliser les options de stockage Google Cloud.
  • Décrire l’objectif et la valeur de Google Kubernetes Engine.
  • Identifier les cas d’utilisation des services Google Cloud sans serveur.
  • Découvrir les outils et les bonnes pratiques d’IA générative de Google Cloud.
Tarif

A partir de 700,00 €

Durée

1j / 7h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Disposer des pratiques professionnelles permettant d’identifier et de faire vivre la politique HSSE de l’entreprise
  • Acquérir une vision structurante des missions à conduire, des méthodes utilisables, des systèmes de management préconisés et des obligations de communication interne et externe
  • Disposer des guides et outils de formation et de communication permettant d’impliquer au mieux l’ensemble des acteurs de l’entreprise
     
Tarif

A partir de 8 870,00 €

Durée

15,1 jours - 107 heures

Modes
  • Distance
  • Centre
  • Entreprise

Objectifs de la formation

Prendre pleinement conscience de son rôle de manager
Clarifier son rôle et ses missions d'Office Manager
Développer ses compétences en comptabilité, gestion et ressources humaines



Tarif

A partir de 4 100,00 €

Durée

8,1 jours - 58 heures

Modes
  • Distance
  • Centre
  • Entreprise

Objectifs de la formation

À l'issue de cette formation ONTAP 9.x Data Protection Administration vous aurez acquis les connaissances et les compétences nécessaires : 

  • Définir les fonctionnalités de protection de données d’ONTAP 9.x
  • Comprendre les multiples relations de data mirroring disponibles avec ONTAP 9.x
  • Configurer et exploiter la réplication de données de SnapMirror et SnapVault
  • Expliquer la protection de données de la SVM
  • Expliquer les composants et les configurations inclus dans SyncMirror MetroCluster.
  • Décrire l’opération, la configuration et la gestion du protocol NDMP
Tarif

A partir de 1 900,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Cette formation fait l'objet d'une évaluation formative.
Tarif

Contacter l'organisme

Durée

2 jours (14 heures)

Modes
  • Distance
  • Centre

Objectifs de la formation

La suite JasperSoft offre un ensemble d'outils cohérents pour la génération de rapport et l'analyse de données (OLAP). Le modèle OpenSource de cet éditeur rend sa solution très concurrentielle par rapport aux acteurs traditionnels du marché, tout en garantissant une qualité professionnelle. Cette formation Jasper présente l'intégralité de l'offre de Jaspersoft en commençant par la librairie coeur JasperReports, l'outil WYSWIG d'élaboration de rapport pour finalement présenter l'offre serveur associée aux outils d'analyse de données. Cette formation Jasper très opérationnelle permettra aux participants d'être capables d'utiliser ces outils OpenSource dans leurs applications nécessitant du reporting et/ou de l'analyse de données OLAP.

Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Savoir administrer le SGBD Oracle 12c
  • Savoir installer Oracle, créer une base
  • Gérer l'instance, les fichiers de contrôles, le stockage
  • Gérer les strctures, les objets et le partitionnement
  • Gérer les pannes et les utilisateurs
Tarif

A partir de 3 000,00 €

Durée

5 jours

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Se repérer dans la typologie des zones à fort enjeu environnemental et des évaluations environnementales
  • Appliquer les exigences de la réglementation applicable en matière de compensation environnementale
  • Evaluer l'exhaustivité et la conformité de ses dossiers réglementaires "biodiversité"
Tarif

A partir de 3 290,00 €

Durée

4 jours

Modes
  • Entreprise
  • Centre

Objectifs de la formation

À l'issue de cette formation Salesforce Administration vous aurez acquis les connaissances et compétences nécessaires pour :

  • Résoudre les problèmes liés aux modèles de sécurité complexes et modifier ces derniers en fonction des besoins de l’entreprise
  • Identifier les types de relations disponibles dans Salesforce et l’utilisation appropriée de chacune d’entre elles
  • Modifier une application Lightning pour répondre aux besoins de l’entreprise
  • Améliorer la qualité des données avec des règles de validation et des fonctions de formule avancées
  • Utiliser Flow pour résoudre les problèmes métier et augmenter la productivité
  • Résoudre les erreurs de flux résultant de l’ordre d’exécution et des entrées de données non valides
  • Planifier et créer un processus d’approbation
  • Utiliser l’ordre d’exécution pour expliquer pourquoi les automatisations s’exécutent à des moments précis
  • Déterminer quand configurer, acheter ou développer Salesforce
  • Utiliser des techniques de création de rapports avancées pour analyser les données
Tarif

A partir de 2 900,00 €

Durée

4j / 28h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Saisir des données dans Microsoft Excel et sur le Web à l'aide des applications TM1
  • Créer des vues personnalisées des données
  • Générer des rapports et des formulaires dans Microsoft Excel qui communiquent avec TM1
  • Créer et publier des analyses et des plans dans IBM Cognos Insight
Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Je cherche à faire...