Formation Google Cloud Plateform : Ingénierie de Données

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

À l'issue de cette formation Google Cloud Platform : Ingénerie de données vous aurez acquis les connaissances et les compétences nécessaires pour : 

  • Concevoir et déployer des pipelines et des architectures pour le traitement des données
  • Créer et déployer des workflows de machine learning
  • Interroger des ensembles de données
  • Visualiser des résultats de requêtes et création de rapports

PLB CONSULTANT


Informatique et Management
Voir la fiche entreprise

Tarif

A partir de 3 190,00 €

Durée 4 jours (28h)
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

PLB CONSULTANT


Informatique et Management
Voir la fiche

Tarif

A partir de 3 190,00 €

Durée 4 jours (28h)
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

Description

L'ingénierie de données sur Google Cloud Platform se concentre sur les services Big Data et Machine Learning de la plate-forme cloud de Google.

L'objectif de cette formation Google Cloud Platform : Ingénerie des données est d'apprendre aux participants à concevoir des systèmes de traitement de données, à créer des pipelines de données de bout en bout, à analyser des données et à effectuer un apprentissage automatique. Les démonstrations s'appuient sur les différents services proposés par Google Cloud Platform : BigQuery, Dataflow, Tensorflow, CloudML, Dataproc...

Programme

Introduction à l’ingénierie des données

Explorez le rôle d’un data engineer
Analyser les défis d’ingénierie des données
Introduction à BigQuery
Data lakes et data warehouses
Démo : requêtes fédérées avec BigQuery
Bases de données transactionnelles vs data warehouses
Démo : recherche de données personnelles dans votre jeu de données avec l’API DLP
Travailler efficacement avec d’autres équipes de données
Gérer l’accès aux données et gouvernance
Construire des pipelines prêts pour la production
Étude de cas d’un client GCP

Travaux pratiques

Analyse de données avec BigQuery

Construire un Data Lake​

Introduction aux data lakes
Stockage de données et options ETL sur GCP
Construction d’un data lake à l’aide de Cloud Storage
Démo : optimisation des coûts avec les classes et les fonctions cloud de Google Cloud Storage
Sécurisation de Cloud Storage
Stocker tous les types de données
Démo : exécution de requêtes fédérées sur des fichiers Parquet et ORC dans BigQuery
Cloud SQL en tant que data lake relationnel

Construire un Data Warehouse

Le data warehouse moderne
Introduction à BigQuery
Démo : Requêter des TB + de données en quelques secondes
Commencer à charger des données
Démo : Interroger Cloud SQL à partir de BigQuery

Travaux pratiques

Chargement de données avec la console et la CLI

Explorer les schémas
Exploration des jeux de données publics BigQuery avec SQL à l’aide de INFORMATION_SCHEMA
Conception de schéma
Démo : Exploration des jeux de données publics BigQuery avec SQL à l’aide de INFORMATION_SCHEMA
Champs imbriqués et répétés dans BigQuery

Travaux pratiques

Tableaux et structures

Optimiser avec le partitionnement et le clustering
Démo : Tables partitionnées et groupées dans BigQuery
Aperçu: Transformation de données par lots et en continu

Introduction à la construction de pipelines de données par lots EL, ELT, ETL

Considérations de qualité
Comment effectuer des opérations dans BigQuery
Démo : ELT pour améliorer la qualité des données dans BigQuery
Des lacunes
ETL pour résoudre les problèmes de qualité des données

Exécution de Spark sur Cloud Dataproc

L’écosystème Hadoop
Exécution de Hadoop sur Cloud Dataproc GCS au lieu de HDFS
Optimiser Dataproc

Travaux pratiques

Exécution de jobs Apache Spark sur Cloud Dataproc

Traitement de données sans serveur avec Cloud Dataflow

Cloud Dataflow
Pourquoi les clients apprécient-ils Dataflow ?
Pipelines de flux de données

Travaux pratiques

Pipeline de flux de données simple (Python / Java)
MapReduce dans un flux de données (Python / Java)
Entrées latérales (Python / Java)

Templates Dataflow
Dataflow SQL

Gestion des pipelines de données avec Cloud Data Fusion et Cloud Composer

Création visuelle de pipelines de données par lots avec Cloud Data Fusion : composants, présentation de l’interface utilisateur, construire un pipeline, exploration de données en utilisant Wrangler

Travaux pratiques

Construction et exécution d’un graphe de pipeline dans Cloud Data Fusion

Orchestrer le travail entre les services GCP avec Cloud Composer - Apache Airflow Environment: DAG et opérateurs, planification du flux de travail
Démo : Chargement de données déclenché par un événement avec Cloud Composer, Cloud Functions, Cloud Storage et BigQuery

Travaux pratiques

Introduction à Cloud Composer

Introduction au traitement de données en streaming

Traitement des données en streaming

Serverless messaging avec Cloud Pub/Sub

Cloud Pub/Sub

Travaux pratiques

Publier des données en continu dans Pub/Sub

Fonctionnalités streaming de Cloud Dataflow

Fonctionnalités streaming de Cloud Dataflow

Travaux pratiques

Pipelines de données en continu

Fonctionnalités Streaming à haut débit BigQuery et Bigtable

Fonctionnalités de streaming BigQuery

Travaux pratiques

Analyse en continu et tableaux de bord

Cloud Bigtable

Travaux pratiques

Pipelines de données en continu vers Bigtable

Fonctionnalité avancées de BigQuery et performance

Analytic Window Functions
Utiliser des clauses With
Fonctions SIG
Démo : Cartographie des codes postaux à la croissance la plus rapide avec BigQuery GeoViz
Considérations de performance

Travaux pratiques

Optimisation de vos requêtes BigQuery pour la performance
Création de tables partitionnées par date dans BigQuery

Introduction à l’analytique et à l’IA

Qu’est-ce que l’IA ?
De l’analyse de données ad hoc aux décisions basées sur les données
Options pour modèles ML sur GCP

API de modèle ML prédéfinies pour les données non structurées

Les données non structurées sont difficiles à utiliser
API ML pour enrichir les données

Travaux pratiques

Utilisation de l’API en langage naturel pour classer le texte non structuré

Big Data Analytics avec les notebooks Cloud AI Platform

Qu’est-ce qu’un notebook
BigQuery Magic et liens avec Pandas

Travaux pratiques

BigQuery dans Jupyter Labs sur IA Platform

Pipelines de production ML avec Kubeflow

Façons de faire du ML sur GCP
Kubeflow AI Hub

Travaux pratiques

Utiliser des modèles d’IA sur Kubeflow

Création de modèles personnalisés avec SQL dans BigQuery ML

BigQuery ML pour la construction de modèles rapides
Démo : Entraîner un modèle avec BigQuery ML pour prédire les tarifs de taxi à New York
Modèles pris en charge

Travaux pratiques

Prédire la durée d’une sortie en vélo avec un modèle de régression dans BigQuery ML
Recommandations de film dans BigQuery ML

Création de modèles personnalisés avec Cloud AutoML

Pourquoi Auto ML?
Auto ML Vision
Auto ML NLP
Auto ML Tables

Prérequis

Pour suivre ce cours, il est nécessaire d'avoir préalablement assisté à la formation Google Cloud Platform : l'essentiel du Big Data et du Machine Learning (GCP100B) ou d'avoir de solides connaissances équivalentes. Il est par ailleurs demandé de connaître un langage de requête commun tel que SQL, d'avoir une expérience de la modélisation, de l'extraction, de la transformation et du chargement de données, de savoir développer des applications en utilisant un langage de programmation commun tel que Python et d'être familiarisé avec le machine learning ou les statistiques.

Public

Ce stage s'adresse prioritairement aux développeurs expérimentés en charge de la gestion des grandes transformations de données, notamment en ce qui a trait à : l'extraction, le chargement, la transformation, le nettoyage et la validation des données ; la conception de pipelines et d'architectures pour le traitement de données ; la création et le maintien d'un apprentissage automatique et des modèles statistiques ou encore l'interrogation de jeux de données, visualisation des résultats de requête et création de rapports.

Ces formations pourraient vous intéresser

Objectifs de la formation

  • Maîtriser les fondamentaux de Airtable et la création de base de données
  • Utiliser les fonctionnalités avancées de Airtable
  • Composer et organiser des interfaces utilisateurs sans pré-requis en conception applicative
  • Créer des bases de données relationnelles dans un cadre applicatif
  • Modéliser et gérer des actions (workflows)
  • Intégrer des API pour créer des applications puissantes
  • Construire une application web ou mobile opérationnelle
Tarif

A partir de 2 770,00 €

Durée

5j / 35h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Expliquer les modèles d’hébergements possibles avec Blazor
  • Installer et créer un nouveau projet
  • Créer des composants d’application réutilisables
  • Expliquer comment fonctionne le routage
  • Maitriser les mécanismes d’injection de dépendances
  • Expliquer les mécanismes de rendu
  • Gérer l’authentification et les autorisations
  • Gérer la mise en page d’un site
  • Ecrire des tests unitaires pour votre application
  • Tirer parti de l’écosystème Javascript existant
  • Créer une application PWA
Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

Concrètement, à l'issue de cette formation Logiciel R vous aurez acquis les connaissances et les compétences nécessairesp pour :

  • Savoir utiliser des méthodes d’exploration de données
  • Comprendre le principe de la modélisation statistique
  • Choisir entre la régression et la classification
  • Mettre en œuvre une évaluation des performances prédictives d'un modèle
Tarif

A partir de 2 390,00 €

Durée

4j / 28h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

Connaître l'environnement Google Slides
Etre capable de créer une présentation 
Ajouter des animations et des transitions à votre présentation 
Ajouter divers objets dans votre présentation
Présenter sa présentation ou l'imprimer
Tarif

A partir de 559,00 €

Durée

1j / 7h

Modes
  • Entreprise
  • Distance

Objectifs de la formation

  • Décrypter le modèle de financement à l'activité
  • Identifier les problèmes inhérents à l'organisation de votre chaîne de facturation
  • Mettre en place la T2A et la facturation au fil de l'eau
Tarif

A partir de 1 450,00 €

Durée

2j / 14h

Modes
  • Centre
  • Distance
  • Entreprise

Objectifs de la formation

  • Intégrer les enjeux financiers liés au fonctionnement et à l'activité hospitalière dans sa prise de décision.
  • Optimiser ses méthodes et outils du contrôle de gestion pour une analyse efficiente de l'hôpital.
  • Exploiter des tableaux de bord de gestion adaptés aux problématiques hospitalières.
  • Éclairer les choix du décideur au regard du développement des activités.
Tarif

A partir de 1 560,00 €

Durée

2 jours

Modes
  • Centre
  • Entreprise

Objectifs de la formation

  • Travailler avec une organisation pour recueillir les besoins et mettre en œuvre les solutions Power Platform
  • Créer des modèles, des canevas et des portails d'applications
  • Créer flux Power Automate
  • Concevoir un chatbot simple en utilisant Power Virtual Agents
  • Analyser les données à l'aide de visualisations et de tableaux de bord Power BI

 

Tarif

A partir de 3 150,00 €

Durée

5j / 35h

Modes
  • Centre
  • Entreprise
  • Distance

Formation DevOps - AIOps Foundation

Proposé par PLB CONSULTANT

Objectifs de la formation

À l'issue de cette formation AIOps, vous aurez acquis les connaissances nécessaires pour :

  • Comprendre les concepts fondamentaux et les principes clés de l’AIOps
  • Appréhender les concepts généraux du Big Data et de l’AI ainsi que la manière dont ils sont liés à l’AIOps
  • Connaître la relation entre AIOps et MLOps
  • Être en mesure de quantifier les résultats d’une mise en œuvre d’AIOps à l’aide de métriques clés
  • Comprendre les défis et les opportunités d’utilisation de l’AIOps dans l’entreprise
  • Se préparer à la certification « AIOps Foundation »
Tarif

A partir de 2 330,00 €

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

À l'issue de cette formation PostgreSQL, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Découvrir l’architecture de PostgreSQL et ses outils principaux
  • Savoir installer et administrer un serveur PostgreSQL
  • Être capable de gérer des bases de données PostgreSQL au quotidien
  • Savoir interagir avec un serveur PostgreSQL au moyen de Psql
  • Savoir configurer les permissions et les accès des utilisateurs
  • Mettre en œuvre la sécurité au sein de votre base de données PostgreSQL
  • Mettre en place une stratégie de sauvegarde et de restauration
Tarif

A partir de 1 950,00 €

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

Amazon Web Services fournit des services en ligne à d'autres sites internet ou applications clientes. La plupart d'entre eux ne sont pas directement exposés à l'utilisateur final, mais offrent des fonctionnalités que d'autres développeurs peuvent utiliser.

Concrètement, cette formation vous apportera les connaissances et compétences pour :

  • Acquérir la connaissance des concepts et des fonctionnalités de base du Cloud AWS (Amazon Web Services)
  • Apprendre la mise en œuvre de base des composants IaaS (Infrastructure as a Service) : Réseaux virtuels, Machines Virtuelles, Backup, Sécurité et Monitoring des applications.
Tarif

A partir de 1 480,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise
  • Distance

Je cherche à faire...