Formation - Google Cloud Platform - Ingénierie de données

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

  • Cette formation fait l'objet d'une évaluation formative.

IB Cegos


Formations aux technologies et métiers du Numérique
Voir la fiche entreprise

Tarif

Contacter l'organisme

Durée 4 jours (28 heures)
Modes
  • Distance
  • Centre
Sessions
Lieux Partout en France

IB Cegos


Formations aux technologies et métiers du Numérique
Voir la fiche

Tarif

Contacter l'organisme

Durée 4 jours (28 heures)
Modes
  • Distance
  • Centre
Sessions
Lieux Partout en France

Programme

1 - Introduction à l'ingénierie des données

  • Explorer le rôle d'un data engineer
  • Analyser les défis d'ingénierie des données
  • Introduction à BigQuery
  • Data lakes et data warehouses
  • Démo: requêtes fédérées avec BigQuery
  • Bases de données transactionnelles vs data warehouses
  • Démo: recherche de données personnelles dans votre jeu de données avec l'API DLP
  • Travailler efficacement avec d'autres équipes de données
  • Gérer l'accès aux données et gouvernance
  • Construire des pipelines prêts pour la production
  • Etude de cas d'un client GCP
  • Lab : Analyse de données avec BigQuery

2 - Construire un Data Lake

  • Introduction aux data lakes
  • Stockage de données et options ETL sur GCP
  • Construction d'un data lake à l'aide de Cloud Storage
  • Démo : optimisation des coûts avec les classes et les fonctions cloud de Google Cloud Storage
  • Sécurisation de Cloud Storage
  • Stocker tous les types de données
  • Démo : exécution de requêtes fédérées sur des fichiers Parquet et ORC dans BigQuery
  • Cloud SQL en tant que data lake relationnel

3 - Construire un Data Warehouse

  • Le data warehouse moderne
  • Introduction à BigQuery
  • Démo : Requêter des TB + de données en quelques secondes
  • Commencer à charger des données
  • Démo: Interroger Cloud SQL à partir de BigQuery
  • Lab : Chargement de données avec la console et la CLI
  • Explorer les schémas
  • Exploration des jeux de données publics BigQuery avec SQL à l'aide de Information_Schema
  • Conception de schéma
  • Démo : Exploration des jeux de données publics BigQuery avec SQL à l'aide de Information_Schema
  • Champs imbriqués et répétés dans BigQuery
  • Lab : tableaux et structures
  • Optimiser avec le partitionnement et le clustering
  • Démo : Tables partitionnées et groupées dans BigQuery
  • Aperçu : Transformation de données par lots et en continu

4 - Introduction à la construction de pipelines de données par lots EL, ELT, ETL

  • Considérations de qualité
  • Comment effectuer des opérations dans BigQuery
  • Démo : ETL pour améliorer la qualité des données dans BigQuery
  • Des lacunes
  • ETL pour résoudre les problèmes de qualité des données

5 - Exécution de Spark sur Cloud Dataproc

  • L'écosystème Hadoop
  • Exécution de Hadoop sur Cloud Dataproc GCS au lieu de HDFS
  • Optimiser Dataproc
  • Atelier : Exécution de jobs Apache Spark sur Cloud Dataproc

6 - Traitement de données sans serveur avec Cloud Dataflow

  • Cloud Dataflow
  • Pourquoi les clients apprécient-ils Dataflow ?
  • Pipelines de flux de données
  • Lab : Pipeline de flux de données simple (Python / Java)
  • Lab : MapReduce dans un flux de données (Python / Java)
  • Lab : Entrées latérales (Python / Java)
  • Templates Dataflow
  • Dataflow SQL

7 - Gestion des pipelines de données avec Cloud Data Fusion et Cloud Composer

  • Création visuelle de pipelines de données par lots avec Cloud Data Fusion: composants, présentation de l'interface utilisateur, construire un pipeline, exploration de données en utilisant Wrangler
  • Lab : Construction et exécution d'un graphe de pipeline dans Cloud Data Fusion
  • Orchestrer le travail entre les services GCP avec Cloud Composer - Apache Airflow
  • Environment : DAG et opérateurs, planification du flux de travail
  • Démo : Chargement de données déclenché par un événement avec Cloud Composer, Cloud Functions, Cloud Storage et BigQuery
  • Lab : Introduction à Cloud Composer

8 - Introduction au traitement de données en streaming

  • Traitement des données en streaming

9 - Serverless messaging avec Cloud Pub/Sub

  • Cloud Pub/Sub
  • Lab : Publier des données en continu dans Pub/Sub

10 - Fonctionnalités streaming de Cloud Dataflow

  • Fonctionnalités streaming de Cloud Dataflow
  • Lab : Pipelines de données en continu

11 - Fonctionnalités Streaming à haut débit BigQuery et Bigtable

  • Fonctionnalités de streaming BigQuery
  • Lab : Analyse en continu et tableaux de bord
  • Cloud Bigtable
  • Lab : Pipelines de données en continu vers Bigtable

12 - Fonctionnalité avancées de BigQuery et performance

  • Analytic Window Functions
  • Utiliser des clauses With
  • Fonctions SIG
  • Démo: Cartographie des codes postaux à la croissance la plus rapide avec BigQuery GeoViz
  • Considérations de performance
  • Lab : Optimisation de vos requêtes BigQuery pour la performance
  • Lab : Création de tables partitionnées par date dans BigQuery

13 - Introduction à l'analytique et à l'IA

  • Qu'est-ce que l'IA?
  • De l'analyse de données ad hoc aux décisions basées sur les données
  • Options pour modèles ML sur GCP

14 - API de modèle ML prédéfinies pour les données non structurées

  • Les données non structurées sont difficiles à utiliser
  • API ML pour enrichir les données
  • Lab : Utilisation de l'API en langage naturel pour classer le texte non structuré

15 - Big Data Analytics avec les notebooks Cloud AI Platform

  • Qu'est-ce qu'un notebook
  • BigQuery Magic et liens avec Pandas
  • Lab : BigQuery dans Jupyter Labs sur IA Platform

16 - Pipelines de production ML avec Kubeflow

  • Façons de faire du ML sur GCP
  • Kubeflow AI Hub
  • Lab : Utiliser des modèles d'IA sur Kubeflow

17 - Création de modèles personnalisés avec SQL dans BigQuery ML

  • BigQuery ML pour la construction de modèles rapides
  • Démo : Entraîner un modèle avec BigQuery ML pour prédire les tarifs de taxi à New York
  • Modèles pris en charge
  • Lab : Prédire la durée d'une sortie à vélo avec un modèle de régression dans BigQuery ML
  • Lab : Recommandations de film dans BigQuery ML

18 - Création de modèles personnalisés avec Cloud AutoML

  • Pourquoi Auto ML?
  • Auto ML Vision
  • Auto ML NLP
  • Auto ML Tables

Prérequis

  • Avoir suivi la formation "Google Cloud Platform - Les fondamentaux du Big Data et du Machine Learning" (CC381) ou bénéficier d'une expérience équivalente
  • Maîtriser les principes de base des langages de requête courants tels que SQL
  • Avoir de l'expérience en modélisation, extraction, transformation et chargement des données
  • Savoir développer des applications à l'aide d'un langage de programmation courant tel que Python
  • Savoir utiliser le Machine Learning et/ou les statistiques

Public

  • Développeurs expérimentés en charge des transformations du Big Data

Ces formations pourraient vous intéresser

Objectifs de la formation

  • Explorer les options de calcul et de stockage pour les charges de travail en matière d'ingénierie des données dans Azure
  • Explorer, transformer et charger des données dans l'entrepôt de données à l'aide d'Apache Spark
  • Effectuer l'exploration et la transformation des données dans Azure Databricks
  • Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
  • Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse
  • Prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
  • Assurer la sécurité de bout en bout avec Azure Synapse Analytics
  • Effectuez un traitement de flux en temps réel avec Stream Analytics
  • Créer des rapports à l'aide de l'intégration Power BI avec Azure Synpase Analytics
  • Exécuter des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics
Tarif

A partir de 2 590,00 €

Durée

4j / 28h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Identifier les risques des différentes catégories de produits chimiques utilisés
  • Appliquer les mesures de prévention et adopter un comportement sécurité vis-à-vis des risques propres à l'entreprise
Tarif

A partir de 1 390,00 €

Durée

1j / 7h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Créer vos propres projets d'équipe
  • Organiser et créer vos pages
  • Ajouter des templates
  • Personnaliser vos espaces de travail
  • Gérer des bases de données.
Tarif

A partir de 1 120,00 €

Durée

2j / 14h

Modes
  • Centre
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Organiser un projet de développement sous Bubble en Low Code / No code
  • Concevoir des applications Web avec Bubble
  • Vérifier le niveau de sécurité de votre application Web
  • Optimiser la performance de votre application Bubble
  • Publier et gérer votre application Web créée sous Bubble
  • Déterminer où et comment trouver les réponses à vos questions.
Tarif

A partir de 2 240,00 €

Durée

4j / 28h

Modes
  • Centre
  • Distance

Objectifs de la formation

Savoir maîtriser

Gatling est un outil de développement open source dédié de test de charge et de prerformance des applications web. Il fournit une alternative full dev-ops au vénérable JMeter. Les tests de charge sont scriptés via le langage Scala et s’intègrent aisément dans les pipelines de CI/CD (intégration continue / livraison continue) des approches DevOps. L’architecture asynchrone du produit lui permet de simuler de très nombreux utilisateurs avec un minimum de ressources.

Avec cette formation Gatling, vous apprendrez à :

  • Installer et intégrer Gatling dans une chaîne CI/CD
  • Développer ses scripts via le DSL fourni
  • Bâtir des rapports de performance selon le standard du domaine
  • Écrire des tests fonctionnels avec Gatling
Tarif

A partir de 1 480,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Décrire l'architecture Spring Batch
  • Identifier une problématique que peut résoudre Spring Batch
  • Configurer un Job et ses étapes (Step)
  • Contrôler le flow d'exécution d'un Step
  • Intercepter et traiter les erreurs d'exécution des batch.
Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Distance

Formation Alfresco Administrateur

Proposé par PLB CONSULTANT

Objectifs de la formation

Alfresco est la principale alternative open source aux géants du marché de la gestion de contenu d’entreprise, c'est un logiciel très complet basé sur les standards de l'open-source (Lucene et Solr, Hibernate, Spring) Alfresco est un outil extrêmement flexible, qui sait rapidement s’adapter aux contraintes des entreprises. Son expertise se situe dans la gestion de documents et de contenus et dans sa capacité à faciliter le travail de collaboration entre les différents acteurs d’une entreprise.

L'objectif principal de cette formation est de vous enseigner comment:
- Savoir gérer et administrer les documents dans l’environnement Alfresco
- Comprendre l'architecture fonctionnelle pour une implémentation optimale
- Maîtriser les fonctionnalités clé
- Etre en mesure d'installer, paramétrer, et assurer la maintenance du produit

Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Créer un site Internet sur Wix à partir de zéro, fonctionnel et indexé
  • Ajouter, supprimer, mettre à jour les contenus
  • Modifier la mise en page
  • Ajouter des applications de Wix App Market
  • Connecter votre nom de domaine
  • Héberger votre site chez Wix.
Tarif

A partir de 1 680,00 €

Durée

3j / 21h

Modes
  • Centre
  • Distance

Objectifs de la formation

  • Appréhender le concept de l'accessibilité numérique et l’intérêt des normes d’accessibilité
  • Appréhender les problèmes rencontrés par les utilisateurs sur des sites non accessibles
  • Appréhender les impacts et conséquences de la prise en compte de l’accessibilité au sein d'un projet web
  • Échanger sur votre projet web et obtenir des réponses aux questions que vous vous posez
Tarif

A partir de 850,00 €

Durée

1j / 7h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

À l'issue de cette formation QGIS Perfectionnement, vous aurez les compétences et connaissances nécessaires pour :

  • Connaître et maîtriser les outils vectoriels avancés
  • Connaître et maîtriser les outils d'analyse, de géométrie et de gestion des données avancés
  • Créer et analyser des couches raster
  • Importer des données en provenances d'autres formats
Tarif

A partir de 1 050,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise
  • Distance

Je cherche à faire...