AWS - Concevoir, déployer et surveiller un pipeline MLOps

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Concevoir et tester un modèle de ML (Machine Learning) sur AWS
  • Concevoir et tester un pipeline MLOps robuste
  • Déployer et automatiser votre pipeline MLOps de production et le passer à l'échelle
  • Surveiller votre modèle de production et corriger les écarts.

M2I


Un leadership dans le domaine de la formation
Voir la fiche entreprise

Tarif

A partir de 3 800,00 €

Durée 5 jours  (35h00)
Modes
  • Centre
  • Distance
Sessions
Lieux Partout en France

M2I


Un leadership dans le domaine de la formation
Voir la fiche

Tarif

A partir de 3 800,00 €

Durée 5 jours  (35h00)
Modes
  • Centre
  • Distance
Sessions
Lieux Partout en France

Programme

Jour 1

Fondamentaux

  • Qu'est-ce qu'une donnée ?
  • Cycle de vie d'une donnée
  • Cycle de vie de la Data Science
  • Evolution des analytiques
  • Apports des analytiques et du Cloud
  • Qu'est-ce qu'une organisation Data Driven ?
  • Gouvernance et qualité des données
  • Lean, Agilité et DevOps, MLOps appliqués aux données
  • Conteneurisation et architectures micro-services
  • Apports de MLOps
  • Workflow de MLOps
  • DevOps vs DataOps vs MLOps
  • Machine Learning et opérations : briser le mur de la confusion
  • Constituer et former une équipe MLOps
  • Amazon SageMaker
  • Amazon AI Services et AutoML
Exemple de travaux pratiques (à titre indicatif)
  • Mise en pratique : création d'un pipeline MLOps simple

Mise en place de l'infrastructure et des outils

  • Ingestion, exploration, et préparation des données dans AWS
  • Apprentissage et optimisation du modèle avec SageMaker
  • Déploiement de modèles avec SageMaker et AWS Lamba Functions
  • Streaming Analytics et Machine Learning sur AWS
  • AWS Infrastructure et hardware construit sur-mesure
  • Réduire les coûts avec les Tags, Budgets et Alertes

Jour 2

Machine Learning automatisé

  • Machine Learning automatisé avec SageMaker Autopilot
  • Suivre les expérimentations avec SageMaker Autopilot
  • Entraîner et déployer un classificateur de texte avec SageMaker Autopilot
  • Machine Learning automatisé avec Amazon Comprehend

Ingérer des données dans le Cloud

  • Requêter Amazon S3 Data Lake avec Amazon Athena
  • Ingérer des nouvelles données en continu avec AWS Glue Crawler
  • Construire un Lakehouse avec Amazon Redshift Spectrum
  • Choisir entre Amazon Athena et Amazon Redshift
  • Réduire les coûts et augmenter la performance

Jour 3

Explorer le jeu de données

  • Outils pour explorer les données dans AWS
  • Visualiser le Data Lake avec SageMaker Studio
  • Requêter le Data Warehouse
  • Créer des tableaux de bord avec Amazon QuickSight
  • Détecter des problèmes de qualité avec SageMaker et Apache Spark
  • Détection du biais dans notre jeu de données
  • Détecter différents types de drift avec SageMaker Clarity
  • Analyser les données avec AWS Glue DataBrew
  • Réduire les coûts et augmenter la performance

Préparer le jeu de données pour l'apprentissage

  • Réaliser la sélection de variables et l'ingénierie des attributs
  • Passer la sélection de variable à l'échelle avec SageMaker Processing Jobs
  • Partager les attributs avec d'autres utilisateurs avec SageMaker Feature Store
  • Ingérer et transformer des données avec SageMaker Data Wrangler
  • Suivre le "lineage" des artéfacts et expérimentations avec SageMaker
  • Ingérer et transformer des données avec Glue DataBrew

Entraîner un premier modèle

  • Comprendre l'infrastructure de SageMaker
  • Déployer un modèle BERT pré-entraîné avec SageMaker JumpStart
  • Développer un modèle SageMaker
  • Architecture de BERT
  • Entraîner BERT en partant de rien
  • Affiner un modèle BERT pré-entraîné
  • Créer le script d'apprentissage
  • Lancer le script d'apprentissage à partir de SageMaker Notebook
  • Evaluer les modèles
  • Déboguer et profiler l'apprentissage avec SageMaker Debugger
  • Interpréter et expliquer les prédictions des modèles
  • Réduire les coûts et améliorer la performance

Jour 4

Entériner et optimiser des modèles à l'échelle

  • Trouver automatiquement les meilleurs hyperparamètres
  • Utiliser Warm Start pour des jobs supplémentaires d'optimisation des hyperparamètres
  • Passer à l'échelle avec SageMaker Distributed Training
  • Réduire les coûts et augmenter la performance

Déployer des modèles en production

  • Choisir entre des prédictions batch et temps réel
  • Prédictions en temps réel avec SageMaker Endpoints
  • Passer automatiquement à l'échelle Endpoints avec CloudWatch
  • Stratégies pour le déploiement de modèles nouveaux ou mis à jour
  • Tester et comparer des nouveaux modèles
  • Monitorer la performance et le drift
  • Monitorer la qualité du modèle et des données
  • Réaliser des prédictions batch avec SageMaker Batch Transform
  • AWS Lambda Functions et Amazon API Gateway
  • Optimiser et gérer des modèles sur le bord (edge)
  • Déployer des modèles PyTorch avec TorchServe
  • Inférence TensorFlow-BERT avec AWS Deep Java Library
  • Réduire les coûts et augmenter les performances

Jour 5

Pipelines et MLOps

  • Pipelines logiciels
  • Pipelines de ML
  • Orchestration de pipelines avec SageMaker Pipelines
  • Automatisation avec SageMaker Pipelines
  • Workflows avec "humain dans la boucle" (human-in-the-loop)
  • Réduire les coûts et augmenter la performance

Analytiques en streaming et Machine Learning

  • Apprentissage Online vs Offline
  • Applications de streaming
  • Requêtes fenêtres sur des données en streaming
  • Classification avec Amazon Kinesis, AWS Lambda et Amazon SageMaker
  • Implémenter l'ingestion de données en streaming avec Amazon Kinesis Data Firehose
  • Analytiques en temps réel avec Streaming Analytics
  • Mettre en place Amazon Kinesis Data Analytics
  • Classification avec Apache Kafka, AWS Lambda et Amazon SageMaker

Meilleures pratiques de sécurité sur AWS

  • Modèle de responsabilité partagée entre AWS et le client
  • Appliquer AWS IAM
  • Isoler les environnements de calcul et de réseau
  • Sécuriser l'accès aux données Amazon S3
  • Chiffrement au repos
  • Chiffrement en transit
  • Sécuriser les instances SageMaker Notebook
  • Sécuriser SageMaker Studio
  • Sécuriser SageMaker Jobs and Models
  • Sécuriser Lake Formation
  • Sécuriser Database Credentials avec AWS Secrets Manager
  • Bonnes pratiques de gouvernance et d'auditabilité

Le contenu de ce programme peut faire l'objet d'adaptation selon les niveaux, prérequis et besoins des apprenants.

Modalités d’évaluation des acquis

  • En cours de formation, par des études de cas ou des travaux pratiques
  • Et, en fin de formation, par un questionnaire d'auto-évaluation

Prérequis

Avoir des connaissances en bases de données et/ou analytiques.

Public

Data Scientists, Data Analysts, ingénieurs Data, ingénieurs DevOps, développeurs, architectes Data, chefs de projets, managers.

Ces formations pourraient vous intéresser

Objectifs de la formation

À l'issue de cette formation Microsoft Azure - Techniques et pratique DevOps pour l'ingénieur vous aurez acquis les connaissances et les compétences nécessaires pour : 

  • Comprendre comment implémenter des processus de développement DevOps
  • Apprendre à mettre en oeuvre l'intégration continue et la livraison continue
  • Être capable de mettre en oeuvre la gestion des dépendances
  • Disposer des connaissances nécessaires pour mettre en oeuvre l'infrastructure d'application
  • Comprendre comment mettre en oeuvre un feedback continu
  • Être en mesure de concevoir une stratégie DevOps
Tarif

A partir de 2 890,00 €

Durée

4j / 28h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Identifier les principes fondamentaux de Rust
  • Ecrire du code Rust propre en suivant les conventions de codage recommandées
  • Utiliser les concepts de base tels que les types de données, les variables, les fonctions et les structures de contrôle
  • Démontrer une compréhension approfondie des propriétés de sécurité de Rust
  • Explorer les fonctionnalités avancées de Rust
  • Utiliser les bibliothèques et les frameworks populaires de Rust pour développer des applications et des projets concrets
  • Concevoir, mettre en oeuvre et déployer une application Blockchain fonctionnelle
  • Pratiquer le débogage et le test de code Rust.
Tarif

A partir de 2 850,00 €

Durée

3j / 21h

Modes
  • Centre
  • Distance

Ruby On Rails

Proposé par M2I

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Concevoir et réaliser un site Web avec le Framework Ruby on Rails
  • Installer, déployer et maintenir une application utilisant Ruby on Rails.
Tarif

A partir de 3 050,00 €

Durée

5j / 35h

Modes
  • Centre
  • Distance

Microsoft 365 – Messagerie

Proposé par ENI Service

Objectifs de la formation

  • Configurer et gérer le pipeline de transport
  • Gérer et dépanner les flux des messages et les problèmes de transport
  • Gérer la sécurité et la conformité des messages
  • Gérer l’authentification de la messagerie
  • Configurer les paramètres d’organisation et le partage
  • Gérer les périphériques mobiles
  • Gérer les autorisations basées sur les rôles
  • Créer et gérer les objets et les ressources des destinataires
  • Planifier, mettre en œuvre et dépanner les dossiers publics
  • Planifier un environnement hybride
  • Effectuer la migration des boîtes aux lettres
  • Déployer et dépanner un environnement hybride
Tarif

A partir de 3 050,00 €

Durée

5j / 35h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

À l'issue de cette formation Design Applicatif, vous disposerez des connaissances et compétences nécessaires pour :

  • Identifier les avantages et inconvénients des différents paradigmes de design applicatif
  • Savoir choisir le paradigme le plus adapté à son contexte
  • Savoir concevoir son application pour mettre en oeuvre le paradigme choisi
Tarif

A partir de 1 700,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise

Objectifs de la formation

Savoir installer, configurer et administrer IBM Cognos Analytics.

À l'issue de cette formation Cognos Analytics Enterprise Administration, vous aurez acquis les connaissances et les compétences nécessaires pour :

  • Savoir installer et configurer le logiciel IBM Cognos Analytics
  • Mettre en œuvre la sécurité et administrer l'environnement du serveur
  • Pouvoir effectuer la surveillance et l'ordonnancement des tâches
  • Savoir gérer et déployer du contenu dans IBM Cognos Administration
  • Réaliser des personnalisations complémentaires
Tarif

A partir de 1 500,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

À l'issue de cette formation FlutterFlow, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Comprendre le fonctionnement de FlutterFlow et son intérêt tout particulier pour les applications mobiles
  • Concevoir une interface utilisateur et structurer une page d'application
  • Être capable d'intégrer et de manipuler des données au sein de l'application
  • Savoir tester puis déployer une application créée à l'aide de FlutterFlow
Tarif

A partir de 1 860,00 €

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Décrire la réglementation
  • Mettre en place un plan d'échantillonnage
  • Traiter les données
Tarif

A partir de 1 390,00 €

Durée

1j / 7h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Créer et configurer un espace de travail Log Analytics
  • Configurer la surveillance des applications
  • Configurer la surveillance des machines virtuelles
  • Configurer la surveillance pour les réseaux virtuels
  • Configurer des alertes et des réponses
Tarif

Contacter l'organisme

Durée

1j / 7h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

Concrètement, suivre cette formation vous permettra d'acquérir les connaissances et compétences nécessaires pour :

  • Savoir préparer, organiser et exécuter la Recette fonctionnelle
  • Apprendre une démarche et des standards de documentation
  • Savoir mettre en place une stratégie d’exécution de la recette
  • Comprendre et savoir concevoir un plan de déploiement et de migration
Tarif

A partir de 2 080,00 €

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Je cherche à faire...