AWS - Concevoir, déployer et surveiller un pipeline MLOps
Qualiopi
Objectifs pédagogiques
A l'issue de cette formation, vous serez capable de :
- Concevoir et tester un modèle de ML (Machine Learning) sur AWS
- Concevoir et tester un pipeline MLOps robuste
- Déployer et automatiser votre pipeline MLOps de production et le passer à l'échelle
- Surveiller votre modèle de production et corriger les écarts.
Programme de la formation
Jour 1
Fondamentaux
- Qu'est-ce qu'une donnée ?
- Cycle de vie d'une donnée
- Cycle de vie de la Data Science
- Evolution des analytiques
- Apports des analytiques et du Cloud
- Qu'est-ce qu'une organisation Data Driven ?
- Gouvernance et qualité des données
- Lean, Agilité et DevOps, MLOps appliqués aux données
- Conteneurisation et architectures micro-services
- Apports de MLOps
- Workflow de MLOps
- DevOps vs DataOps vs MLOps
- Machine Learning et opérations : briser le mur de la confusion
- Constituer et former une équipe MLOps
- Amazon SageMaker
- Amazon AI Services et AutoML
Exemple de travaux pratiques (à titre indicatif)
- Mise en pratique : création d'un pipeline MLOps simple
Mise en place de l'infrastructure et des outils
- Ingestion, exploration, et préparation des données dans AWS
- Apprentissage et optimisation du modèle avec SageMaker
- Déploiement de modèles avec SageMaker et AWS Lamba Functions
- Streaming Analytics et Machine Learning sur AWS
- AWS Infrastructure et hardware construit sur-mesure
- Réduire les coûts avec les Tags, Budgets et Alertes
Jour 2
Machine Learning automatisé
- Machine Learning automatisé avec SageMaker Autopilot
- Suivre les expérimentations avec SageMaker Autopilot
- Entraîner et déployer un classificateur de texte avec SageMaker Autopilot
- Machine Learning automatisé avec Amazon Comprehend
Ingérer des données dans le Cloud
- Requêter Amazon S3 Data Lake avec Amazon Athena
- Ingérer des nouvelles données en continu avec AWS Glue Crawler
- Construire un Lakehouse avec Amazon Redshift Spectrum
- Choisir entre Amazon Athena et Amazon Redshift
- Réduire les coûts et augmenter la performance
Jour 3
Explorer le jeu de données
- Outils pour explorer les données dans AWS
- Visualiser le Data Lake avec SageMaker Studio
- Requêter le Data Warehouse
- Créer des tableaux de bord avec Amazon QuickSight
- Détecter des problèmes de qualité avec SageMaker et Apache Spark
- Détection du biais dans notre jeu de données
- Détecter différents types de drift avec SageMaker Clarity
- Analyser les données avec AWS Glue DataBrew
- Réduire les coûts et augmenter la performance
Préparer le jeu de données pour l'apprentissage
- Réaliser la sélection de variables et l'ingénierie des attributs
- Passer la sélection de variable à l'échelle avec SageMaker Processing Jobs
- Partager les attributs avec d'autres utilisateurs avec SageMaker Feature Store
- Ingérer et transformer des données avec SageMaker Data Wrangler
- Suivre le "lineage" des artéfacts et expérimentations avec SageMaker
- Ingérer et transformer des données avec Glue DataBrew
Entraîner un premier modèle
- Comprendre l'infrastructure de SageMaker
- Déployer un modèle BERT pré-entraîné avec SageMaker JumpStart
- Développer un modèle SageMaker
- Architecture de BERT
- Entraîner BERT en partant de rien
- Affiner un modèle BERT pré-entraîné
- Créer le script d'apprentissage
- Lancer le script d'apprentissage à partir de SageMaker Notebook
- Evaluer les modèles
- Déboguer et profiler l'apprentissage avec SageMaker Debugger
- Interpréter et expliquer les prédictions des modèles
- Réduire les coûts et améliorer la performance
Jour 4
Entériner et optimiser des modèles à l'échelle
- Trouver automatiquement les meilleurs hyperparamètres
- Utiliser Warm Start pour des jobs supplémentaires d'optimisation des hyperparamètres
- Passer à l'échelle avec SageMaker Distributed Training
- Réduire les coûts et augmenter la performance
Déployer des modèles en production
- Choisir entre des prédictions batch et temps réel
- Prédictions en temps réel avec SageMaker Endpoints
- Passer automatiquement à l'échelle Endpoints avec CloudWatch
- Stratégies pour le déploiement de modèles nouveaux ou mis à jour
- Tester et comparer des nouveaux modèles
- Monitorer la performance et le drift
- Monitorer la qualité du modèle et des données
- Réaliser des prédictions batch avec SageMaker Batch Transform
- AWS Lambda Functions et Amazon API Gateway
- Optimiser et gérer des modèles sur le bord (edge)
- Déployer des modèles PyTorch avec TorchServe
- Inférence TensorFlow-BERT avec AWS Deep Java Library
- Réduire les coûts et augmenter les performances
Jour 5
Pipelines et MLOps
- Pipelines logiciels
- Pipelines de ML
- Orchestration de pipelines avec SageMaker Pipelines
- Automatisation avec SageMaker Pipelines
- Workflows avec "humain dans la boucle" (human-in-the-loop)
- Réduire les coûts et augmenter la performance
Analytiques en streaming et Machine Learning
- Apprentissage Online vs Offline
- Applications de streaming
- Requêtes fenêtres sur des données en streaming
- Classification avec Amazon Kinesis, AWS Lambda et Amazon SageMaker
- Implémenter l'ingestion de données en streaming avec Amazon Kinesis Data Firehose
- Analytiques en temps réel avec Streaming Analytics
- Mettre en place Amazon Kinesis Data Analytics
- Classification avec Apache Kafka, AWS Lambda et Amazon SageMaker
Meilleures pratiques de sécurité sur AWS
- Modèle de responsabilité partagée entre AWS et le client
- Appliquer AWS IAM
- Isoler les environnements de calcul et de réseau
- Sécuriser l'accès aux données Amazon S3
- Chiffrement au repos
- Chiffrement en transit
- Sécuriser les instances SageMaker Notebook
- Sécuriser SageMaker Studio
- Sécuriser SageMaker Jobs and Models
- Sécuriser Lake Formation
- Sécuriser Database Credentials avec AWS Secrets Manager
- Bonnes pratiques de gouvernance et d'auditabilité
Le contenu de ce programme peut faire l'objet d'adaptation selon les niveaux, prérequis et besoins des apprenants.
Modalités d’évaluation des acquis
- En cours de formation, par des études de cas ou des travaux pratiques
- Et, en fin de formation, par un questionnaire d'auto-évaluation

Proposé par
M2I
"Un leadership dans le domaine de la formation"
À partir de
3800 €
Durée
35h en 5 jours
Localisation
Partout en France

Proposé par
M2I
À partir de
3800 €
