Formation - IA Générative - Les modèles de langages massifs (LLMs)
Prérequis
- Une connaissance de base des principes de Machine Learning et de Deep Learning
- La maîtrise d’une langage de script type Python est recommandé
- Disposez-vous des connaissances nécessaires pour suivre cette formation ? Testez-vous !
Public admis
- Salarié en Poste
- Entreprise
Demandeur d'emploi et Etudiant non admis
Financement
- Votre OPCO
- Financement personnel
Financement CPF non pris en charge
Modalités
- En entreprise
- À distance
- En centre
Objectifs pédagogiques
- Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.
Programme de la formation
1 - Introduction
- Un changement de paradigme
- Qu’est ce qui change ?
- Une publication fondatrice
- Une loi d’échelle pour les modèles de langage
- Évolution temporelle des LLMs
- De nouveaux écosystèmes
- L’ère du Post Deep Learning
- Personnalisation par Prompts
- Personnalisation par enrichissement
- Personnalisation par réglage fin
2 - Cas d'usage
- Agents conversationnels et assistants virtuels
- Génération de code et debuggage
- Analyse de sentiments / opinions
- Classification de texte et clusterisation
- Synthèse de texte ou corpus
- Traduction
- Génération de contenu
- Autres cas d'usages significatifs
- LAB : Proof of concept sur cas concrets
3 - Fondations
- Le traitement du langage naturel (TAL)
- L’architecture disruptive des Transformers
- La tokenisation des textes
- L’encodeur d’un Transformer
- La couche d’embedding
- L’encodage de positionnement
- Vecteur de positionnement
- Le mécanisme d’attention multi-têtes
- Points essentiels du mécanisme d’attention
- La “spécialisation” des têtes d’attention
- Calcul des scores d’attention
- Addition et Normalisation des sorties
- Le Décodeur d’un Tranformer
- L’entraînement d’un Transformer
- La couche d’auto-attention masquée
- La couche d’attention du décodeur
- Les couches supérieures du décodeur
4 - En pratique
- Choisir un LLM
- Critères de choix
- Trois classes de modèles
- Modèles à encodeur simple
- Focus modèles BERTs
- Modèles à décodeur simple
- Focus modèles GPTs
- Un foisonnement de modèles dérivés
- La bataille des LLMs
- La course vers des LLMs légers
- L’exemple de LLaMa
- Trois approches de réduction
- Écosystèmes clés
- APIs de modèles Fermés
- HuggingFace et les modèles ouverts
- Écosystèmes applicatifs type LangChain
- LLMops et MLFlow
Prise en main des écosystèmes LLMs clés
5 - Mise en oeuvre
- Choix service / in house / hybrid
- In house workflow
- Service workflow
- Écosystèmes d'entraînement et d'inférence
- L'entraînement d'un modèle massif
- L'étape d'évaluation des modèles
- Le réglage des hyperparamètres
- Déploiement d'un modèle
- Model fine-tuning
- Prompt engineering
- MLOps d'un LLMs
- LAB : Environnement de déploiement d'un LLM
6 - Le Prompt Engineering
- Configuration des paramètres des LLMs
- Qu’est ce qu’un token ?
- Notion de distribution des probabilités des LLMs
- Les échantillonnages Top-K et top-p
- La température du modèle
- Le réglage des paramètres en pratique
- Les composantes d’un prompt
- Règles générales
- L’approche Few-Shot Learning
- Zero, one to Few-shot learning
- L’approche Chain of thoughts
- L’incitation par chaînes de pensées
- Des approches plus avancées
- ReAct Prompting
- Méthode ReAct
Prompt Engineering sur cas concrets
7 - LLMs augmentés
- Au delà du prompt, l’enrichissement des LLMs
- Ajout de capacité mémorielle
- Mémoire tampon (Buffer Memory)
- Plusieurs mécanismes de mémorisation
- Les mémoires de l’écosystème LangChain
- Élargissement des connaissances
- Retrieval Augmented Generation (RAG)
- Le partitionnement des textes externes
- Projection sémantique des documents (Embeddings)
- Les bases de données vectorielles
- Les algorithmes du search dans les bases vectorielles
- Une galaxie d’outils possibles !
Mise en oeuvre d’un agent conversationnel
8 - Déploiement de LLMs
- Quand le prompt engineering ne suffit plus
- Qu’est ce que le réglage fin
- Trois techniques classiques
- Reinforcement learning by Human feedback (RLHF)
- Détails d’un réglage fin Supervisé
- Les trois options pour l’ajustement des paramètres
- Les approches PEFT (Parameter Efficient Tuning)
- La méthode LoRA (Low Rank Adaptation)
- Une variante efficiente : QLoRA
- Qu’est ce que la mise en service d’un LLM
- Journaliser le modèle dans le registre des modèles
- Création d’un point de terminaison vers le modèle
- Interroger le point de terminaison
Réglage fin et mise en service d’un LLM

Proposé par
IB Cegos
"Formations aux technologies et métiers du Numérique"

Proposé par
IB Cegos
