Formation Kedro

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

  • Comprendre les principes de développement utiles aux ingénieurs data et data scientists pour faciliter le déploiement de leur code en production
  • S’approprier les principales fonctionnalités de Kedro (project template, configuration, data catalog et pipeline)
  • Mettre en œuvre l’outil dans un workflow pour créer des pipelines de données

Sparks


Tout l'IT, vraiment tout
Voir la fiche entreprise

Tarif

A partir de 750,00 €

Durée 1 jour
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

Sparks


Tout l'IT, vraiment tout
Voir la fiche

Tarif

A partir de 750,00 €

Durée 1 jour
Modes
  • Centre
  • Entreprise
  • Distance
Sessions
Lieux Partout en France

Description

A l'issue de cette formation Kedro, les participants sont en mesure d'utiliser cet outil pour déployer du code Machine Learning en production. Ils ont compris comment certains principes de développement logiciel peuvent être appliqués aux opérations de Data Science et se sont appropriés les principales fonctionnalités de Kedro afin de mettre en œuvre l'outil dans un workflow de déploiement.

Programme

Introduction à la formation Kedro

Présentation générale de la formation Kedro
Objectifs pédagogiques
Qu’est-ce que Kedro ? Vue d’ensemble et intérêt d’utilisation
Prérequis d’installation
Installer Kedro et l’environnement de développement
Concepts fondamentaux : node, pipeline, DataCatalog, runner
Workflow pour la création d’un projet Kedro

Création et configuration d’un projet Kedro

Créer un nouveau projet
Structure du répertoire projet
Les bonnes pratiques pour la sécurité des données
Utiliser les Kedro starters
Configurer le template projet
Installer les dépendances
Ajouter les jeux de données

Pipeline de traitement de données

Générer un template
Ajouter des fonctions
Tester
Visualiser le pipeline

Pipeline Data Science

Configurer les paramètres en entrée
Assembler le pipeline
Enregistrer le dataset
Tester et visualiser

Packaging et déploiement

Les bonnes pratiques
Options de déploiement : Airflow, Argo, Kubeflow…

Prérequis

Connaissances en Python ainsi que sur les concepts et librairies de Data Science (Panda, Jupyter notebooks...).

Public

Data scientists,

Je cherche à faire...