Formation - Cursus Data Analyst

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

  • Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.

IB Cegos


Formations aux technologies et métiers du Numérique
Voir la fiche entreprise

Tarif

Contacter l'organisme

Durée 12 jours (84 heures)
Modes
  • Distance
  • Centre
Sessions
Lieux Partout en France

IB Cegos


Formations aux technologies et métiers du Numérique
Voir la fiche

Tarif

Contacter l'organisme

Durée 12 jours (84 heures)
Modes
  • Distance
  • Centre
Sessions
Lieux Partout en France

Programme

Avant la session
  • Un quiz de consolidation des pré-requis
En présentiel / A distance

1 - Big Data – Les fondamentaux de l'analyse de données (3j)

  • Objectif : Disposer des connaissances et compétences nécessaires pour identifier et collecter des données et s'assurer de leur qualité et de leur alignement sur les besoins et usages métiers de l'entreprise ou organisation
  • Les nouvelles frontières du Big Data (introduction) : immersion, l'approche des 4 Vs, cas d'usages du Big Data, technologies, architecture, master-less vs master-slaves, stockage, Machine Learning, Data Scientist et Big Data, compétences, la vision du Gartner, valeur ajoutée du Big Data
  • La collecte des données : typologie des sources, les données non structurées, typologie 3V des sources, les données ouvertes (Open Data), nouveau paradigme de l'ETL à l'ELT, le concept du Data Lake, les API de réseaux sociaux, ...
  • Le calcul massivement parallèle : genèse et étapes clés, Hadoop, HDFS, MapReduce, Apache PIG et Apache HIVE, comparatif des 3 approches, limitations de MapReduce, moteur d'exécution Apache TEZ, la rupture Apache SPARK, Hive in Memory (LLAP), Big Deep Learning, ...
  • Les nouvelles formes de stockage : enjeux, le "théorème" CAP, nouveaux standards : ACID => BASE, panorama des bases de données NoSQL, bases de données Clé-Valeur, bases de données Document, bases de données colonnes, bases de données Graphes, ...
  • Le Big Data Analytics (fondamentaux) : analyse de cas concrets, que peuvent apprendre les machines ?, les différentes expériences (E), l'apprentissage, choisir un algorithme d'apprentissage machine, anatomie d'un modèle d'apprentissage automatique, les librairies de machine learning standards et Deep Learning, les plates-formes de Data Science
  • Le Big Data Analytics (écosystème SPARK) : les différents modes de travail, les 3 systèmes de gestion de cluster, modes d'écriture des commandes Spark, machine learning avec Spark , travail sur les variables prédictives, la classification et la régression
  • Traitement en flux du Big Data (​streaming​ ) : architectures types de traitement de Streams Big Data, Apache NIFI, Apache KAFKA, articulation NIFI et KAFKA, Apache STORM, articulation KAFKA et STORM, comparatif STORM/SPARK
  • Déploiement d'un projet Big Data : Cloud Computing , 5 caractéristiques essentielles, 3 modèles de services, modes (SaaS , PaaS, IaaS), Cloud Privé virtuel (VPC), focus AWS, GCP et Azure
  • Hadoop écosystème et distributions : écosystème, fonctions coeurs, HDFS, MapReduce, infrastructure YARN, distributions Hadoop, focus Cloudera, Focus Hortonworks,...
  • Architecture de traitement Big Data : traitement de données par lots, traitement de données en flux, modèles d'architecture de traitement de données Big Data, l'heure du choix
  • La gouvernance des données Big Data : outils de gouvernance Big Data, les 3 piliers, le management de la qualité des données, le management des métadonnées Big Data, management de la sécurité, de la conformité et la confidentialité

2 - Les bases de l'apprentissage Machine (Machine Learning) (3j)

  • Objectif : Maîtriser le Data Mining et le Machine Learning pour explorer de très importants volumes de données et construire des modèles répondant aux problèmes très variés des entreprises du secteur privé et public
  • L'apprentissage machine : champs de compétences, focus : Data Science, Machine Learning, Big Data, Deep Learning, définition de l'apprentissage machine, les différents modes d'entraînement
  • Les fondamentaux de l'apprentissage machine : préambule, jeux de données d'entraînement, fonctions hypothèses, fonctions de coûts, algorithmes d'optimisations
  • La classification : introduction, la régression logistique, SVM, arbres de décision, K plus proches voisins (kNN), synthèse
  • Les pratiques : prétraitement, ingénierie des variables prédictives (feature engineering), réglages des hyper-paramètres et évaluation des modèles, synthèse
  • L'apprentissage d'ensembles (ensemble learning) : introduction, l'approche par vote, une variante, le bagging, les forêts aléatoires, le boosting, la variante Adaboost, gradient boosting, fiches synthèses
  • La régression : régression linéaire simple et multi-variée, relations entre les variables, valeurs aberrantes, évaluation de la performance des modèles de régression, régularisation des modèles de régression linéaire, régression polynomiale, régression avec les forêts aléatoires, synthèse
  • Le clustering : introduction, regroupement d'objets par similarité avec les k-moyens, k-means, l'inertie d'un cluster, variante k-means++, clustering flou, clustering hiérarchique, clustering par mesure de densité DBSCAN, autres approches du clustering, synthèse

3 - Big Data : mise en oeuvre pratique d'une solution complète d'analyse des données (4j)

  • Objectif : Savoir mettre en oeuvre une solution complète de Big Data en environnement Hadoop et disposer des compétences nécessaires au traitement et à l'analyse des données
  • Introduction : objectifs, schématisation du projet, écosystème et stack technologique, résultats attendus
  • Ingestion de données massives : description, caractéristiques clés des outils d'ingestion, focus Apache NIFI et KAFKA, ingestion de données en streaming NIFI sur KAFKA, réalisation d'un workflow NIFI d'ingestion de donnée streaming dans HDFS
  • Traitement de données Big Data en batch : diagramme de fonctionnement, solutions logicielles associées, Big Data Batch scripting, Data Warehousing Big Data, Big Data analytics
  • Traitement avancé Big Data : l'apprentissage machine, l'écosystème Spark, création d'un modèle de ML, d'un modèle de clusterisation de données, d'un modèle d'analyse prédictive supervisé, application d'un modèle ML
  • Stockage de données distribuées : principes des bases de donnes distribuées, solutions (NoSQL, NewSQL), création, ingestion de données et interrogation d'une base de données distribuées
  • Automatisation de chaîne de traitement Batch : l'orchestrateur Oozie, ordonnancement de scripts HIVE, combinaison avec des scripts SPARK
  • Traitement de données massives en flux (streaming) : principe de fonctionnement, solutions logicielles, l'inscription de streams à un Hub Streaming, le traitement avancé de données en flux (machine learning)
  • Mise en oeuvre dans une architecture Big Data : approches standards, réalisation d'une solution complète de traitement de données de type Lamda ou Kappa

4 - Big Data - Analyse, Data Visualization et introduction au Data StoryTelling pour la restitution de données (2j)

  • Objectif : Être en mesure de concevoir des modèles de documents adaptés aux besoins métiers de l'entreprise ou organisation et savoir mettre en oeuvre différentes techniques de visualisation graphique, de mise en récit et de présentation permettant de valoriser les données
  • Data Visualisation ou la découverte de la grammaire graphique : des chiffres aux graphiques, les 3 dimensions, présentation de Tableau Software, de l'idée d'un graphique à sa formalisation dans un outil
  • Data Storytelling : présentation, exemples, techniques de la mise en récit des données, Storytelling des idées et des données
  • Comment construire son histoire : Pitch, scénario, schéma narratif
  • Les outils : fonctions de Storytelling des outils de BI, le module Data Storytelling de Tableau Software, autres outils
Après la session
  • Un vidéocast "L'écosystème Hadoop"
  • Deux vidéos-tutos "Installation d'un environnement Hadoop de base" et "Développement d'un premier MapReduce"

Prérequis

Public

  • Toute personne souhaitant évoluer vers une fonction de Data Analyst

Ces formations pourraient vous intéresser

Objectifs de la formation

Mettre en pratique les connaissances acquises lors du cursus de formation
Tarif

A partir de 1 775,00 €

Durée

4j / 28h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Créer des flux simples de l'ETL Data Services.
Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Créer des applications et des pipelines de ML (Machine Learning) et d'IA (Intelligence Artificielle) sur Spark avec Python.
Tarif

A partir de 1 520,00 €

Durée

2j / 14h

Modes
  • Centre
  • Distance

Data Driven Marketing

Proposé par GERESO

Objectifs de la formation

  • Exploiter le pouvoir et les défis de la donnée en marketing et ventes.
  • Définir l’écosystème de collecte et d’exploitation de la donnée.
  • Activer efficacement la donnée en marketing et ventes.
Tarif

A partir de 1 625,00 €

Durée

2 jours

Modes
  • Centre
  • Entreprise

Objectifs de la formation

  • Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.
Tarif

Contacter l'organisme

Durée

8 jours (56 heures)

Modes
  • Centre
  • Distance

Objectifs de la formation

Savoir créer un environnement utilisateur Linux et intégrer une solution de sauvegarde
Tarif

A partir de 975,00 €

Durée

2j / 14h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Préparer, passer et obtenir votre certification officielle du CCC Big Data Foundation !
  • Connaître les fondamentaux du Big Data
  • Connaître les sources, le Data Mining et les principales technologies Big Data
  • Maîtriser les fondamentaux de Apache Hadoop et MongoDB
Tarif

A partir de 2 250,00 €

Durée

3 jours

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Décrire les options et les protocoles de transfert de la couche 2 et de la couche 3 utilisés dans un Data Center
  • Reconnaître les options de conception des racks, les modèles de trafic et l'accès, l'agrégation et le noyau de la couche de commutation du Data Center
  • Identifier la technologie Cisco Overlay Transport Virtualization (OTV) qui est utilisée pour interconnecter les Data Centers
  • Décrire le protocole de séparation Locator/ID
  • Concevoir une solution qui utilise le réseau local extensible virtuel (VXLAN) pour le transfert du trafic
  • Reconnaître les options de redondance matérielle (comment virtualiser le réseau, les fonctions de calcul et de stockage) et la mise en réseau virtuelle dans le Data Center
  • Définir les solutions qui utilisent des extensions de fabric et comparer Cisco Adapter Fabric Extender (FEX) avec la virtualisation entrée / sortie à racine unique (SR-IOV : Single Root Input / Output Virtualization)
  • Décrire les menaces et les solutions de sécurité dans le Data Center
  • Reconnaître les technologies avancées de sécurité des Data Centers et les bonnes pratiques
  • Gérer et orchestrer des appareils dans le Data Center
  • Décrire les options de stockage pour la fonction de calcul et les différents niveaux de RAID (Redundant Array of Independent Disks) du point de vue de la haute disponibilité et des performances
  • Identifier les concepts, les topologies, l'architecture et les termes de l'industrie Fibre Channel
  • Décrire Fibre Channel over Ethernet (FCoE)
  • Expliquer les options de sécurité dans le réseau de stockage
  • Reconnaître les options de gestion et d'automatisation de l'infrastructure de réseau de stockage
  • Utiliser les serveurs UCS Cisco et les cas d'utilisation pour diverses plateformes UCS Cisco
  • Expliquer les options de connectivité pour les interconnexions en tissu pour les connexions vers le sud et vers le nord
  • Décrire la solution hyperconvergente et les systèmes intégrés
  • Reconnaître les paramètres de l'ensemble du système pour la mise en place d'un domaine UCS Cisco
  • Contrôler l'accès basé sur les rôles RBAC (Role-Based Access Control) et intégrer avec les serveurs d'annuaire pour contrôler les droits d'accès sur Cisco UCS Manager
  • Définir les pools qui peuvent être utilisés dans les profils de service ou les modèles de profils de service sur Cisco UCS Manager
  • Lister les différentes politiques dans le profil de service
  • Décrire les politiques d'interface Ethernet et Fibre Channel et les technologies réseau supplémentaires
  • Reconnaître les avantages des modèles et la différence entre les modèles initiaux et les modèles mis à jour
  • Identifier les outils d'automatisation des Data Centers.
Tarif

A partir de 4 060,00 €

Durée

5j / 35h

Modes
  • Centre
  • Distance

Objectifs de la formation

  • Créer une conception technique
  • Configurer Common Data Service
  • Créer et configurer Power Apps
  • Configurer l'automatisation des processus d'entreprise
  • Étendre l'expérience utilisateur
  • Élargir la plate-forme
  • Développer les intégrations

 

Tarif

A partir de 3 150,00 €

Durée

5j / 35h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Reconnaître le cadre AWS Well-Architected Framework
  • Gérer plusieurs comptes AWS pour votre organisation
  • Connecter des Data Centers on-premise au Cloud AWS
  • Identifier ce qu'implique la connexion de VPC multi-régions en termes de facturation
  • Déplacer de grandes quantités de données depuis des Data Centers on-premise vers le Cloud AWS
  • Concevoir des Data Stores volumineux pour le Cloud AWS
  • Envisager des conceptions d'architecture différentes pour mettre à l'échelle un site Web volumineux
  • Protéger votre infrastructure des attaques DDoS
  • Sécuriser vos données sur AWS grâce au chiffrement
  • Concevoir la protection des données au repos et des données en transit
  • Améliorer les performances de vos solutions
  • Sélectionner le mécanisme de déploiement d'AWS le mieux adapté.
Tarif

Contacter l'organisme

Durée

3j / 21h

Modes
  • Centre
  • Distance

Je cherche à faire...