Formation - Cursus Data Steward

Public admis

  • Salarié en Poste
  • Demandeur d'emploi
  • Entreprise
  • Etudiant

Financements

Eligible CPF Votre OPCO Financement personnel

Objectifs de la formation

  • Pendant la formation, le formateur évalue la progression pédagogique des participants via des QCM, des mises en situation et des travaux pratiques. Les participants passent un test de positionnement avant et après la formation pour valider leurs compétences acquises.

IB Cegos


Formations aux technologies et métiers du Numérique
Voir la fiche entreprise

Tarif

Contacter l'organisme

Durée 8 jours (56 heures)
Modes
  • Distance
  • Centre
Sessions
Lieux Partout en France

IB Cegos


Formations aux technologies et métiers du Numérique
Voir la fiche

Tarif

Contacter l'organisme

Durée 8 jours (56 heures)
Modes
  • Distance
  • Centre
Sessions
Lieux Partout en France

Programme

1 - Big Data – Les fondamentaux de l'analyse de données (3j)

  • Objectif : Disposer des connaissances et compétences nécessaires pour identifier et collecter des données et s'assurer de leur qualité et de leur alignement sur les besoins et usages métiers de l'entreprise
  • Les nouvelles frontières du Big Data (introduction) : immersion, l'approche des 4 Vs, cas d'usages du Big Data, technologies, architecture, master-less vs master-slaves, stockage, Machine Learning, Data Scientist et Big Data, compétences, la vision du Gartner, valeur ajoutée du Big Data
  • La collecte des données : typologie des sources, les données non structurées, typologie 3V des sources, les données ouvertes (Open Data), nouveau paradigme de l'ETL à l'ELT, le concept du Data Lake, les API de réseaux sociaux, ...
  • Le calcul massivement parallèle : genèse et étapes clés, Hadoop, HDFS, MapReduce, Apache PIG et Apache HIVE, comparatif des 3 approches, limitations de MapReduce, moteur d'exécution Apache TEZ, la rupture Apache SPARK, Hive in Memory (LLAP), Big Deep Learning, ...
  • Les nouvelles formes de stockage : enjeux, le "théorème" CAP, nouveaux standards : ACID => BASE, panorama des bases de données NoSQL, bases de données Clé-Valeur, bases de données Document, bases de données colonnes, bases de données Graphes, ...
  • Le Big Data Analytics (fondamentaux) : analyse de cas concrets, que peuvent apprendre les machines ?, les différentes expériences (E), l'apprentissage, choisir un algorithme d'apprentissage machine, anatomie d'un modèle d'apprentissage automatique, les librairies de machine learning standards et Deep Learning, les plates-formes de Data Science
  • Le Big Data Analytics (écosystème SPARK) : les différents modes de travail, les 3 systèmes de gestion de cluster, modes d'écriture des commandes Spark, machine learning avec Spark , travail sur les variables prédictives, la classification et la régression
  • Traitement en flux du Big Data (​streaming​ ) : architectures types de traitement de Streams Big Data, Apache NIFI, Apache KAFKA, articulation NIFI et KAFKA, Apache STORM, articulation KAFKA et STORM, comparatif STORM/SPARK
  • Déploiement d'un projet Big Data : Cloud Computing , 5 caractéristiques essentielles, 3 modèles de services, modes (SaaS , PaaS, IaaS), Cloud Privé virtuel (VPC), focus AWS, GCP et Azure
  • Hadoop écosystème et distributions : écosystème, fonctions coeurs, HDFS, MapReduce, infrastructure YARN, distributions Hadoop, focus Cloudera, Focus Hortonworks,...
  • Architecture de traitement Big Data : traitement de données par lots, traitement de données en flux, modèles d'architecture de traitement de données Big Data, l'heure du choix
  • La gouvernance des données Big Data : outils de gouvernance Big Data, les 3 piliers, le management de la qualité des données, le management des métadonnées Big Data, management de la sécurité, de la conformité et la confidentialité

2 - Les bases de l'apprentissage Machine (Machine Learning) (3j)

  • Objectif : Maîtriser le Data Mining et le Machine Learning pour explorer de très importants volumes de données et construire des modèles répondant aux problèmes très variés des professionnels
  • L'apprentissage machine : champs de compétences, focus : Data Science, Machine Learning, Big Data, Deep Learning, définition de l'apprentissage machine, les différents modes d'entraînement
  • Les fondamentaux de l'apprentissage machine : préambule, jeux de données d'entraînement, fonctions hypothèses, fonctions de coûts, algorithmes d'optimisations
  • La classification : introduction, la régression logistique, SVM, arbres de décision, K plus proches voisins (kNN), synthèse
  • Les pratiques : prétraitement, ingénierie des variables prédictives (feature engineering), réglages des hyper-paramètres et évaluation des modèles, synthèse
  • L'apprentissage d'ensembles (ensemble learning) : introduction, l'approche par vote, une variante, le bagging, les forêts aléatoires, le boosting, la variante Adaboost, gradient boosting, fiches synthèses
  • La régression : régression linéaire simple et multi-variée, relations entre les variables, valeurs aberrantes, évaluation de la performance des modèles de régression, régularisation des modèles de régression linéaire, régression polynomiale, régression avec les forêts aléatoires, synthèse
  • Le clustering : introduction, regroupement d'objets par similarité avec les k-moyens, k-means, l'inertie d'un cluster, variante k-means++, clustering flou, clustering hiérarchique, clustering par mesure de densité DBSCAN, autres approches du clustering, synthèse

3 - Big Data - Analyse, Data Visualization et introduction au Data StoryTelling pour la restitution de données (2j)

  • Objectif : Être en mesure de concevoir des modèles de documents adaptés aux besoins métiers de l'entreprise et savoir mettre en oeuvre différentes techniques de visualisation graphique, de mise en récit et de présentation permettant de valoriser les données.
  • Data Visualisation ou la découverte de la grammaire graphique : des chiffres aux graphiques, les 3 dimensions, présentation de Tableau Software, de l'idée d'un graphique à sa formalisation dans un outil
  • Data Storytelling : présentation, exemples, techniques de la mise en récit des données, Storytelling des idées et des données
  • Comment construire son histoire : Pitch, scénario, schéma narratif
  • Les outils : fonctions de Storytelling des outils de BI, le module Data Storytelling de Tableau Software, autres outils
Après la session
  • Un vidéocast "L'écosystème Hadoop"
  • Deux vidéos-tutos "Installation d'un environnement Hadoop de base" et "Développement d'un premier MapReduce"

Prérequis

Public

  • Chefs de projet
  • Développeurs
  • Analystes
  • Toute personne souhaitant évoluer vers une fonction de Data Steward

Ces formations pourraient vous intéresser

Objectifs de la formation

À l'issue de cette formation Kafka Flux de données, vous aurez acquis les connaissances et compétences nécessaires pour :

  • Comprendre le fonctionnement d’Apache Kafka
  • Connaître et mettre en œuvre les bonnes pratiques liées à l’utilisation d’une messagerie distribuée
  • Savoir intégrer les flux d’évènements et d’autres données liées au Big Data à Kafka
  • Être capable d’interagir avec les APIs de Kafka
  • Connaître le fonctionnement et les différences entre KSQL et Kafka Streams
  • Savoir intégrer la sécurité au sein d’un projet Apache Kafka
Tarif

A partir de 1 995,00 €

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Construire une couche de persistance en partant d'une base de données relationnelle et non relationnelle
  • Alléger considérablement le code de la couche d'implémentation des classes d'accès aux données
  • Optimiser vos requêtes objet afin de réduire les interactions avec le moteur relationnel
  • Manipuler les requêtes dynamiques avec Spring Data (Querydsl)
  • Mettre en place une couche de tests unitaires de la couche DAO.
Tarif

Contacter l'organisme

Durée

2j / 14h

Modes
  • Centre
  • Distance

Objectifs de la formation

  • Découvrir et utiliser la puissance prédictive des modèles ensemblistes
  • Savoir effectuer un "feature engineering" performant
  • Appréhender les techniques de text-mining et de deep-learning à travers d'exemples concrets
  • Enrichir ses outils de data scientist
Tarif

A partir de 2 500,00 €

Durée

3j / 21h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

Pour être autonome et opérationnel le profil du technicien support PC se doit d’intégrer des compétences globales. En effet, même si la connaissance de la configuration matérielle et logicielle d’un PC représente un vrai savoir-faire, un ordinateur ou un mobile évolue maintenant toujours dans un contexte réseau. Un problème de lenteur de PC peut provenir d’une configuration hardware insuffisante, d’une surcharge de services actifs inutiles, de congestion du réseau, de virus, etc. Il nous a donc paru pertinent de regrouper le triplet de connaissances matériel, logiciel, réseau dans un même cursus afin de proposer une formation cohérente qui permet de construire un profil technique qui réponde à des besoins concrets et récurrent de tout utilisateur de PC dans un contexte personnel ou professionnel. L’approche pédagogique consiste à vous donner les bases théoriques et à vous expliquer pour chaque concept le « comment ça marche ? » avant le « comment faire pour ? ». Les deux approches se complètent et vous permettront de savoir diagnostiquer et agir lorsque l’on vous sollicite pour des interventions de nature éventuellement très différente. Les travaux pratiques occupent un rôle central dans tout le cursus. Ils vous permettront de mesurer votre progression, du démontage/remontage complet d’un PC en terminant par la construction d’un réseau d’entreprise inter-agences qui accéde à Internet tout en intégrant les équipements mobiles (câblages, configuration IP, bornes Wifi, routeur, switch, DHCP, DNS, etc.).

Attention, cette formation est conçue en trois modules de 4 jours chacun. Les dates indiquées ne correspondent qu'aux 4 premiers jours (1er module) ! Contactez notre service commercial pour connaitre les dates des 2 modules suivants.

Tarif

A partir de 6 175,00 €

Durée

12j / 84h

Modes
  • Centre
  • Entreprise

Data Analyst

Proposé par M2I

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Analyser des données brutes collectées en masse (Big Data) sur le Web et les réseaux sociaux pour en tirer des conclusions exploitables par les entreprises
  • Produire des rapports ou reporting, destinés aux différents services de l'entreprise, afin de faciliter la prise de décision des managers
  • Analyser et traiter des données grâce à des langages de programmation tels que R, SQL ou Hive
  • Utiliser des outils comme SAS, Tableau, Microsoft Power BI ou encore Oracle
  • Effectuer des recherches dans les bases de données brutes dans le but de produire du reporting
  • Identifier les problématiques à résoudre grâce aux données recueillies
  • Communiquer facilement pour pouvoir fournir des informations de façon précise
  • Passer le Titre professionnel "Concepteur développeur en science des données".
Tarif

Contacter l'organisme

Durée

116j / 812h

Modes
  • Centre
  • Distance

Objectifs de la formation

A l'issue de cette formation, vous serez capable de :

  • Expliquer l'architecture des applications natives pour la plateforme SAP HANA ("native" signifie indépendante du monde ABAP, l'application fonctionne entièrement sur la plateforme SAP HANA, aucun serveur d'application NetWeaver n'est utilisé)
  • Utiliser les services applicatifs étendus de la plateforme SAP HANA (c'est-à-dire le serveur d'application mis en oeuvre par le composant XS Advanced)
  • Décrire les différentes technologies utilisées pour le développement d'applications natives (Core Data Services pour développer la couche de persistance des données, Node.js et OData pour la communication entre client et serveur de données et SAPUI5 pour la couche d'interface utilisateur)
  • Développer une application native SAP HANA simple mais fonctionnelle.
Tarif

Contacter l'organisme

Durée

4j / 28h

Modes
  • Centre
  • Distance

Objectifs de la formation

  • Comprendre le fonctionnement de la data science et de l'intelligence artificielle.
  • Connaître les contraintes légales et éthiques de l'intelligence artificielle.
  • Maîtriser la démarche d'innovation d'un projet d'intelligence artificielle.
  • Maîtriser la démarche de développement agile d'une application d'intelligence artificielle.
Tarif

A partir de 4 500,00 €

Durée

7 jours (49 heures)

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Mettre en place un cursus d’intégration des jeunes et des nouveaux embauchés
  • Savoir motiver et garder les ressources de l’entreprise
Tarif

A partir de 80,00 €

Durée

1 heure 24 minutes

Modes

Objectifs de la formation

Cette formation ONTAP Troubleshooting vous apporte les connaissances et compétences nécessaires pour :

  • Describe the different software components in the ONTAP architecture
  • Describe the methodologies for troubleshooting management component applications, networks, and protocols
  • Use troubleshooting workflows to identify failure symptoms, determine potential causes, and resolve issues
  • Use debugging commands, logs, and tools to identify, isolate, and fix complex technical issues that involve different core components
  • Check the health of a cluster and summarize the results
  • Identify issues with the management component
  • Use administrative commands to verify the configuration of NFS, SMB, and iSCSI
  • Use the troubleshooting methodology for NFS, SMB, and iSCSI to define and isolate issues
  • Locate logs for the management component, network, NFS, SMB, and iSCSI protocols
  • Collect data for support cases
Tarif

A partir de 3 800,00 €

Durée

4j / 28h

Modes
  • Centre
  • Entreprise
  • Distance

Objectifs de la formation

  • Gérer des paquets avec une nouvelle structure de référentiel et des modules AppStream
  • Créer des périphériques de stockage, de volumes et de systèmes de fichiers, avec notamment la gestion du stockage Stratis
  • Savoir configurer des services réseau et de fonctions de sécurité
  • Conaitre la gestion des processus, de la planification et de l'optimisation
  • Maitriser la gestion des utilisateurs, des groupes et de l'authentification
  • Gérer des serveurs avec l'outil de gestion web Cockpit
  • Résoudre des problèmes et mettre en place une assistance

Ce cours repose sur la version 8 de Red Hat® Enterprise Linux.

Tarif

A partir de 4 517,00 €

Durée

5j / 35h

Modes
  • Centre
  • Entreprise

Je cherche à faire...