Pour offrir les meilleures expériences possibles, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils.
Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Voir notre Politique de protection des données pour plus d'informations.
Tarif |
A partir de 2 070,00 € |
Durée | 3 jour(s) |
Modes |
|
Sessions | |
Lieux | Partout en France |
Tarif |
A partir de 2 070,00 € |
Durée | 3 jour(s) |
Modes |
|
Sessions | |
Lieux | Partout en France |
Les quatre dimensions du Big Data : volume, vélocité, variété, véracité Présentation de l'ensemble MapReduce, stockage et requêtes
Mesurer l'importance du Big Data au sein d'une entreprise
Réussir à extraire des données utiles
Intégrer le Big Data aux données traditionnelles
Sélectionner les sources de données à analyser
Supprimer les doublons
Définir le rôle de NoSQL
Modèles de données : valeur clé, graphique, document, famille de colonnes Système de fichiers distribué Hadoop (HDFS)
HBase
Hive
Cassandra
Hypertable
Amazon S3
BigTable
DynamoDB
MongoDB
Redis
Riak
Neo4J
Choisir un entrepôt de données en fonction des caractéristiques de vos données
Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues
Choisir un entrepôt de données capable de s'aligner avec les objectifs de l'entreprise
Mapper les données avec le framework de
programmation, se connecter aux données et les extraire de l'entrepôt de
stockage, transformer les données à traiter
Fractionner les données pour Hadoop MapReduce
Créer les composants des tâches Hadoop MapReduce
Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce
Surveiller l'avancement des flux de tâches
Identifier les démons Hadoop
Examiner le système de fichiers distribué Hadoop (HDFS)
Choisir le mode d'exécution : local, pseudo-distribué, entièrement distribué
Comparer des modèles de traitement en temps réel
Exploiter Storm pour extraire des événements en direct
Traitement rapide avec Spark et Shark
Communiquer avec Hadoop en Pig Latin
Exécuter des commandes avec le shell Grunt
Rationaliser les traitements de haut niveau
Assurer la persistance des données dans le Hive MegaStore
Lancer des requêtes avec HiveQL
Examiner le format des fichiers Hive
Analyser les données avec Mahout, utiliser des outils de génération d'états pour afficher le résultat du traitement
Interroger en temps réel avec Impala
Définir les besoins en matière de Big Data
Atteindre les objectifs grâce à la pertinence des données
Évaluer les différents outils du marché dédiés au Big Data
Répondre aux attentes du personnel de l'entreprise
Identifier l'importance des traitements métier
Cerner le problème
Choisir les bons outils
Obtenir des résultats exploitables
Bien choisir les fournisseurs et options d'hébergement
Trouver le juste équilibre entre les coûts engendrés et la valeur apportée à l'entreprise
Garder une longueur d'avance
Tarif |
Contacter l'organisme |
Durée |
3 jours (21 heures) |
Modes |
|
Tarif |
A partir de 5 475,00 € |
Durée |
10j / 70h |
Modes |
|
Tarif |
A partir de 1 775,00 € |
Durée |
2j / 14h |
Modes |
|
Tarif |
A partir de 1 590,00 € |
Durée |
2j / 14h |
Modes |
|
Tarif |
Contacter l'organisme |
Durée |
3 jours (21 heures) |
Modes |
|
Tarif |
A partir de 2 075,00 € |
Durée |
3j / 21h |
Modes |
|
A l'issue de cette formation, vous serez capable de :
Tarif |
A partir de 1 520,00 € |
Durée |
2j / 14h |
Modes |
|
Tarif |
A partir de 15 260,00 € |
Durée |
121j / 847h |
Modes |
|
Tarif |
A partir de 5 475,00 € |
Durée |
10j / 70h |
Modes |
|
Tarif |
A partir de 2 390,00 € |
Durée |
3j / 21h |
Modes |
|