J'ai un diplôme "Concepteur développeur en science des données"

Je sais faire les actions suivantes :

A1. Contruction d'une infrastructure de gestion de données adaptée à l'organisation A2. Collecte de données A3. Gestion d'entrepôts de données (Data Warehouse) A4. Analyse exploratoire de données A5. Visualisation et présentation de données A6. Mise en place d'un algorithme d'apprentissage automatique A7. Segmentation et réduction de base de données A8. Optimisation des performances des algorithmes d'apprentissage automatique A9. Mise en place d'un apprentissage automatique profond A10. Optimisation des performances des algorithmes d'apprentissage automatique profond pour industrialisation A11. Industrialisation d'algorithmes d'apprentissage automatique A12. Production d'applications d'intelligence artificielle utilisables par toutes les équipes métier A13. Définition d'une modélisation statistique qui permette de répondre aux problématiques des directions métiers A14. Construction d'un système de gestion et de suivi de projet d'analyse et de gestion de données A15. Direction de projets de gestion de données

OÙ SUIVRE CETTE CERTIFICATION ?

Détails du diplôme

Quelles sont les compétences que vous allez apprendre mais aussi comment l'examen va-t-il se passer ?

Compétences attestées :

Bloc n°1 - Construction et alimentation d'une infrastructure de gestion de données C1.1 - Concevoir une architecture de données robuste et adaptée en créant des lacs de données (Data Lake en anglais) et des entrepôts de données ( Data Warehouse en anglais) afin de répondre aux besoins de stockage, d'utilisation, de sécurité et de protection de l'organisation définie par un cahier des charges C1.2 - Intégrer la dimension de stockage et de calcul distribuée à l'infrastructure de données via l'utilisation d'outils comme Spark ou AWS Redshift afin de l'adapter à des besoins de gestion de données massives ( Big Data en anglais) C1.3 - Collecter des données provenant de différentes sources (Web, Logiciels internes de type Sage / Excel ou externes de type Google Analytics) via des librairies de programmation de type Scrapy ou Beautifulsoup dans le respect des normes de protection des données utilisateurs définies dans le RGPD pour alimenter le Data Lake afin d'affiner le résultat d'analyses futures. C1.4 - Nettoyer et organiser les données dans l'entrepôt de données ( Data Warehouse en anglais) en écrivant des processus d'extraction, transformation et chargements (ETL en anglais) afin de rendre ces données disponibles et compréhensibles pour les autres équipes métiers. Bloc n°2 - Analyse exploratoire, descriptive et inférentielle de données C2.1 - Traiter des bases de données grâce à des analyses statistiques descriptives et inférentielles via des librairies de programmation comme Numpy ou Pandas, pour les organiser et les nettoyer afin de les normaliser par rapport à la population étudiée. C2.2 - Effectuer des analyses univariées et multivariées sur des bases de données structurées afin de préciser des relations entre plusieurs variables et d'établir des liens statistiques entre elles. C2.3 - Optimiser les analyses statistiques grâce au traitement parallélisé via l'utilisation d'outils comme Spark pour accélérer le temps de calcul d'un ordinateur afin de pouvoir analyser des volumes de données massifs (Big Data) C2.4 - Présenter le résultat d'une analyse statistique de données structurées, massives ou non, grâce à des librairies de programmation comme Plotly ou Matplotlib pour synthétiser ce résultat devant un public profane afin de faciliter la prise de décisions et appuyer leurs déclinaisons opérationnelles Bloc n°3 - Analyse prédictive de données structurées par l'intelligence artificielle C3.1 - Traiter des données structurées en créant un pipeline de traitement grâce à des librairies de programmation comme Scikit-Learn pour encoder, normaliser et découper des données afin de les rendre interprétables par un algorithme d'apprentissage automatique (Machine Learning en anglais) C3.2 - Effectuer des analyses prédictives sur un jeu de données structurées grâce à des algorithmes d'apprentissage automatique supervisés adaptés afin d'automatiser des tâches liées aux résultats des prédictions de ces algorithmes C3.3 - Élaborer un algorithme d'apprentissage automatique non-supervisé pour segmenter une base de données en différents groupes homogènes ou réduire la dimension de cette dernière afin de pouvoir comprendre des observations de manière granulaire et de permettre leur visualisation C3.4 - Évaluer la performance prédictive des algorithmes d'apprentissage automatique en déterminant l'influence des différentes variables pour pouvoir l'améliorer afin de démontrer son utilité aux directions métiers, par rapport aux processus déjà établis dans l'organisation Bloc n°4 - Analyse prédictive de données non-structurées par l'intelligence artificielle C4.1 - Traiter des données non-structurées (image, texte, audio) par la création de fonction de traitements via l'utilisation de librairies de programmation comme TensorFlow ou Numpy pour les transformer en matrices afin de les rendre interprétables par un algorithme d'apprentissage automatique profond (Deep learning en anglais) C4.2 - Élaborer des réseaux de neurones adaptés (classiques, convolutifs ou recursifs) en superposant des couches neuronales via des librairies de programmation comme TensorFlow pour analyser des données non-structurées afin de détecter des signaux sur ces dernières C4.3 - Créer un algorithme robuste et précis en configurant un réseau de neurones pré-entrainé profond afin de répondre à des problématiques de prédiction sur des volumes de données massifs C4.4 - Créer des données non-structurées en élaborant des réseaux de neurones adverses afin de construire de nouvelles bases d'entrainement pour des applications d'intelligence artificielle C4.5 - Évaluer la performance d'un algorithme d'apprentissage automatique profond en évaluant des indicateurs sur des données d'entrainement et de validation afin d'industrialiser son utilisation Bloc n°5 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision C5.1 - Standardiser la construction et l'environnement informatique d'un algorithme d'apprentissage automatique grâce des outils de production comme MLflow et Docker afin de faciliter la mise en production de projets d'intelligence artificielle sur tous types de plateformes C5.2 - Créer une interface de programmation applicative grâce à des outil comme AWS sagemaker afin de donner un accès à échelle aux prédictions des algorithmes d'apprentissage automatique à l'ensemble des équipes métiers concernées C5.3 - Déployer une application web intégrant des algorithmes de statistiques prédictives (Machine Learning et Deep Learning) grâce à des outils comme Flask, Heroku ou AWS sagemaker pour les rendre utilisables par l'ensemble des équipes métiers afin d'automatiser leurs processus de décision Bloc n°6 - Direction de projets de gestion de données C6.1 - Traduire les enjeux métiers en problématiques mathématiques/data grâce à une compréhension des besoins propres à chaque projet data afin de pouvoir répondre aux objectifs de l'organisation C6.2 - Maîtriser les technologies les plus récentes et adaptées du marché grâce à de la veille technologique et de la pratique constante pour développer une expertise afin d'être à même de proposer aux directions métiers les solutions les plus adaptées actuellement à une problématique et l'amélioration constante des process de gestion de données déjà en place C6.3 - Définir un cahier des charges, un retroplanning et un budget afin de défendre et détailler aux directions métier un projet data répondant aux besoins de l'organisation C6.4 - Gérer un projet d'analyse et de gestion de données (analyse statistique descriptive, Machine Learning, Deep Learning, Big Data ou non) grâce à l'élaboration d'indicateurs adaptés et de tableaux de bords, afin de faire le suivi et le bilan de l’action, ainsi que de la déclinaison opérationnelle de ses résultats, le tout dans le respect des normes de protection des données utilisateurs définies dans le RGPD C6.5 - Transmettre aux directions-métiers le process d'extraction d'informations et d'analyse de données en le vulgarisant afin de soutenir la mise en place d'une stratégie et d'actions futures. C6.6 - Diriger un projet de gestion de données, allant de sa conception à la mise en place de solutions, afin de le mener jusqu'à son terme, d'être la personne clé disposant de toutes les informations sur le projet à tout moment, et d'accompagner d'autres services de l'organisation dans l'ensemble des activités relatives à celui-ci

Voies d'accès à la certification :

Voies d'accès Composition des Jurys
Après un parcours de formation sous statut d’élève ou d’étudiant
Autorisé
Le jury de certification est composé de : * 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné * 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique * 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).
En contrat d’apprentissage
Autorisé
Le jury de certification est composé de : * 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné * 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique * 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).
Après un parcours de formation continue
Autorisé
Le jury de certification est composé de : * 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné * 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique * 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).
En contrat de professionnalisation
Autorisé
Le jury de certification est composé de : * 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné * 1 membre externe, préférentiellement choisi parmi les membres externes du conseil pédagogique * 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisé dans en science des données Les membres du jury ont une expérience significative en Sciences des Données, suffisante pour pouvoir évaluer les apprenants sur la présentation de leur travail. Tous les membres du jury ont une expérience technique significative et peuvent venir de différents secteurs d’activités (Finance, Banque, Marketing etc.).
Par candidature individuelle
Non autorisé
Par expérience
Autorisé
Le dossier VAE est étudié directement par : * 1 représentant de Jedha, qui préside le jury : le président, le directeur des contenus, le directeur des programmes ou leur représentant désigné * 1 membre externe, choisi parmi les membres externes du conseil pédagogique * 1 à 2 autres membre(s) extérieur(s), spécialistes ou recruteurs spécialisés dans les sciences des données

Segmentation de la certification

Cette certification se compose de 6 Blocs de compétences

Les modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par équivalence sont définies par chaque certificateur accrédité qui met en œuvre les dispositifs qu’il juge adaptés. Ces modalités peuvent être modulées en fonction du chemin d’accès à la certification : formation initiale, VAE, formation continue.

RNCP35288BC01 - Construction et alimentation d'une infrastructure de gestion de données

    C1.1 - Concevoir une architecture de données robuste et adaptée en créant des lacs de données (Data Lake en anglais) et des entrepôts de données ( Data Warehouse en anglais) afin de répondre aux besoins de stockage, d'utilisation, de sécurité et de protection de l'organisation définie par un cahier des charges C1.2 - Intégrer la dimension de stockage et de calcul distribuée à l'infrastructure de données via l'utilisation d'outils comme Spark ou AWS Redshift afin de l'adapter à des besoins de gestion de données massives ( Big Data en anglais) C1.3 - Collecter des données provenant de différentes sources (Web, Logiciels internes de type Sage / Excel ou externes de type Google Analytics) via des librairies de programmation de type Scrapy ou Beautifulsoup dans le respect des normes de protection des données utilisateurs définies dans le RGPD pour alimenter le Data Lake afin d'affiner le résultat d'analyses futures. C1.4 - Nettoyer et organiser les données dans l'entrepôt de données (Data Warehouse en anglais) en écrivant des processus d'extraction, transformation et chargements (ETL en anglais) afin de rendre ces données disponibles et compréhensibles pour les autres équipes métiers.

RNCP35288BC02 - Analyse exploratoire, descriptive et inférentielle de données

    C2.1 - Traiter des bases de données grâce à des analyses statistiques descriptives et inférentielles via des librairies de programmation comme Numpy ou Pandas, pour les organiser et les nettoyer afin de les normaliser par rapport à la population étudiée. C2.2 - Effectuer des analyses univariées et multivariées sur des bases de données structurées afin de préciser des relations entre plusieurs variables et d'établir des liens statistiques entre elles. C2.3 - Optimiser les analyses statistiques grâce au traitement parallélisé via l'utilisation d'outils comme Spark pour accélérer le temps de calcul d'un ordinateur afin de pouvoir analyser des volumes de données massifs (Big Data) C2.4 - Présenter le résultat d'une analyse statistique de données structurées, massives ou non, grâce à des librairies de programmation comme Plotly ou Matplotlib pour synthétiser ce résultat devant un public profane afin de faciliter la prise de décisions et appuyer leurs déclinaisons opérationnelles.

RNCP35288BC03 - Analyse prédictive de données structurées par l'intelligence artificielle

    C3.1 - Traiter des données structurées en créant un pipeline de traitement grâce à des librairies de programmation comme Scikit-Learn pour encoder, normaliser et découper des données afin de les rendre interprétables par un algorithme d'apprentissage automatique (Machine Learning en anglais) C3.2 - Effectuer des analyses prédictives sur un jeu de données structurées grâce à des algorithmes d'apprentissage automatique supervisés adaptés afin d'automatiser des tâches liées aux résultats des prédictions de ces algorithmes C3.3 - Élaborer un algorithme d'apprentissage automatique non-supervisé pour segmenter une base de données en différents groupes homogènes ou réduire la dimension de cette dernière afin de pouvoir comprendre des observations de manière granulaire et de permettre leur visualisation. C3.4 - Évaluer la performance prédictive des algorithmes d'apprentissage automatique en déterminant l'influence des différentes variables pour pouvoir l'améliorer afin de démontrer son utilité aux directions métiers, par rapport aux processus déjà établis dans l'organisation

RNCP35288BC04 - Analyse prédictive de données non-structurées par l'intelligence artificielle

    C4.1 - Traiter des données non-structurées (image, texte, audio) par la création de fonction de traitements via l'utilisation de librairies de programmation comme TensorFlow ou Numpy pour les transformer en matrices afin de les rendre interprétables par un algorithme d'apprentissage automatique profond (Deep learning en anglais) C4.2 - Élaborer des réseaux de neurones adaptés (classiques, convolutifs ou recursifs) en superposant des couches neuronales via des librairies de programmation comme TensorFlow pour analyser des données non-structurées afin de détecter des signaux sur ces dernières C4.3 - Créer un algorithme robuste et précis en configurant un réseau de neurones pré-entrainé profond afin de répondre à des problématiques de prédiction sur des volumes de données massifs C4.4 - Créer des données non-structurées en élaborant des réseaux de neurones adverses afin de construire de nouvelles bases d'entrainement pour des applications d'intelligence artificielle C4.5 - Évaluer la performance d'un algorithme d'apprentissage automatique profond en évaluant des indicateurs sur des données d'entrainement et de validation afin d'industrialiser son utilisation

RNCP35288BC05 - Industrialisation d'un algorithme d'apprentissage automatique et automatisation des processus de décision

    C5.1 - Standardiser la construction et l'environnement informatique d'un algorithme d'apprentissage automatique grâce des outils de production comme MLflow et Docker afin de faciliter la mise en production de projets d'intelligence artificielle sur tous types de plateformes C5.2 - Créer une interface de programmation applicative grâce à des outil comme AWS sagemaker afin de donner un accès à échelle aux prédictions des algorithmes d'apprentissage automatique à l'ensemble des équipes métiers concernées C5.3 - Déployer une application web intégrant des algorithmes de statistiques prédictives (Machine Learning et Deep Learning) grâce à des outils comme Flask, Heroku ou AWS sagemaker pour les rendre utilisables par l'ensemble des équipes métiers afin d'automatiser leurs processus de décision

RNCP35288BC06 - Direction de projets de gestion de données

    C6.1 - Traduire les enjeux métiers en problématiques mathématiques/data grâce à une compréhension des besoins propres à chaque projet data afin de pouvoir répondre aux objectifs de l'organisation C6.2 - Maîtriser les technologies les plus récentes et adaptées du marché grâce à de la veille technologique et de la pratique constante pour développer une expertise afin d'être à même de proposer aux directions métiers les solutions les plus adaptées actuellement à une problématique et l'amélioration constante des process de gestion de données déjà en place C6.3 - Définir un cahier des charges, un retroplanning et un budget afin de défendre et détailler aux directions métier un projet data répondant aux besoins de l'organisation C6.4 - Gérer un projet d'analyse et de gestion de données (analyse statistique descriptive, Machine Learning, Deep Learning, Big Data ou non) grâce à l'élaboration d'indicateurs adaptés et de tableaux de bords, afin de faire le suivi et le bilan de l’action, ainsi que de la déclinaison opérationnelle de ses résultats, le tout dans le respect des normes de protection des données utilisateurs définies dans le RGPD C6.5 - Transmettre aux directions-métiers le process d'extraction d'informations et d'analyse de données en le vulgarisant afin de soutenir la mise en place d'une stratégie et d'actions futures. C6.6 - Diriger un projet de gestion de données, allant de sa conception à la mise en place de solutions, afin de le mener jusqu'à son terme, d'être la personne clé disposant de toutes les informations sur le projet à tout moment, et d'accompagner d'autres services de l'organisation dans l'ensemble des activités relatives à celui-ci

Je cherche à faire...