J'ai un diplôme "Data Engineer"

Je sais faire les actions suivantes :

Mise en œuvre d’un processus de veilles technologique et réglementaire en matière d’intelligence artificielle. Analyse des besoins d'architectures issus des fonctionnalités attendues par les parties prenantes et de la capitalisation de l’expérience acquise. Définition du projet de développement d’infrastructures de données massives adapté au contexte. Evaluation des compétences nécessaires adaptées au projet et aux nouveaux enjeux du secteur de l’intelligence artificielle. Conception de l'architecture de données massives à partir des propositions validées par les parties prenantes. Développement d’une base de données massive. Pilotage de l’implémentation de l'architecture de données massives avec les parties prenantes. Animation et management de l’équipe projet d’intelligence artificielle. Conception et communication de la stratégie de l’architecture d’entrepôt de données massives (Data Lake, Data Warehouse). Collecte des ensembles volumineux de données structurées et non structurées provenant de différentes sources. Développement des composants de l’Intelligence artificielle. Evaluation des solutions de formatage et de stockage des données massives. Optimisation du traitement et de la visualisation des données. Identification des usages et conditions d'utilisation sur la durée de vie de la solution ou de l'équipement d’intelligence artificielle. Rédaction d'un protocole de maintenance et la documentation technique/technologique d’exploitation mis à disposition des entités utilisatrices. Maintenance de l’infrastructure de données massives garantissant sa fiabilité.

OÙ SUIVRE CETTE CERTIFICATION ?

Détails du diplôme

Quelles sont les compétences que vous allez apprendre mais aussi comment l'examen va-t-il se passer ?

Compétences attestées :

Mettre en place un processus de veilles technologique et réglementaire en matière d’intelligence artificielle en s’appuyant sur des sources dédiées afin d’anticiper l’évolution des normes et règlements applicables à la certificabilité des systèmes intégrant des intelligences artificielles ou des traitements de données massives. Exercer une veille technologique et réglementaire à l’aide de sources dédiées, en collectant, classifiant et en analysant l’information afin de mettre en place de nouvelles technologies issues de la recherche en intelligence artificielle et en Science des données les mieux adaptées au projet de développement des infrastructures de données. Analyser les cas d'usage en data et en intelligence artificielle déjà implémentés, en s’appuyant sur la réalisation d’une cartographie des exigences normatives et règlementaires de l’entreprise, pour les évaluer, les enrichir et en créer de nouveaux en capitalisant sur l’expérience acquise. Définir le projet de développement d’infrastructures de données massives à réaliser en interaction avec les parties prenantes, en procédant par itérations successives, en vue d’établir une liste exhaustive de ses attentes et prenant en compte les situations de handicap. Identifier les outils de data science applicables selon le contexte et les objectifs attendus afin de présenter des préconisation et d’intégrer des outils inclusifs IA/Data science adaptés à la problématique métier ainsi qu’à la politique RSE de la structure. Evaluer toutes les compétences nécessaires à la réalisation du projet d’intelligence artificielle, s’appuyant sur la cartographie des profils nécessaires au projet et prenant en compte les situations de handicap, en vue de constituer une équipe inclusive de développement spécialisée en intelligence artificielle. Intégrer les profils recrutés en favorisant l’inclusion des personnes en situation de handicap, en collaborant avec le référent handicap de l’entreprise et en identifiant les besoins en formation, afin de permettre leur pleine intégration au sein de l’équipe projet. Superviser la rédaction du cahier des charges fonctionnels et techniques, en justifiant les choix opérés, et spécifier les livrables afin de déterminer les budgets et les ressources alloués pour la réalisation du projet. Vérifier l’adéquation du cahier des charges avec les besoins de l’entreprise, en s’appuyant sur des échanges avec celle-ci et en prenant en compte les spécificités techniques et fonctionnelles (sécurisation des données, handicap), en vue de prévenir tout risque d’écarts en cours de réalisation. Définir la structure générale d’une base de données en ayant recours à la méthodologie de conception et en respectant les cahiers des charges afin de mettre en place une solution d’intelligence artificielle. Définir un format des données stockées adapté à la structure de la base de données, en utilisant les méthodologies de conception et d’exploitation des données adaptés, en vue de faciliter la saisie et la recherche d’informations. Vérifier la cohérence de la base de données définie et des formats en s’appuyant sur la méthodologie de conception des bases de données dans le but de les rendre exploitables par une solution d’intelligence artificielle. Définir et mettre en place des indicateurs de mesure de la performance à partir opérations des tests et des processus de maintenance curative/préventive dans le but de monitorer le retour sur investissement des projets applicatifs. Gérer les données historiques en utilisant des indicateurs de performance afin de garantir la disponibilité, la qualité et l’amélioration continue de la fiabilité des données. Etablir un plan d’investissement pluriannuel et mobiliser les financements en se basant sur les plans d’évolution du système d’information afin de réaliser un plan global d’intelligence artificielle et de valorisation des données. Mobiliser les techniques et outils de conduite de projets inclusifs en mobilisant la culture DevOps et mettant en place des indicateurs de suivi afin de produire les livrables du projet dans le temps imparti, au niveau de qualité attendu. Maîtriser les méthodes de management de projet en utilisant les outils et les techniques de résolution de problèmes s’inscrivant dans la culture DevOps afin de surmonter les difficultés techniques et humaines rencontrées lors d’un projet. Motiver et fédérer les équipes projet d’intelligence artificielle en les sensibilisant au processus d’amélioration continue et en construisant les objectifs individuels ou collectifs à travers le dialogue et le consensus prenant en compte les situations de handicap et le développement durable. Concevoir une architecture d’entrepôt de données massives en mobilisant une expertise des solutions de manipulation des données (ETL/ELT) pour optimiser le stockage et la protection de données structurées ou non structurées provenant de sources multivariées. Communiquer la stratégie de mise en œuvre de l’architecture d’entrepôt de données massives et ses résultats aux parties prenantes en respectant le cahier des charges ainsi que la réglementation en matière de sécurité informatique afin de dégager un avantage stratégique et commercial pour l’entreprise. Collecter des ensembles volumineux de données structurées et non structurées issues de sources internes et externes de l’entreprise à l’aide de solutions adaptées de manipulation de données afin d’en dégager des résultats visualisables sur des interfaces de visualisation et/ou modélisation. Développer les composants de l’intelligence artificielle en langage de programmation approprié en respectant les normes du domaine et les principes déontologiques établis afin de respecter la démarche d’assurance qualité du code produit. Développer des algorithmes tels que les forêts aléatoires, les arbres de décision, l’algorithme K-Nearest Neighbors, la régression linéaire, l’algorithme de Naïve Bayes, la machine à vecteurs de support (SVM), régression logistique et boosting de gradient, reposant sur des modèles statistiques en vue de mettre en œuvre les processus d’apprentissage automatique (« Machine learning »). Mettre en œuvre les technologies reposant sur les réseaux de neurones et prenant en compte les principes éthiques selon les normes en vigueur en vue d’intégrer les processus d’apprentissage profond (« Deep learning »). Evaluer différentes solutions de formatage et de stockage en se basant sur les solutions de chiffrements et de pare-feux ainsi qu’en prenant en compte les contraintes éthiques et légales en vue de favoriser leur traitement, leur centralisation et leur sécurisation. Créer ou identifier les différents algorithmes d’optimisation du traitement et de la visualisation des données pour évaluer leur capacité à résoudre des problèmes spécifiques. Mettre en œuvre un algorithme répondant au besoin d’optimisation du traitement des données répondant aux besoins des parties prenantes afin de résoudre un problème de décision séquentiel simple. Présenter les résultats d’analyses de données massives sous la forme d’infographies en mettant en la configuration des requêtes de manière à faciliter la prise de décision managériale ou opérationnelle. Etablir le schéma général des accès à l’application développée prenant en compte le référentiel d’accessibilité (RGAA), en vue d’assurer leur cohérence avec l’organisation de l’entreprise utilisatrice et les différentes parties prenantes. Valider régulièrement la production de la solution d’intelligence artificielle en s’appuyant sur le retour d’expérience des utilisateurs en interne et en externe afin d’adapter les fonctionnalités et les caractéristiques techniques du projet d’intelligence artificielle. Assurer la pérennité de la solution informatique en surveillant l’évolution des données de travail afin d’éviter la dégradation des performances des modèles d’intelligence artificielle mis en production et assurer un niveau de sécurisation des données optimal défini par la DSI. Rédiger les protocoles de maintenance et les procédures techniques/technologiques d'exploitation à destination des entités utilisatrices, en configurant les éléments nécessaires garantissant la sécurisation des données et des systèmes afin de mener à bien tout projet de développement et anticiper les risques du système de gouvernance des données. Identifier le cycle de vie des cas d’usage de l’intelligence artificielle en monitorant le modèle en production afin d’assurer la maintenance de l’infrastructure et d’en anticiper les évolutions. Concevoir un ensemble de tests de surveillance des pipelines pipelines d’intégration continue et de déploiement continu (CI/CD) en se basant sur un traitement des données par flux et par lot afin d’anticiper les montées en charge et optimiser la fiabilité globale de l’infrastructure de données massives. Reproduire une chaîne de modélisation à partir du versionnage des différents types d’application (modèles prédictifs) afin de gérer le déploiement sur un serveur ou un cloud. Mesurer et détecter la dérive des données en se basant sur des indicateurs-clés afin d’appliquer des correctifs dans le cadre de la résolution de bugs techniques et/ou fonctionnels.

Voies d'accès à la certification :

Voies d'accès Composition des Jurys
Après un parcours de formation sous statut d’élève ou d’étudiant
Autorisé
Le jury de certification est constitué de cinq personnes : * Un président extérieur à l’autorité de certification ; * Deux formateurs qui sont des professionnels du secteur n’ayant aucun lien avec les candidats présentés devant le jury de certification ; * Deux professionnels extérieurs à l’autorité de certification.
En contrat d’apprentissage
Autorisé
Le jury de certification est constitué de cinq personnes : * Un président extérieur à l’autorité de certification ; * Deux formateurs qui sont des professionnels du secteur n’ayant aucun lien avec les candidats présentés devant le jury de certification ; * Deux professionnels extérieurs à l’autorité de certification.
Après un parcours de formation continue
Autorisé
Le jury de certification est constitué de cinq personnes : * Un président extérieur à l’autorité de certification ; * Deux formateurs qui sont des professionnels du secteur n’ayant aucun lien avec les candidats présentés devant le jury de certification ; * Deux professionnels extérieurs à l’autorité de certification.
En contrat de professionnalisation
Autorisé
Le jury de certification est constitué de cinq personnes : * Un président extérieur à l’autorité de certification ; * Deux formateurs qui sont des professionnels du secteur n’ayant aucun lien avec les candidats présentés devant le jury de certification ; * Deux professionnels extérieurs à l’autorité de certification.
Par candidature individuelle
Non autorisé
Par expérience
Autorisé
Le jury de certification est constitué de cinq personnes : * Un président extérieur à l’autorité de certification ; * Deux formateurs qui sont des professionnels du secteur n’ayant aucun lien avec les candidats présentés devant le jury de certification ; * Deux professionnels extérieurs à l’autorité de certification.

Segmentation de la certification

Cette certification se compose de 4 Blocs de compétences

Les modalités d'acquisition de la certification par capitalisation des blocs de compétences et/ou par équivalence sont définies par chaque certificateur accrédité qui met en œuvre les dispositifs qu’il juge adaptés. Ces modalités peuvent être modulées en fonction du chemin d’accès à la certification : formation initiale, VAE, formation continue.

RNCP37422BC01 - Analyser les besoins en matière d'infrastructures de données adaptés au projet d'intelligence artificielle

    Mettre en place un processus de veilles technologique et réglementaire en matière d’intelligence artificielle en s’appuyant sur des sources dédiées afin d’anticiper l’évolution des normes et règlements applicables à la certificabilité des systèmes intégrant des intelligences artificielles ou des traitements de données massives. Exercer une veille technologique et réglementaire à l’aide de sources dédiées, en collectant, classifiant et en analysant l’information afin de mettre en place de nouvelles technologies issues de la recherche en intelligence artificielle et en Science des données les mieux adaptées au projet de développement des infrastructures de données. Analyser les cas d'usage en data et en intelligence artificielle déjà implémentés, en s’appuyant sur la réalisation d’une cartographie des exigences normatives et règlementaires de l’entreprise, pour les évaluer, les enrichir et en créer de nouveaux en capitalisant sur l’expérience acquise. Définir le projet de développement d’infrastructures de données massives à réaliser en interaction avec les parties prenantes, en procédant par itérations successives, en vue d’établir une liste exhaustive de ses attentes et prenant en compte les situations de handicap. Identifier les outils de data science applicables selon le contexte et les objectifs attendus afin de présenter des préconisation et d’intégrer des outils inclusifs IA/Data science adaptés à la problématique métier ainsi qu’à la politique RSE de la structure. Evaluer toutes les compétences nécessaires à la réalisation du projet d’intelligence artificielle, s’appuyant sur la cartographie des profils nécessaires au projet et prenant en compte les situations de handicap, en vue de constituer une équipe inclusive de développement spécialisée en intelligence artificielle. Intégrer les profils recrutés en favorisant l’inclusion des personnes en situation de handicap, en collaborant avec le référent handicap de l’entreprise et en identifiant les besoins en formation, afin de permettre leur pleine intégration au sein de l’équipe projet.

RNCP37422BC02 - Piloter le projet de développement de l'infrastructure de données massives

    Superviser la rédaction du cahier des charges fonctionnels et techniques, en justifiant les choix opérés, et spécifier les livrables afin de déterminer les budgets et les ressources alloués pour la réalisation du projet. Vérifier l’adéquation du cahier des charges avec les besoins de l’entreprise, en s’appuyant sur des échanges avec celle-ci et en prenant en compte les spécificités techniques et fonctionnelles (sécurisation des données, handicap), en vue de prévenir tout risque d’écarts en cours de réalisation. Définir la structure générale d’une base de données en ayant recours à la méthodologie de conception et en respectant les cahiers des charges afin de mettre en place une solution d’intelligence artificielle. Définir un format des données stockées adapté à la structure de la base de données, en utilisant les méthodologies de conception et d’exploitation des données adaptés, en vue de faciliter la saisie et la recherche d’informations. Vérifier la cohérence de la base de données définie et des formats en s’appuyant sur la méthodologie de conception des bases de données dans le but de les rendre exploitables par une solution d’intelligence artificielle. Définir et mettre en place des indicateurs de mesure de la performance à partir opérations des tests et des processus de maintenance curative/préventive dans le but de monitorer le retour sur investissement des projets applicatifs. Gérer les données historiques en utilisant des indicateurs de performance afin de garantir la disponibilité, la qualité et l’amélioration continue de la fiabilité des données. Etablir un plan d’investissement pluriannuel et mobiliser les financements en se basant sur les plans d’évolution du système d’information afin de réaliser un plan global d’intelligence artificielle et de valorisation des données. Mobiliser les techniques et outils de conduite de projets inclusifs en mobilisant la culture DevOps et mettant en place des indicateurs de suivi afin de produire les livrables du projet dans le temps imparti, au niveau de qualité attendu. Maîtriser les méthodes de management de projet en utilisant les outils et les techniques de résolution de problèmes s’inscrivant dans la culture DevOps afin de surmonter les difficultés techniques et humaines rencontrées lors d’un projet. Motiver et fédérer les équipes projet d’intelligence artificielle en les sensibilisant au processus d’amélioration continue et en construisant les objectifs individuels ou collectifs à travers le dialogue et le consensus prenant en compte les situations de handicap et le développement durable.

RNCP37422BC03 - Concevoir les architectures big data valorisant les données

    Concevoir une architecture d’entrepôt de données massives en mobilisant une expertise des solutions de manipulation des données (ETL/ELT) pour optimiser le stockage et la protection de données structurées ou non structurées provenant de sources multivariées. Communiquer la stratégie de mise en œuvre de l’architecture d’entrepôt de données massives et ses résultats aux parties prenantes en respectant le cahier des charges ainsi que la réglementation en matière de sécurité informatique afin de dégager un avantage stratégique et commercial pour l’entreprise. Collecter des ensembles volumineux de données structurées et non structurées issues de sources internes et externes de l’entreprise à l’aide de solutions adaptées de manipulation de données afin d’en dégager des résultats visualisables sur des interfaces de visualisation et/ou modélisation. Développer les composants de l’intelligence artificielle en langage de programmation approprié en respectant les normes du domaine et les principes déontologiques établis afin de respecter la démarche d’assurance qualité du code produit. Développer des algorithmes tels que les forêts aléatoires, les arbres de décision, l’algorithme K-Nearest Neighbors, la régression linéaire, l’algorithme de Naïve Bayes, la machine à vecteurs de support (SVM), régression logistique et boosting de gradient, reposant sur des modèles statistiques en vue de mettre en œuvre les processus d’apprentissage automatique (« Machine learning »). Mettre en œuvre les technologies reposant sur les réseaux de neurones et prenant en compte les principes éthiques selon les normes en vigueur en vue d’intégrer les processus d’apprentissage profond (« Deep learning »). Evaluer différentes solutions de formatage et de stockage en se basant sur les solutions de chiffrements et de pare-feux ainsi qu’en prenant en compte les contraintes éthiques et légales en vue de favoriser leur traitement, leur centralisation et leur sécurisation. Créer ou identifier les différents algorithmes d’optimisation du traitement et de la visualisation des données pour évaluer leur capacité à résoudre des problèmes spécifiques. Mettre en œuvre un algorithme répondant au besoin d’optimisation du traitement des données répondant aux besoins des parties prenantes afin de résoudre un problème de décision séquentiel simple. Présenter les résultats d’analyses de données massives sous la forme d’infographies en mettant en la configuration des requêtes de manière à faciliter la prise de décision managériale ou opérationnelle. Etablir le schéma général des accès à l’application développée prenant en compte le référentiel d’accessibilité (RGAA), en vue d’assurer leur cohérence avec l’organisation de l’entreprise utilisatrice et les différentes parties prenantes.

RNCP37422BC04 - Piloter la maintenance de l'architecture de données massives

    Valider régulièrement la production de la solution d’intelligence artificielle en s’appuyant sur le retour d’expérience des utilisateurs en interne et en externe afin d’adapter les fonctionnalités et les caractéristiques techniques du projet d’intelligence artificielle. Assurer la pérennité de la solution informatique en surveillant l’évolution des données de travail afin d’éviter la dégradation des performances des modèles d’intelligence artificielle mis en production et assurer un niveau de sécurisation des données optimal défini par la DSI. Rédiger les protocoles de maintenance et les procédures techniques/technologiques d'exploitation à destination des entités utilisatrices, en configurant les éléments nécessaires garantissant la sécurisation des données et des systèmes afin de mener à bien tout projet de développement et anticiper les risques du système de gouvernance des données. Identifier le cycle de vie des cas d’usage de l’intelligence artificielle en monitorant le modèle en production afin d’assurer la maintenance de l’infrastructure et d’en anticiper les évolutions. Concevoir un ensemble de tests de surveillance des pipelines pipelines d’intégration continue et de déploiement continu (CI/CD) en se basant sur un traitement des données par flux et par lot afin d’anticiper les montées en charge et optimiser la fiabilité globale de l’infrastructure de données massives. Reproduire une chaîne de modélisation à partir du versionnage des différents types d’application (modèles prédictifs) afin de gérer le déploiement sur un serveur ou un cloud. Mesurer et détecter la dérive des données en se basant sur des indicateurs-clés afin d’appliquer des correctifs dans le cadre de la résolution de bugs techniques et/ou fonctionnels.

Je cherche à faire...