Architecte en intelligence artificielle
* Concevoir une politique de Data Gouvernance en collaboration avec les parties prenantes, afin d'assurer la conformité aux régulations en vigueur et garantir la qualité, la disponibilité, la sécurité et la confidentialité des données. * Collaborer avec les parties prenantes de l'entreprise pour promouvoir et mettre en œuvre la politique de Data Gouvernance, en vue d'une intégration harmonieuse dans les pratiques de l'entreprise. * Former et sensibiliser tous les collaborateurs, y compris ceux en situation de handicap, aux principes de la Data Gouvernance, afin d'assurer une mise en œuvre efficace et inclusive de la politique de Data Gouvernance. * Réaliser des audits réguliers des pratiques de gestion des données de l'entreprise, pour assurer la conformité aux réglementations locales et internationales en vigueur. * Évaluer les risques associés à la gestion des données, notamment en termes de qualité et de sécurité, pour renforcer la politique de Data Gouvernance. * Identifier les besoins architecturaux en enquêtant sur les contraintes techniques, opérationnelles et normes en vigueur, afin d'établir un cadre conforme aux exigences de l'entreprise. * Élaborer un cahier des charges d'architecture de données qui intègre les contraintes techniques et normes, en vue de répondre aux besoins spécifiques de l'entreprise. * Elaborer des modèles de données logiques et physiques (entité-relation, les modèles de données en étoile...) qui correspondent au cahier des charges établi. * Concevoir des structures de bases de données adaptées à divers types de données, en tenant compte des performances, de la sécurité, de l'évolutivité, et du volume des données, pour une gestion optimale du Big Data. * Déployer des serveurs virtuels dans le cloud ou On-Premise pour l'entraînement des algorithmes d'Intelligence Artificielle, en vue de gérer efficacement un large volume de données. * Augmenter la puissance de calcul à travers la conception de clusters de serveurs, afin de permettre l'entraînement d'algorithmes d'Intelligence Artificielle, le stockage de données volumineuses ou encore l'accueil de trafic massif sur une application. * Mettre en place des outils de surveillance pour suivre les performances de l'infrastructure de données, identifier les problèmes potentiels et optimiser les systèmes, en vue d'une gestion proactive. * Documenter les spécifications de l'architecture de manière claire et accessible à tous, y compris aux personnes en situation de handicap, pour faciliter sa gestion. * Concevoir un système de gestion de données temps réel adapté aux contraintes et normes opérationnelles de l'entreprise, pour gérer efficacement la vélocité, le volume des flux, et la typologie des données. * Établir un pipeline de données à travers des processus ETL/ELT pour le transfert et la transformation des données entre différentes bases, en utilisant des outils de programmation, afin de répondre aux spécifications du cahier des charges. * Automatiser les flux de données dans le pipeline, en utilisant des outils spécifiques ou de la programmation, afin d'optimiser les performances de l'infrastructure de données. * Surveiller les flux de données pour assurer la qualité et le respect de la politique de gouvernance, en vue de maintenir les normes, la sécurité et la confidentialité dans les pipelines de données. * Développer des procédures de contrôle qualité et de correction des erreurs dans les pipelines de données, afin de garantir la qualité des données. * Rédiger un cahier des charges pour la solution d'Intelligence Artificielle, afin de répondre aux besoins techniques et économiques de l'organisation, en tenant compte de l'accessibilité pour les personnes en situation de handicap. * Créer un algorithme d'Intelligence Artificielle adapté aux données d'entraînement et conforme aux spécifications du cahier des charges, en veillant à répondre aux besoins spécifiques, notamment en termes d'accessibilité. * Adapter l'infrastructure de données de l'organisation à travers la construction d'API pour accueillir la solution d'IA en production. * Concevoir des pipelines d'intégration et déploiement continu pour automatiser le processus de déploiement d'une solution d'IA. * Développer des scripts de réentrainement des modèles pour automatiser le processus de Machine Learning. * Piloter la performance de la solution d'IA dans l'infrastructure à travers la mise en place d'outils de monitoring (comme Aporia ou Evidently) pour s'assurer qu'elle respecte les spécifications du cahier des charges dans un environnement de production.
Lire la suitePrérequis
Un certificat de niveau 6 ou supérieur dans un domaine scientifique, économique ou informatique. À l’international, un niveau équivalent est requis. Ce niveau sera justifié par le CV de l’apprenant et par la transmission des diplômes préalablement obtenus.. La réussite d’un test d’admission , validant des compétences nécessaires en programmation SQL, python et en gestion de réseaux. La réussite d’un entretien préalable qui jugera: * De la plus-value de l’acquisition des compétences décrites dans le référentiel "Auditeur cybersécurité" pour le projet professionnel * De la pertinence et de la faisabilité de ce projet professionnel * De la capacité du candidat à suivre la Formation dans les conditions définies au préalable (possibilité de suivre la formation en présentiel ou distanciel) Une expérience professionnelle adaptée sera valorisée pour l’admission dans la formation. Une pratique courante de l’anglais (niveau B2 en compréhension & expression écrite et B1 de compréhension & expression orale du référentiel européen CECRL) est requise. Dans certains cas, la réussite aux tests d’admission et à l’entretien pourront se substituer à un diplôme de niveau 6.
Voir plusVoie d'accès
Non accessible en contrat de formation continue, contrat de professionnalisation, contrat d'apprentissage et en reconnaissance des acquis (VAE)
Où suivre ce diplôme ?
Compétences attestées
Blocs de compétences
- Identifier les besoins architecturaux en enquêtant sur les contraintes techniques, opérationnelles et normes en vigueur, afin d'établir un cadre conforme aux exigences de l'entreprise. Élaborer un cahier des charges d'architecture de données qui intègre les contraintes techniques et normes, en vue de répondre aux besoins spécifiques de l'entreprise. Élaborer des modèles de données logiques et physiques (entité-relation, les modèles de données en étoile...) qui correspondent au cahier des charges établi.
- Concevoir des structures de bases de données adaptées à divers types de données, en tenant compte des performances, de la sécurité, de l'évolutivité, et du volume des données, pour une gestion optimale du Big Data.
- Déployer des serveurs virtuels dans le cloud ou On-Premise pour l'entraînement des algorithmes d'Intelligence Artificielle, en vue de gérer efficacement un large volume de données.
- Augmenter la puissance de calcul à travers la conception de clusters de serveurs, afin de permettre l'entraînement d'algorithmes d'Intelligence Artificielle, le stockage de données volumineuses ou encore l'accueil de trafic massif sur une application.
- Mettre en place des outils de surveillance pour suivre les performances de l'infrastructure de données, identifier les problèmes potentiels et optimiser les systèmes, en vue d'une gestion proactive.
- Documenter les spécifications de l'architecture de manière claire et accessible à tous, y compris aux personnes en situation de handicap, pour faciliter sa gestion.
- Rédiger un cahier des charges pour la solution d'Intelligence Artificielle, afin de répondre aux besoins techniques et économiques de l'organisation, en tenant compte de l'accessibilité pour les personnes en situation de handicap.
- Créer un algorithme d'Intelligence Artificielle adapté aux données d'entraînement et conforme aux spécifications du cahier des charges, en veillant à répondre aux besoins spécifiques, notamment en termes d'accessibilité.
- Adapter l'infrastructure de données de l'organisation à travers la construction d'API pour accueillir la solution d'IA en production.
- Concevoir des pipelines d'intégration et déploiement continu pour automatiser le processus de déploiement d'une solution d'IA.
- Développer des scripts de réentrainement des modèles pour automatiser le processus de Machine Learning.
- Piloter la performance de la solution d'IA dans l'infrastructure à travers la mise en place d'outils de monitoring (comme Aporia ou Evidently) pour s'assurer qu'elle respecte les spécifications du cahier des charges dans un environnement de production.
- Concevoir un système de gestion de données temps réel adapté aux contraintes et normes opérationnelles de l'entreprise, pour gérer efficacement la vélocité, le volume des flux, et la typologie des données. Établir un pipeline de données à travers des processus ETL/ELT pour le transfert et la transformation des données entre différentes bases, en utilisant des outils de programmation, afin de répondre aux spécifications du cahier des charges.
- Automatiser les flux de données dans le pipeline, en utilisant des outils spécifiques ou de la programmation, afin d'optimiser les performances de l'infrastructure de données.
- Surveiller les flux de données pour assurer la qualité et le respect de la politique de gouvernance, en vue de maintenir les normes, la sécurité et la confidentialité dans les pipelines de données.
- Développer des procédures de contrôle qualité et de correction des erreurs dans les pipelines de données, afin de garantir la qualité des données.
- Concevoir une politique de Data Gouvernance en collaboration avec les parties prenantes, afin d'assurer la conformité aux régulations en vigueur et garantir la qualité, la disponibilité, la sécurité et la confidentialité des données.
- Collaborer avec les parties prenantes de l'entreprise pour promouvoir et mettre en œuvre la politique de Data Gouvernance, en vue d'une intégration harmonieuse dans les pratiques de l'entreprise.
- Former et sensibiliser tous les collaborateurs, y compris ceux en situation de handicap, aux principes de la Data Gouvernance, afin d'assurer une mise en œuvre efficace et inclusive de la politique de Data Gouvernance." Réaliser des audits réguliers des pratiques de gestion des données de l'entreprise, pour assurer la conformité aux réglementations locales et internationales en vigueur. Évaluer les risques associés à la gestion des données, notamment en termes de qualité et de sécurité, pour renforcer la politique de Data Gouvernance.