Big Data, I.A. et IoT

Le Big Data désigne des ensembles de données devenus si volumineux qu'ils ne peuvent plus être analysés par l’humain, ni même par des outils informatiques classiques de gestion de base de données ou de l'information. Le Big Data impacte donc en profondeur les modèles économiques des entreprises. L'intelligence artificielle, quant à elle, est un ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine. Elle prend de plus en plus d'ampleur depuis quelques années. Ces deux technologies, bien que différentes (le Big Data désignant une entrée brute et l'IA une sortie résultante d'un traitement de données), elles restent complémentaires car elles s'alimentent l'une sur l'autre. La thématique Big Data, IA et IoT a pour objectif de permettre d’acquérir les compétences propres à ces technologies : 1. Hadoop - HBase, mise en œuvre et administration 2. Etat de l'art du Big Data 3. Les Architectures et infrastructures pour le Big Data 4. Hadoop - Développement 5. Elasticsearch : indexation de contenu 6. Apache Kafka : centraliser les flux de données en temps réel 7. Talend : intégration de données pour le Big Data 8. Modélisation statistique, l'essentiel 9. Big Data - Python pour l'analyse de données 10. Les fondamentaux de l'analyse statistique avec R 11. Spark, développer des applications pour le Big Data 12. Développer des applications de DataVisualisation 13. Tableau Desktop - Exploitation de données 14. Analyser et visualiser des données avec Microsoft Power BI 15. Qlik Sense - Create Vizualizations 16. Big Data - Qualité des données 17. Big Data - Gestion de référentiels de données 18. Big Data - Sécurité des données 19. Etat de l'art sur l'Intelligence Artificielle 20. Machine learning, l'état de l'art 21. Deep Learning : les fondamentaux 22. IoT - État de l'art de l'Internet des objets connectés

22. IoT - État de l'art de l'Internet des objets connectés

Comprendre la notion d’IoT (Internet of Things) ou objets connectés Identifier les usages et les technologies associées Evaluer les opportunités économiques et d'innovations apportées par le domaine de l’IoT Appréhender les normes et standards en vigueur dans le domaine de l’IoT Savoir anticiper l’intégration de l’IoT dans une entreprise

21. Deep Learning : les fondamentaux

Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds) Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones Comprendre les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils

20. Machine learning, l'état de l'art

Comprendre les concepts d’apprentissage automatique et l’évolution du Big Data vers le Machine Learning Appréhender les enjeux de l'utilisation du Machine Learning, incluant les bénéfices attendus et des exemples d’usage Identifier le positionnement du Machine Learning dans la chaîne de traitement de la donnée Connaitre les outils et les acteurs leaders du marché Découvrir les principaux algorithmes et la démarche projet à appliquer selon les cas d'usages en entreprise Identifier les clés de réussite d'un projet intégrant du Machine Learning

19. Etat de l'art sur l'Intelligence Artificielle

Définir et comprendre le concept d’Intelligence Artificielle Identifier les apports potentiels par métier, activité ou secteurs dans l’entreprise Connaître les principales solutions, outils et technologies déployés dans un projet d’IA Identifier les clés de réussite d’une solution d’Intelligence Artificielle Appréhender les enjeux juridiques et éthiques de l’IA Comprendre les applications de l’IA à différents domaines de l'industrie Appréhender les concepts de Machine Learning et Deep Learning

18. Big Data - Sécurité des données

Comprendre la qualification complexe des données Identifier les principaux risques touchant les solutions de traitement des données massives Maîtriser le cadre juridique (CNIL et PLA (Privacy Level Agreement))

17. Big Data - Gestion de référentiels de données

Comprendre le principe des données de référence (Master Data) et en identifier les enjeux Appréhender l’impact des nouvelles architectures de données et du Big Data sur le Master Data Connaitre les principales technologies, solutions et méthodes de gestion des données de référence Mettre en place une méthode de gouvernance des données Savoir identifier les acteurs du Master Data Management et leur rôle Appréhender les outils et bonnes pratiques pour démarrer un projet de référentiel SI

16. Big Data - Qualité des données

Comprendre le rôle stratégique de la valeur des données pour l'entreprise Identifier l’environnement réglementaire des données Appréhender les principes et l’organisation de la gouvernance des données Comprendre les outils et méthodologies utilisés dans la gestion de la qualité des données Mettre en place une démarche de mesure de la qualité des données

15. Qlik Sense - Create Vizualizations

Connaître l'architecture d'une application Qlik Sense Construire une application Qlik Sense Comprendre l'utilisation de base des objets Qlik Sense Charger et transformer les données Être capable de mettre en œuvre de manière méthodique la visualisation self-service Connaître les différents cas d’utilisation des visualisations Envisager quel graphique fournira la meilleure représentation des données Être capable de partager vos informations grâce à des récits de données Qlik Sense Savoir publier l’application et collaborer.

14. Analyser et visualiser des données avec Microsoft Power BI

Connaître les possibilités de la solution Microsoft Power BI Obtenir, modéliser et restituer les données Concevoir et créer des rapports pour l'analyse des données Créer des tableaux de bord interactifs Publier et partager de façon sécurisée ces tableaux de bord dans les espaces de travail Microsoft OneDrive et SharePoint Appliquer et effectuer des analyses de rapport avancées Utiliser les bonnes pratiques de Power BI

13. Tableau Desktop - Exploitation de données

Connaître les possibilités de l’outil Tableau Desktop Manipuler et combiner les données de différentes sources Créer des représentations visuelles (tableaux croisés, graphique, cartes…) Savoir personnaliser ses données et réaliser des calculs Acquérir une méthodologie de mise en œuvre de visualisations Présenter dynamiquement vos données à l'aide d'une histoire

12. Développer des applications de DataVisualisation

Comprendre les principes clés de visualisation de données Appréhender la conception de visualisations de données Maîtriser le cadre juridique du stockage et de l'analyse de données Utiliser des APIs pour la visualisation des données Développer avec les principaux Frameworks de visualisation des données (informations, réseaux, diagrammes…)

11. Spark, développer des applications pour le Big Data

Maîtriser les concepts fondamentaux de Spark Savoir intégrer Spark dans un environnement Hadoop Développer des applications d’analyse en temps réel avec Spark Streaming Faire de la programmation parallèle avec Spark sur un cluster Manipuler des données avec Spark SQL Avoir une première approche du Machine Learning

10. Les fondamentaux de l'analyse statistique avec R

Savoir installer et utiliser l’environnement d'analyse R Comprendre comment manipuler des données avec R Savoir importer et exporter des données Savoir reconnaître les différents types d'objets de R Créer des programmes d'analyse avec R Être en mesure de réaliser des analyses statistiques basiques avec R Savoir restituer des résultats à l'aide de graphiques

09. Big Data - Python pour l'analyse de données

Comprendre le principe de la modélisation statistique Savoir utiliser les principaux outils de traitement et d'analyse de données pour Python Être capable d'extraire des données d'un fichier Savoir appliquer les pratiques optimales en matière de nettoyage et de préparation des données avant l'analyse Apprendre à mettre en place un modèle d'apprentissage simple Choisir entre la régression et la classification en fonction du type de données Évaluer les performances prédictives d'un algorithme Créer des sélections et des classements dans de grands volumes de données pour dégager des tendances

08. Modélisation statistique, l'essentiel

Connaître les fondamentaux de l'analyse statistique appliquée Maîtriser l'utilisation des formules et tests statistiques fondamentaux Savoir concevoir un rapport d'analyse basé sur les faits Exploiter les paramètres statistiques pour comprendre une série de données Découvrir des outils comme R et Excel pour la mise en œuvre des modèles étudiés Valider la précision d'une estimation, à l'aide des intervalles de confiance Être en mesure de prévoir les comportements à venir Savoir vérifier l'adéquation à un modèle

07. Talend : intégration de données pour le Big Data

Maîtriser Talend dans un environnement Big Data Se servir de Talend comme lien entre les fichiers, applications et bases de données Acquérir la philosophie de l'outil Adopter des bonnes pratiques et concevoir des Systèmes d’informations flexibles et bustes Être capable d'implémenter ses Jobs Lire et écrire des données sur HDFS et dans des bases de données NoSQL avec des Jobs Talend Réaliser des Jobs de transformation à l'aide de Pig et Hive Gérer la qualité de la donnée avec Talend Utiliser Scoop pour faciliter la migration de bases de données relationnelles dans Hadoop Maîtriser l'utilisation de la bibliothèque de composants Effectuer des traitements ETL (Extraction, Transform and Load) simple et complexes de bout en bout

06. Apache Kafka : centraliser les flux de données en temps réel

Comprendre le fonctionnement de Kafka et les principes de communications inter applications Acquérir les bonnes pratiques de distribution de messages Savoir configurer Kafka pour intégrer les données de différents formats et de sources différentes Appréhender les différentes APIs de Kafka. Mettre en œuvre KSQL Travailler en sécurité avec Kafka

05. ElasticSearch : indexation de contenu

Situer Elasticsearch dans un écosystème Big Data Identifier les enjeux et les cas d'utilisation d'un moteur de recherche Appréhender le fonctionnement d'ElasticSearch Savoir installer et configurer ElasticSearch Indexer des volumes importants de données Comprendre comment administrer le système et le surveiller afin de garantir sa disponibilité

04. Hadoop développement

Comprendre l’écosystème Hadoop Cloudera/Hortonworks Présenter les principes du Framework Hadoop Mettre en œuvre des tâches Hadoop pour extraire des éléments pertinents d'ensembles de données volumineux et variés Développer des algorithmes parallèles efficaces avec MapReduce Charger des données non structurées des systèmes HDFS et HBase

03. Les Architectures et infrastructures pour le Big Data

Comprendre les principaux concepts du Big Data ainsi que l'écosystème technologique d'un projet Big Data Savoir analyser les difficultés propres à un projet Big Data Déterminer la nature des données manipulées Appréhender les éléments de sécurité, d'éthique et les enjeux juridiques Exploiter les architectures Big Data Mettre en place des socles techniques complets pour des projets Big Data

02. Etat de l'art du Big Data

Découvrir les principaux concepts du Big Data Appréhender les avantages et les contraintes du Big Data Comprendre les enjeux économiques du Big Data Connaître l’écosystème du Big Data et appréhender les technologies associées Savoir anticiper son intégration dans les activités informatiques de l’entreprise Prendre en compte la sécurité et la confidentialité des données dans l’exploitation du Big Data

01. Hadoop - HBase, mise en œuvre et administration

Appréhender l’écosystème Hadoop Comprendre l’architecture et le fonctionnement de HBase Identifier les apports d’HBase en termes de stockage distribué des données Mener à bien l’installation du système Savoir mettre en place une configuration distribuée