Pédagogie du programme
Ce programme est élaboré sur la base de l’analyse de projets BIG DATA mis en place en entreprises. Durant toute la formation des professionnels partagent leurs retours d’expérience avec les apprenants, sous la forme d’exemples concrets et de témoignages (certains en vidéo). La formation est rythmée par des études de cas et des séances de classe inversée (l’apprenant devient formateur le temps d’un exercice).
Pédagogies mises en œuvre
Les pédagogies mises en œuvre reposent principalement sur 6 approches que nous avons nommées APT, ECH, REX, EDC, MES et DIY :
-
APT : apports théoriques de la part du formateur
-
ECH : les apprenants sont invités à échanger autour d’une question soulevée par le formateur, les professionnels interviewés ou par les apprenants eux-mêmes
-
REX : durant toute la formation des professionnels partagent leurs retours d’expérience avec les apprenants principalement sous la forme de témoignages (dont vidéo) et d’exemples concrets
-
EDC : chaque journée de formation est rythmée par une étude de cas
-
MES : l’apprenant est régulièrement mis en situation de choix (anticiper, mettre en place, piloter)
-
DIY : l’apprenant est acteur de sa propre formation à travers des séances de classe renversée (les apprenants sont regroupés en groupes de 3 qui deviennent formateurs des autres groupes le temps d’une activité).
PROGRAMME sur 3 jours
-
Définition et contexte spécifique des projets Big Data
-
Panorama technologique et enjeux socio-économiques
-
Propriété de la donnée, environnement juridique du traitement, sécurité
-
Impact des choix technologiques en matière d’analyse et de visualisation
-
Gérer la structure des données (structurées – non structurées ; internes – acquises)
-
Choisir le type de base de données en fonction de la structure des données
-
Cycle de vie des données : exemple et application
-
Mise en œuvre de bonnes pratiques pour la production et l'analyse des données
-
S'assurer de la qualité des données (Data Quality Management)
-
La collecte des données
-
Les données internes à l’entreprise
-
Les données externes
-
Importation et exportation de données
-
L’extraction des données du web (type de données)
-
Installation de l'environnement d'analyse
-
L’entrepôt / le stockage des données
-
Stockage dans le Cloud
-
Serveurs internes
-
La sécurité des données selon le choix de stockage
-
Méthodes d’analyse et de visualisation
-
Comprendre la visualisation de données, son utilité et ses enjeux
-
Tableau et BI deux outils de visualisations adaptés aux Big data
-
Techniques d'exploration des données par la visualisation
-
Visualisation scientifique : principes et outils, méthode et mise en oeuvre, couplage aux calculs scientifiques
-
Exemple de couplage code / visualisation
-
Comment reconnaître et anticiper les difficultés (données manquantes, évolution peu visible, échelles faussées…)
-
Passer de l'analyse reporting à l'analyse prescriptive et viser le bon interlocuteur
-
Outils pour visualiser et analyser les données → exemples
-
Architecture Big data (KB Crawl)
-
Identifier les sources, collecter les données, en mesurer la pertinence et analyser leur intérêt
-
Collecte automatisée et centralisée des informations sur le web, visible comme invisible, et leur filtrage intelligent
-
Stocker et partager les données de façon optimale et personnalisée
-
Faire une veille professionnelle grâce à une architecture Big Data
-
Paramétrage des outils d’analyse et de partage collaboratifs (data visualisation, réseau social intégré, etc.)
-
Conclusion
-
Comment convaincre de la pertinence des résultats obtenus au travers du Big data
-
Sensibiliser chaque branche de l'entreprise à la démarche Big data