Programme Enigma Cycle 2 - Expert en Systèmes d'Information - Spécialisation Big Data & BI - Cursus Retail - 2ème année

Objectifs de la formation et compétences visées

L’Expert en Systèmes d’Information est responsable du bon fonctionnement, de la continuité de service et de l’évolution du système d'informatioIl exerce dans le cadre d'une entreprise de services du numérique (ESN) ou d'un client final.

Compétences visées

L'étudiant ayant suivi le cursus Enigma 2ème cycle sera capable de  :

• Diriger et piloter les équipes techniques chargées de la mise en place des projets grâce à des outils de management et veiller à la mise en place et au respect des bonnes pratiques et des normes.

• D’auditer, et de prodiguer une expertise technique dans la mise en œuvre des différents projets tout en veillant à anticiper les besoins futurs pour l’évolution du SI.

Méthodes pédagogiques mobilisées et descriptif de la formation

Située au coeur de la capitale des Hauts de France, à proximité du centre-ville et des moyens de transports en commun, ENIGMA propose des formations en alternance Bac+3 et Bac+5 reconnues par l’Etat.

ENIGMA offre l’avantage d’être une structure à taille humaine, avec des effectifs par classes de 15 à 20 élèves. Ce qui permet un suivi individualisé des étudiants.

L’équipe pédagogique est composée d’intervenants issus du monde de l’entreprise. En plus de transmettre leurs expertises, ils partagent leurs expériences professionnelles offrant ainsi aux étudiants une nouvelle dimension aux acquis théoriques.

Aucun frais de scolarité en Cycle 2 (4ème et 5ème année) car en alternance.

Cette formation en alternance peut être suivie en Contrat de Professionnalisation ou en Contrat d'Apprentissage.

Accessibilité Handicap

Public visé : Étudiants

Format : Présentiel

Pré-requis : Bac + 3 dans le domaine de l'informatique

Procédure d'admission : Dossier

Modalités d’évaluation et de validation de l'année : : Au moins 10/20 à chaque évaluation de module, Aucune note inférieure à 7/20, Au moins 10/20 de moyenne générale sur l'année, Rattrapage pour les notes comprises entre 7 et 10/20, Rapport et soutenance en cycle 1, Mémoire et soutenance en cycle 2

Rythme : Alternance, 1 jour / 4 jours

Niveau de Formation  : 

Spécialité : Informatique, traitement de l'information, réseaux de transmission

Tarif formation : 

Durée :

609.0 heures

Résumé du programme

  • Tronc commun
  • Spécialisation Big Data & BI
  • Cursus métier Retail

N'hésitez pas à nous contacter pour en savoir plus sur les prochaines sessions.

Détails du programme

Tronc commun

  • Prise de parole et méthodologie d'apprentissage

    Objectifs en fin de formation : • Arriver à optimiser son temps entre vie professionnelle, vie privée et formation • Planifier ses tâches et activités en fonction des priorités de sa fonction • Maîtriser l'impact de ses interlocuteurs dans son organisation quotidienne • Préserver son équilibre pour être plus productif en se préservant du stress Contenue de la formation : Comprendre la représentation du temps "la ligne du temps" • Réflexion : qu'est-ce que le temps ; le temps, une vision personnelle ? • La perception du temps. Comment utilisons-nous cette ressource ? • Votre position face au temps. Associée. Dissociée. • L'orientation par rapport au temps. Passé, Présent, Futur. • La subordination au temps. Les influences et les conséquences de votre gestion du temps. Identifier comment l'individu gère son temps • La structure du temps par l'analyse transactionnelle. Les rituels, automatismes. Le retrait. Les passe-temps. • Les jeux psychologiques et le triangle dramatique. • Les méthodes pour sortir des jeux positivement. • Les messages contraignants : les drivers. • Les intentions personnelles. Connaître les principes majeurs de la maîtrise du temps • Connaître les grandes tendances. • Apprendre à les gérer les voleurs de temps. • Gérer les imprévus. Gérer les interruptions. • Savoir dire non. Gérer sa communication. • Optimiser les réunions, déléguer, les temps partagés. Prioriser ses tâches • Mettre en place des objectifs SMART. • Avoir du recul pour définir l'important. • Prendre le temps de la réflexion pour déterminer les urgences. • Utiliser la matrice d'Eisenhower simple. • Utiliser l'outil "checklist structurée": tâches, priorités, échéances et durée. Planifier et définir sa stratégie temps • Connaître les règles d'or : gérer les tâches quotidiennes et les priorités. • Déléguer et contrôler. • Trouver son rythme et se protéger du stress. • Maintenir son énergie : conseils pratiques. • Créer un environnement stimulant. Planifier, organiser, contrôler. • Analyser ses difficultés. Capitaliser sur vos actions.

  • Approches agile pour la conduite de projets

    Objectifs en fin de formation : • Comprendre le principe des projets en mode agile et les différents rôles associés • Identifier les processus et livrables du projet • Utiliser des techniques de communication projet adaptées aux interlocuteurs • Estimer la charge des travaux et planifier en mode Agile • Trier et prioriser les exigences d'une itération Contenu de la formation : Introduction aux méthodes Agiles • Les origines, enjeux et règles de base. • Les rôles sur le projet Agile : sponsor, Project Manager, développeur, testeur... • Identification des enjeux et contraintes d'un projet. Gestion de la configuration. • Les facteurs de succès du projet et les risques. Les processus et leurs livrables • Les principes de l'Agile Project Management. Le framework de développement. • Initialisation du projet. Faisabilité. Business case. Le plan projet. • Gouvernance projet. Management des risques. Lancement du projet : les exigences prioritaires (PRK). • Eléments pour l'architecture (SAD), le développement et le déploiement. • Phase d'exploration : les exigences détaillées. Affiner la solution. • Phase de réalisation : les Timebox de développement. Prototypes de solutions. • Déploiement de la solution. La revue de projet. • Phase après-projet. Analyse des bénéfices. La communication • Principes clés de la communication agile • Adaptation de la communication à la nature du projet et à la maturité de l'équipe. • Les réunions quotidiennes (Daily Stand-up meeting). • Management de l'équipe, des parties prenantes. Priorisation et définition d'une itération • Le tri des exigences. Méthode MoSCoW. • Notion d'itération ou de "Timebox". • Phases d'une itération : étudier, affiner, consolider. Les objectifs et les rôles. • Suivi et contrôle continu du projet et des risques. L'estimation des travaux et la planification Agile • Bonnes pratiques d'estimation de charges. • Estimations collégiales. Réestimations. • Bonnes pratiques de planification Agile. • Les différents niveaux de planification (plan de livraison, déploiement...).

  • Notions comptables et gestion d'entreprises

    Qu'ils soient créateurs d'entreprise, salariés ou indépendant, chaque professionnel est un jour confronté au besoin de comprendre les mécanismes comptables de l'entreprise. Ce cours a ainsi été créé pour répondre à la question : Comment marche une entreprise ? Il est joint au cours d'entreprenariat afin de prendre une dimension pratique et de venir compléter l'approche création de projet avec une dimension financière et comptable. Objectifs de la formation : • Connaître les mécanismes comptables des entreprises • Savoir lire et interpréter les bilans d'une entreprise Contenu de la formation : • Présentation et principes de la comptabilité o La comptabilité d’engagement o La comptabilité de trésorerie o Comprendre le plan comptable • Les états financiers o Le bilan o Le compte de résultat o Le budget o Le suivi budgétaire • Organisation de la comptabilité o Organisation des flux d’entrées et de sorties o Traduction comptable des principaux flux d’achat, de vente, et de trésorerie o Le journal de banque o Le journal d’achat o Le journal de vente o Le journal des opérations diverses • Les états de synthèse o Le bilan o Le compte de résultat o L’annexe o La liasse fiscale • Maîtriser les principaux indicateurs o Les soldes intermédiaires de gestion o L’endettement d’une entreprise o Le tableau de flux de trésorerie o L’analyse des résultats du compte de résultat

  • Entrepreneurship & IT

    L'objectif de ce module est de découvrir les méthodes et les outils pour définir, comprendre, concevoir et communiquer un modèle économique (Business Model) performant. Qu’il s’agisse de la création d’une activité, d’une entreprise, d’un produit ou d’un projet innovant, les méthodes, outils et techniques abordées permettront de mener à bien ce projet. Objectifs : • Acquérir les fondamentaux pour créer ou reprendre une entreprise • Acquérir les compétences pour gérer et développer durablement son entreprise • Partager son expérience avec d'autres futurs entrepreneurs • Savoir mettre en place un business plan Contenu de la formation : • Votre projet de création-reprise d'entreprise - Vous - Vos associés • L'étude de marché • La stratégie marketing, commerciale et de développement • Les moyens humains et matériels • L'étude juridique, fiscale, sociale et patrimoniale • Les prévisions financières et outils de gestion • Les aides à la création et le financement de votre projet • Les formalités à accomplir pour s'installer • Le suivi du développement de votre entreprise

  • Master Class, Mémoires, Soutenances

    Ce module a pour objet de mettre les étudiants directement en prise avec des acteurs des métiers de l'informatique, avec un retour direct des expériences et de l'organisation des entreprises. La partie soutenance a pour but la validation du mémoire de fin de cursus ainsi que la préparation à la soutenance orale, dernière étape de la validation du titre RNCP niveau 7 - Expert en Systèmes d'Information.

  • Hackathon

  • Anglais

    L’objectif de ce module est de permettre aux étudiants d’améliorer leurs compétences en anglais. Objectifs en fin de formation : - Améliorer ses compétences en anglais Contenu de la formation : - Renforcements linguistiques - Ateliers de mise en situation pour développer les compétences

Spécialisation Big Data & BI

  • Concevoir des solutions d'entreprise avec Mongo DB

    Objectifs : • Développer des applications avec MongoDB • Concevoir des modèles de données MongoDB efficaces pour des applications à l'échelle de l'entreprise • Gérer et administrer une installation MongoDB • Mettre en œuvre une architecture mutualisée fiable et sécurisée Programme : • Présentation de MongoDB o Structure de MongoDB o Modéliser les données et leurs schémas • Interactions avec MongoDB o Le shell Mongo o Exécuter des commandes pour administrer et interroger les données o Interagir avec les données stockées o Développement de code client avec Python et Java, l'API MongoDB o Charger, administrer et interroger des données o Explorer les schémas et les types de données • Création de requêtes MongoDB o Mise en œuvre des opérations CRUD (Create, Read, Update, Delete) o Développer un modèle de données o Utiliser les fonctionnalités des bases de données orientées document o Développer des requêtes clé-valeur classiques o Rechercher des données avec les requêtes géospatiales et les requêtes de plages de données • Optimisation des performances o Amélioration des performances des requêtes avec l’indexation o Activer les index dans MongoDB o Analyse de texte o Partitionnement des données et amélioration des performances o Présenter l’architecture des couches de stockage o Définir l’architecture de la réplication • Gestion et administration de MongoDB o Mise en service et déploiement o Configurer le cluster avec l’interface d’administration o Sauvegarde et restauration des données o Répliquer les données sur les différents clusters o Utiliser les outils intégrés

  • Analyse de données, Big Data avec Hadoop, Pig, Hive, Impala

    Objectifs : • Manipuler des ensembles de données complexes stockés dans Hadoop • Automatiser le transfert des données dans le stockage Hadoop avec Flume et Sqoop • Filtrer les données avec les opérations Extract-Transform-Load (ETL) avec Pig • Interroger plusieurs ensembles de données pour une analyse avec Pig et Hive • Partager les données Hadoop entre plusieurs applications avec HCatalog Programme : • L'écosystème Hadoop o Analyser les composants Hadoop o Définir une architecture Hadoop o HDFS • MapReduce o Détailler l'approche MapReduce o Transférer les algorithmes et non les données o Décomposer les étapes d'une tâche MapReduce • Automatiser le transfert des données o Entrées / Sorties et agrégation de données o Déplacer les données relationnelles avec Sqoop • Exécuter les flux de données avec Pig o Cas d'utilisation avec Pig • Structurer les données non structurées o Représenter les données dans le modèle de données de Pig o Exécuter les commandes Pig Latin au Grunt Shell o Exprimer les transformations dans la syntaxe Pig Latin o Appeler les fonctions de chargement et de stockage • Mise en place d'ETL avec Pig o Transformer les données avec les opérateurs relationnels o Créer des nouvelles relations avec des jointures o Réduire la taille des données par échantillonnage o Exploiter Pig et les fonctions définies par l'utilisateur o Filtrer les données avec Pig • Manipulation de données avec Hive o Exploiter les avantages métier de Hive o Factoriser Hive en composants o Imposer la structure sur les données avec Hive o Créer des bases de données et des tables Hive o Exposer les différences entre les types de données dans Hive • Interagir avec les données Hadoop en temps réel o Traitement parallèle avec Impala o Décomposer les composants fondamentaux d'Impala o Soumettre des requêtes à Impala o Accéder aux données Hive à partir d'Impala

  • Administration de Hadoop pour solutions Big Data, Kafka, Ranger

    Objectifs : • Créer l'architecture d'une solution Hadoop • Installer et configurer un cluster Hadoop Programme : • Stockage et traitement des données o Installation du système de fichiers distribué Hadoop (HDFS) o Configurer et installer le système de fichiers o Exécuter des commandes depuis la consol o Préparer l'environnement pour MapReduce o Les services associés • Définition des spécifications d'un cluster Hadoop o Planification de l'architecture, considérations matérielles o Installation des services Hadoop o Architecture réseau • Configuration du cluster o Préparation du système HDFS o Paramétrer les principales options de configuration o Configurer les redondance, réplication et affectation des blocs o Déploiement de MapReduce • Optimiser HDFS o Créer un système de fichiers tolérant aux pannes o Isoler les éléments dysfonctionnels o Garantir la haute disponibilité o Déclencher le basculement o Optimiser la fédération des nœuds de nommage o Développer des ressources HDFS o Gérer les volumes des espaces de noms o Introduction à YARN • Gestion des ressources et de l'intégrité du cluster o Affectation des ressources o Définir des quotas pour limiter l'utilisation du système HDFS o Planificateurs pour hiérarchiser l'accès à MapReduce o Gestion de HDFS o Administration des sercices o Gestion des nœuds o Administration de MapReduce • Maintenance du cluster o Utiliser les outils standards intégrés o Gérer et déboguer les processus avec les mesures JVM o Vérifier l'état d'Hadoop o Utiliser des outils de personnalisation complémentaires o Évaluer les performances avec Ganglia et Chukwa o Benchmarking pour garantir des performances continues • Planification des stratégies de sauvegarde, de récupération et de sécurité o Gérer les pannes matérielles courantes o Sécuriser le cluster Hadoop

  • Analyse de données - Big Data, introduction à la Datascience, R et Hadoop

    Objectifs : • Créer l'architecture d'une solution Hadoop • Installer et configurer un cluster Hadoop Programme : • Stockage et traitement des données o Installation du système de fichiers distribué Hadoop (HDFS) o Configurer et installer le système de fichiers o Exécuter des commandes depuis la consol o Préparer l'environnement pour MapReduce o Les services associés • Définition des spécifications d'un cluster Hadoop o Planification de l'architecture, considérations matérielles o Installation des services Hadoop o Architecture réseau • Configuration du cluster o Préparation du système HDFS o Paramétrer les principales options de configuration o Configurer les redondance, réplication et affectation des blocs o Déploiement de MapReduce • Optimiser HDFS o Créer un système de fichiers tolérant aux pannes o Isoler les éléments dysfonctionnels o Garantir la haute disponibilité o Déclencher le basculement o Optimiser la fédération des nœuds de nommage o Développer des ressources HDFS o Gérer les volumes des espaces de noms o Introduction à YARN • Gestion des ressources et de l'intégrité du cluster o Affectation des ressources o Définir des quotas pour limiter l'utilisation du système HDFS o Planificateurs pour hiérarchiser l'accès à MapReduce o Gestion de HDFS o Administration des sercices o Gestion des nœuds o Administration de MapReduce • Maintenance du cluster o Utiliser les outils standards intégrés o Gérer et déboguer les processus avec les mesures JVM o Vérifier l'état d'Hadoop o Utiliser des outils de personnalisation complémentaires o Évaluer les performances avec Ganglia et Chukwa o Benchmarking pour garantir des performances continues • Planification des stratégies de sauvegarde, de récupération et de sécurité o Gérer les pannes matérielles courantes o Sécuriser le cluster Hadoop

  • Outils de visualisation pour l'analyse décisionnelle

    Objectifs : • Créer des visualisations interactives pour analyser les données métier • Analyser vos données pour prendre des décisions éclairées • Intégrer des données provenant de sources diverses • Cartographier les données géographiques avec Tableau • Partager un scénario avec des tableaux de bord pour mettre en évidence les résultats de l'analyse Programme : • Présentation de Tableau o Analyse visuelle o Évaluer l'impact du Big Data sur la visualisation o Gérer des ensembles de données volumineux o Présenter des visualisations aux analystes et aux utilisateurs de solutions métier o Explorer Tableau o Utiliser les composants de l'interface de Tableau o Différencier les mesures et les dimensions o Générer des visualisations simples • Visualisation des données au service de l'analyse décisionnelle o Accéder à une seule source de données o Extraire des données d'Excel et de fichiers texte o Récupérer des données de Microsoft Access o Manipuler les vues et les repères (marks) o Afficher différentes vues pour trouver une valeur o Classer les données par catégorie avec les repères o Afficher les données sous forme graphique o Créer un histogramme o Appliquer des filtres pour réduire le volume des données o Trier les données o Organiser les données par groupes • Chargement des données dans Tableau o Modifier le schéma des données de Tableau o Déclarer des types de variables o Ajouter des alias dans les en-têtes de colonne o Résoudre les problèmes avec Data Interpreter o Connexions directes vs. extraits o Importer des données provenant de différentes sources o Lire les données Excel et les fichiers texte o Intégrer un tableau Microsoft Access o Joindre des bases de données o Connexion à une base de données d'entreprise o Sélectionner les données d'une base relationnelle o Utiliser des ensembles Big Data o Décomposer les données dans des cubes o Combiner les données avec les jointures et les fusions o Joindre différents types de tables o Intégrer différentes sources en fusionnant les données • Création de visualisations avancées o Techniques de visualisation o Tableaux à double entrée et tableaux croisés dynamiques o Hiérarchies et analyses détaillées o Définir des ensembles et des sous-ensembles o Décomposer la vue en pages o Appliquer des paramètres o Décomposer une vue avec des filtres o Choisir les données avec un sélecteur o Créer des graphiques avec des fonctions avancées o Examiner les modèles de graphiques disponibles o Utiliser des graphiques combinés o Utiliser les tendances et déplacer les moyennes • Fonctions de calcul dans les tableaux o Champs calculés o Ajouter une formule de calcul pour améliorer les données o Identifier les différents types de calculs o Calculs dans les tableaux o Faire des calculs rapides o Modifier les calculs pour affiner les vues de données • Représenter les données géographiques sur une carte • Cartographier les données géographiques o Tracer la latitude et la longitude o Ajouter des points manuellement o Choix du type de carte o Classer avec le symbole de la carte et de la carte remplie o Personnaliser les régions avec des polygones • Présentation des analyses o Création de tableaux de bord o Composer des tableaux de bord à partir des vues o Joindre les vues pour créer des interactions o Déployer un scénario o Illustrer les résultats à l'aide d'un scénario o Illustrer les points importants des scénarios dans des tableaux de bord • Diffuser vos visualisations o Accéder à une seule source de données o Partager vos classeurs o Publier vos données dans le cloud o Déployer vos classeurs dans Tableau Server o Administrer le serveur

  • Calculs distribués, Apache, Sparks, Scala

    Objectifs : • Développer des applications avec Spark • Utiliser les bibliothèques pour SQL, les flux de données et l'apprentissage automatique • Retranscrire des difficultés rencontrées sur le terrain dans des algorithmes parallèles • Développer des applications métier qui s'intègrent à Spark Programme : • Présentation de Spark • Exécution des programmes en parallèle o Applications évolutives o Développer les modèles de traitement en parallèle traditionnels o Créer des algorithmes parallèles o Utiliser la programmation fonctionnelle pour l'exécution des programmes en parallèles • Définir l'architecture de Spark o Structures de données parallèles o Répartir les données dans le cluster avec les RDD (Resilient Distributed Datasets) et les DataFrames o Répartir l'exécution des tâches entre plusieurs nœuds o Lancer les applications avec le modèle d'exécution de Spark o Structure des clusters Spark o Créer des clusters résilients et résistants aux pannes o Mettre en place un système de stockage distribué évolutif o Gestion du cluster o Surveillance et administration des applications Spark o Afficher les plans d'exécution et les résultats • Développement d'applications Spark o Choisir l'environnement de développement o Réaliser une analyse exploratoire avec le shell Spark o Créer des applications Spark autonomes o Utiliser les API Spark o Programmation avec Scala et d'autres langages compatibles o Créer des applications avec les API de base o Enrichir les applications avec les bibliothèques intégrées • Manipulation des données structurées avec Spark SQL o Interroger des données structurées o Traiter les requêtes avec les DataFrames et le code SQL embarqué o Développer SQL avec les fonctions définies par l'utilisateur (UDF) o Utiliser les ensembles de données aux formats JSON et Parquet o Intégration à des systèmes externes o Connexion aux bases de données avec JDBC o Lancer des requêtes Hive sur des applications externes • Traiter les flux de données dans Spark o Utiliser des fenêtres glissantes o Déterminer l'état d'un flux de données continu o Traiter des flux de données simultanés o Améliorer les performances et la fiabilité o Traiter les flux des sources de données o Traiter les flux des sources intégrées (fichiers journaux, sockets Twitter, Kinesis, Kafka) o Développer des récepteurs personnalisés o Traiter les données avec l'API Streaming et Spark SQL • Spark et l'apprentissage automatique o Classer les observations o Prévoir les résultats avec l'apprentissage supervisé o Créer un élément de classification pour l'arbre de décision o Identifier les schémas récurrents o Regrouper les données avec l'apprentissage non supervisé o Créer un cluster avec la méthode k-means

  • Indexation de données et recherche, Mongo DB, Elastic search, Logstach, Kibana

    Objectifs : • Comprendre le fonctionnement d'Elasticsearch, logstash et Kibana • Evaluer les possibilités offertes par Elasticsearch, logstash et Kibana • Installer et configurer Elasticsearch • Administrer et surveiller un cluster Elasticsearch Programme : • Installation et utilisation d'Elasticsearch, logstash et Kibana o Prérequis et types d'installations. o Configuration et mise en oeuvre. • Fonctionnement d'Elasticsearch o Présentation d'Apache Lucene. o Architecture as a Cloud et concepts clés (cluster, node, etc.). o Le format JSON. L'API REST. o Scoring et pertinence des requêtes. o Recherches simples. o Stockage de données. o Le rôle de logstash et de Kibana. • Possibilités offertes par Elasticsearch logstash et Kibana o Traitement de gros volumes de requêtes et d'indexation. o Indexation et recherches sur les documents et des données. o Analyse de documents et de données. o Calcul des listes de réponses. o Filtrage et tri des résultats. • Configuration de la recherche et de l'indexation o Gros volumes de requêtes et d'indexation. o L'indexation des données. o Les requêtes de recherche. o Les recherches avancées. • Configuration et administration du cluster o Configuration du cluster Elasticsearch. o Préparation du cluster Elasticsearch pour le traitement des gros volumes. o Configuration des nodes. o Administration du cluster Elasticsearch. • Administration du cluster o Surveillance du cluster. o La répartition de charge. o L'allocation des nodes. o Les plug-ins Elasticsearch.

  • Intelligence Opérationnelle, Splunk sur AWS

    Objectifs : • Mettre en pratique les compétences acquises pendant les modules de Data Science Programme : • Cas d’étude de valorisation de données

  • Business Intelligence méta modèle, BICC

    Objectifs : • Mettre en œuvre les éléments clés d'un programme d'informatique décisionnelle (BI) efficace • Appliquer un méta modèle BI qui transforme les résultats en actions • Extraire et transformer les données d'une base de données opérationnelle vers un entrepôt de données • Organiser un BICC Programme : • Définir l'informatique décisionnelle (BI) o Éléments d'un programme BI o Élaborer le processus d'informatique décisionnelle o Effectuer le cas d'affaire pour l'informatique décisionnelle o Identifier les barrières à la mise en œuvre de la BI • Créer une feuille de route de BI o Évaluer les niveaux de maturité de BI o Business Analysis et feuille de route BI o Spécifier le résultat souhaité pour une situation donnée o Surmonter les difficultés courantes de la BI • Revoir l'infrastructure technique o Permettre et faciliter les technologies pour la BI o Comprendre ses données o Données structurées vs données déstructurées o Identifier les attributs essentiels et variables • Établir un référentiel de gouvernance des données o S'aligner sur les normes et les stratégies de management o Protéger ses données o Mesure la qualité des données o Intégrer l'architecture d'entreprise et la BI • Concevoir et planifier des processus de BI o Créer sa stratégie de BI o Évaluer les avantages métier d'une situation organisationnelle stratégique vs tactique o Commencer la BI avec les processus axés sur les résultats o Exprimer des résultats bien construits • Traiter les données o Analyse Top-Down vs Bottom-Up o Établir une mesure de la qualité des données o Concevoir des métadonnées métier normalisées o Nettoyer les données • Développer l'entrepôt de données o Sélectionner les données source o OLAP vs OLTP o Extraire les données de sources multiples o Charger les données dans un entrepôt de données • Modéliser le processus métier dimensionnel o Parcourir ses données o Créer le schéma adéquat o Sélectionner les dimensions et traverser les hiérarchies • Mettre en œuvre et affiner les solutions de BI o Évaluation des outils de BI o Sélectionner les critères des outils de BI o Explorer les outils de traitement analytiques en ligne o Découpage de vos données à l'aide de cubes multidimensionnels o Examiner les caractéristiques de l'exploration des données o Revue des outils d'exploration des données • Utilisation des outils de mesure de performance o Afficher les informations en utilisant des tableaux de bord numériques (restitution sur différents devices : laptop, iPad,…) o Définir des indicateurs clés de performance (KPI) efficaces o Communiquer avec les parties prenantes à travers les cartes de performance (scorecards) • Travailler avec la BI o Appliquer le processus BI dans toute l'entreprise o Incorporer les processus BI dans les activités quotidiennes de gestion o Analyses prévisionnelles pour vos résultats financiers

  • Data Mining, Synthèse, scoring, géomarketing

    Objectifs : • Comprendre les principes et la finalité du Data Mining (DM) • Identifier les principales techniques du DM et leur cas d'utilisation • Connaitre les principales étapes d'un projet Data Mining Programme : • Le Système d'Information Décisionnel (SID) o Les enjeux du SID : besoins, domaines d'application. o Architecture type d'un SID, état de l'art. o Elaboration des informations décisionnelles. o Conception d'un SID : étapes, optimisation, organisation des données, dictionnaires. • Comprendre le Data Mining (DM) o Définition et finalité du Data Mining (DM). o Quel lien entre le Data Mining, les statistiques et l'informatique • Les techniques du Data Mining o Les différentes familles du DM. o Les méthodes prédictives et les méthodes descriptives. o Analyse factorielle, typologique. La classification... o Les arbres de décisions, les réseaux de neurones... o Classification des techniques de DM. • La méthode descriptive du Clustering o Définition et méthodologie. o Les critères pour structurer les données à classer. o Evaluation et validation des classes obtenues. o Les différentes sous-familles du Clustering. • Les données de l'entreprise o Rappel de la problématique des données du SI. o Qualité des données et administration des données. o Processus de collecte et d'exploration. o Création d'agrégats et de nouvelles données. o Transformation des données. • Méthodologie de projet Data Mining o Définition du problème métier à résoudre et des objectifs à atteindre. o Inventorier, décrire et classer les données. o Concevoir et alimenter la base Data Mining. o Explorer, segmenter des entités analysées. o Etablir et appliquer les modèles d'analyse. o Itérer, déployer auprès des utilisateurs. o Maintenir le modèle et le logiciel associé.

  • Statistiques et probabilités adaptées au Big Data

    Objectifs : • Comprendre le vocabulaire des statisticiens et effectuer les calculs récurrents (moyennes, écart type, variance, etc.). • Maitriser les bases des probabilités pour situer la frontière entre les statistiques et les probabilités Programme : Le vocabulaire de base • Qu’est-ce qu’un échantillon ? • Les différentes méthodes d’échantillonnage • Population et individus • Fréquence et Effectif • Distribution ou répartition • Vocabulaire pour les variables (qualitatives, quantitatives, discrètes, continues) • Fréquence, dispersion, etc. Calcul fondamental en statistique descriptive • Les indicateurs de tendance (moyenne, médiane) • Les indicateurs de dispersion (variance, écart-type) • Les quantiles Probabilités • Un petit mot sur les probabilités • Différences entre arrangements et combinaisons • Exemples de calculs simples de probabilités (probabilité de gagner au loto, de gagner 10 fois de suite à pile ou face, etc.) Tests et intervalles de confiance • Lois statistiques et intervalle de confiance Savoir estimer des résultats à partir d'un échantillon (enquête, contrôle ponctuel) Savoir calculer des intervalles de confiance simples Pourquoi parle-t-on de loi « normale » ? Rechercher le lien entre deux phénomènes : la corrélation Prévoir de nouvelles valeurs grâce à la régression simple Le Test de Student L’analyse de variance La loi du X2 Visualisation des données • Tour d’horizon des formats de base (histogramme, barres, nuage, etc.) • Quel format pour quel besoin ? • Les outils généralistes des statisticiens • Outils spécifiques (cartes, nuages de mots, etc.) • Mettre en scène ses résultats (timelines) • Intégration des schémas dans une page Web L’évolution des statistiques pour le Big Data • L’approche statistique ou l’approche « Machine Learning » • Le vertige des grandes dimensions • Présentation des grandes méthodes (lasso, noyaux, forêts aléatoires, réseaux de neurones)

Cursus métier Retail

  • Lean Management

  • Stratégies e-business des places de marchés

  • Transformation du parcours client

Statisques & Indicateurs