SlideShare ist ein Scribd-Unternehmen logo
1 von 19
Downloaden Sie, um offline zu lesen
Année Universitaire :2019-2020
ETUDE DE CAS BI
REALISATION DE CUBE AVEC DES
DONNEES DE VENTE D’UNE
ENTREPRISE COMMERCIAL
CHAMOUR Walid
ENCG d’Agadir
1ère années MS-Management des systèmes d’informations
Table des matières
Problématiques :............................................................................................................................................2
Objectif de projet : ........................................................................................................................................2
Préparation des données :..............................................................................................................................3
Source des données...................................................................................................................................3
DE SQL Server vers MySQL....................................................................................................................4
 Les étapes à suivre : ......................................................................................................................4
Conception du data Warehouse : ..................................................................................................................9
Les axes d’analyse : ..................................................................................................................................9
 Les mesures :...............................................................................................................................10
 La table des faits : .......................................................................................................................10
 Les dimensions : .........................................................................................................................11
Schéma en étoile de projet :....................................................................................................................11
Création des tables de faits et de dimension : .........................................................................................12
 Création de l’entrepôt de données :.............................................................................................12
 Création d’une table de faits : .....................................................................................................12
Processus ETL : ..................................................................................................................................13
Dimension Client ....................................................................................................................................13
Dimension Employé................................................................................................................................13
Dimension Produit ..................................................................................................................................14
 Le format de la dimension produit :............................................................................................14
Table Fait_CA :.......................................................................................................................................15
 Le format de la table fait_ca : .....................................................................................................16
Réalisation du cube dans Pentaho Schema WorckBench : .........................................................................16
Références...................................................................................................................................................18
Problématiques :
La plupart du temps, le service ne manquent pas de données pour améliorer leurs tactiques de la
section vente. Ce qui fait plutôt défaut, c'est une utilisation efficace de ces données dans le but
d'en faire ressortir de l’information exploitable (actionnable information). Une trop grande
diversité de sources de données qui ne communiquent pas ensemble. Dans un pareil contexte, la
plus simple des opérations d’analyse devient une tâche ardue. En effet, le service de vente se
trouvent dans l’incapacité de faire des analyses fiables, efficaces et à des moments opportuns
sans engager des moyens considérables sur des périodes plus ou moins longues.
Ainsi, les principales difficultés rencontrées peuvent être résumées en :
• Difficultés dans l’élaboration des rapports d’activité.
• Difficultés dans l’élaboration des rapports d’activité.
• Cout de la procédure de reporting.
Objectif de projet :
Afin de pallier aux problèmes précédemment cités, le groupe a initié, le présent projet. Ce projet
a pour but de réaliser un système d’informations décisionnel, tout en conférant aux décideurs un
support fiable pour une meilleure prise de décision. Ainsi, les principaux objectifs assignés au
projet sont :
 La réduction de la durée globale de l’élaboration des rapports, en essayant de ramener
cette durée, au moins, en dessous de la barre des 48 heures.
 La Réduction des coûts de la procédure de Reporting actuelle.
 La réduction du nombre d’intervenants lors de la production de rapports.
 Offrir aux décideurs et aux analystes la possibilité de faire des analyses appropriées.
 Offrir des informations fiables, cohérentes et pertinentes, contenant la logique business
souhaités.
Préparation des données :
Source des données
Afin d’alimenter l’entrepôt, les informations doivent être identifiées et extraites de leurs
emplacements originels. Il s’agit des sources de données hétérogènes qui peuvent comporter des
données internes à l’entreprise, stockées dans les bases de données de production des différents
services. Elles peuvent être aussi des sources externes, récupérées via des services distants et des
web services ou des sources qui peuvent être sous format de fichiers plats. Les données
provenant des différentes sources doivent être intégrées avant leur stockage dans l’entrepôt de
données. Un nettoyage préalable des données est nécessaire afin d’avoir une cohérence et une
normalisation de l’information. Après une étude globale sur la base de données de l’entreprise
qui sont attachées par le temps, nous avons collecter les données de différentes sources de
chaque année dans une seule base de données dans Access et puis nous avons fait notre analyse
demandée par l’entreprise
Le schéma relationnel ci-dessous présente Les sources de données générer par le service ce sont
des données formats SQL :
DE SQL Server vers MySQL
Afin d’alimenter l’entrepôt aves Pentaho Data Integration (PDI) il faut que la base de données de
système de production soit de type MySQL afin d'éviter quelque errors en plus le PDI est tout à
fait compatible avec la base de données MySQL.
Pour convertir une base de données SQL à une base de données MySQL il faut utilise MySQL
WorckBench.
 Les étapes à suivre :
1. Aller au menu vertical à gauche et cliquez sur migration wizard (cercle rouge)
2. La fenêtre ci-dessus s’affiche, cliquez sur Open ODBC Administrator pour configurer
votre Data source
3. Puis cliquez sur add pour ajouter un nouveau data source
4. Sélectionner driver avec lequel vous souhaite pour configurer votre data source (SQL
Server) puis cliquez sur finish
5. Donner un nom à votre data source et cliquez sur finish
6. Après que vous configurez votre data source vous retournez automatiquement à la
fenêtre de début alors cliquez sur start migration pour lancer votre migration
7. Choisissez le type de base de données que vous voulez migrer et cliquez sur Next,
Vous pouvez testes si la connexion est réussite, cliquez sur test connection (cercle
verte)
8. Dans le cas de la réussite de connexion
9. Configurez votre base de données destinataire et cliquez sur Next
10. Choisissez la base de données que vous voulez émigrer et cliquez sur Next
11. Pour les étapes il vous restent de cliquer sur Next
Conception du data Warehouse :
Nous allons aborder dans cette partie le cadrage du projet sur le plan fonctionnel. Ce cadrage
traduit les besoins présentés précédemment en termes d’axes d’analyse et d’indicateurs. Ces
éléments détermineront la conception du data Warehouse.
Les axes d’analyse :
L’amélioration continue des services matériels exige pour chaque processus un plan de suivi.
Afin de contrôler l’efficacité et l’efficience du processus en question, des mesures spécifiques,
mesurables, réalisables et réalistes sont pris en compte.
Le tableau suivant illustre les axes d’analyse :
 Les mesures :
Il existe deux mesures :CA (Chiffre d’affaire) et quantité :
• CA=Prix*Quantité
 La table des faits :
La table des faits est la table « Fait CA » cette table contient les mesures et les clés primaires des
tables de dimensions sa structure est la suivante :
Axe d’analyse Description Hiérarchie
Employé Désigne les employés responsables des
ventes des produits suivants les noms des
employés et leurs fonctions les adresses
(ville) de chaque employé.
Code employé -> Nom
employé-> fonction>ville
Produit Permet une analyse des indicateurs
de produit suivant le type de produit
concerné le prix des produits.
Code produit-> Nom
Produit-> Type de produit
->Fournisseur
Client Désigne les clients qui font des achats
des produits suivants les noms des clients
et les adresses (ville) de chaque client.
Code Client -> Nom
Client->Adresse
Client
 Les dimensions :
Il existe 3 dimensions :
• Produit : les produits qui sont traiter par la section Achat, sa structure est la suivante :
• Client : les clients concernant l’entreprise pour cerner leurs besoins :
• Employé : les employés de l’entreprise et de service de vente
Schéma en étoile de projet :
Durant la modélisation du data Warehouse, il est nécessaire de choisir le modèle le plus adéquat.
Les structures de données les plus utilisées sont les schémas en étoile et les schémas en flocon de
neige. Suivant l’analyse faite précédemment, nous remarquons que les indicateurs sont analysés
selon les mêmes axes de dimensions. Donc le modèle proposé sera un modèle en étoile contient
une table de fait et de quatre tables de dimensions. La table de fait correspond à un indicateur et
chaque dimension correspond à un axe d’analyse. Techniquement, la table de fait référence les
tables de dimensions qui lui sont liées par des clés étrangères. Ci-dessous, le modèle proposé :
Création des tables de faits et de dimension :
 Création de l’entrepôt de données :
Nous allons commencer par créer l’entrepôt de données. Nous appellerons la base de données :
Sam_OLAP on va utiliser l’outil PhpMyAdmin pour la création de cette base de données.
 Création d’une table de faits :
Notre table de faits sera construite en deux étapes :
• La première étape détaille les liaisons avec les tables de dimension :
• La deuxième étape détaille les mesures de table fait :
► Quantity = Quantité
► Price = Chiffre d’affaire
 Création des tables de type dimension :
Nous allons donc dans cette partie de créer les tables de type dimension suivantes :
● dim_prod, pour la dimension produit
● dim_clt, pour la dimension client
● dim_emp, pour la dimension employé
Processus ETL :
La réalisation de notre plateforme décisionnelle commence par l’alimentation du data warehouse.
Grâce au composant Pentaho Data Intagration de la solution Pentaho. Cette solution nous permet
de rassembler les sources de données hétérogènes dans une seule base de données.
Les données auront subi un ensemble de transformations, de nettoyages et d’agrégations avant
d’être chargées définitivement dans le datawarehouse.
❖ La phase E signifie qu’une tâche va se connecter à une source, pour en Extraire des lignes
de données.
❖ La phase T signifie que ces lignes vont passer par des tâches de Transformation pour
subir des tests, des validations ou des modifications.
❖ La phase L signifie que ces lignes, une fois traitées et transformées, vont être chargées
(Load en anglais) dans la base de données destination.
Dimension Client
▪ Table_Clt : extraire la table client.
▪ Select values Clt : choisir les camps à conserver pour la dimension client.
▪ Dim_Clt : chargement de dimension client dans l’entrepôt de données.
Dimension Employé
▪ Table_Emp : extraire la table employée.
▪ Select values Emp : choisir les camps à conserver pour la dimension employée.
▪ Dim_Clt : chargement de dimension employé dans l’entrepôt de données.
Dimension Produit
▪ Table input : extraire les données des fournisseurs.
▪ Table_Prod : extraire la table produit
▪ Table_Cat : extraire la table catégorie
▪ Sort rows Supplier : faire un tri ascendant des lignes.
▪ Sort rows Prod : faire un tri ascendant des lignes
▪ Sort rows Cat : faire un tri ascendant des lignes
▪ Join Prod_Cat : faire la jointure entre la table produit et la table catégorie pour récupérer
la catégorie de chaque produit.
▪ Sort rows Prod : faire un tri ascendant des lignes du résultat de la jointure (Join
Prod_Cat).
▪ Join Cmd_DetCmd 2 : jointure entre la table fournisseur et le résultat de la jointure (Join
Prod_Cat) pour récupérer le nom de fournisseur.
▪ Sort_rows Cat_Prod : faire un tri ascendant des lignes du résultat de la jointure (Join
Cmd_DetCmd 2 ).
▪ Select values Cat_Prod : choisir les camps à conserver pour la dimension produit.
▪ Dim_Clt : chargement de dimension produit dans l’entrepôt de données.
 Le format de la dimension produit :
▪ ProductID : Produit ID
▪ ProductName : Désignation de produit
▪ CategorieName : Catégorie de produit.
▪ CompanyName : Fournisseur de produit
▪ Pa : Prix d’achat
▪ Pv : Prix de vente
Table Fait_CA :
▪ Table_Cmd : extraire de la table commande
▪ Table_DetCmd : extraire de la table detailcommande
▪ Sort rows Cmd : faire un tri ascendant des lignes de commande
▪ Sort rows DetCmd : faire un tri ascendant des lignes de detailcommande
▪ Join Cmd_DetCmd : faire la jointure entre la table commande et la table detailcommande
en fonction de OrderId (N° Commande/clé primaire)
▪ Sort Cmd_DetCmd : faire un tri ascendant des lignes du résultat de la jointure (Join
Cmd_DetCmd)
▪ Merge join 2 : faire la jointure entre le résultat de la jointure (Join Cmd_DetCmd) et la
table produit pour récupérer PV (Prix de vente) afin de calculer le chiffre d’affaire
(Prix*Quantité)
▪ Calculator : créer le champ mesure appelé Price T(chiffre d’affaire= Prix*Quantité).
▪ Select values Cat_Prod : choisir les camps à conserver pour la table fait.
▪ Sort Cmd_DetCmd : faire un tri ascendant des lignes avant de les charger.
▪ Fait_CA : chargement de table fait_ca dans l’entrepôt de données.
 Le format de la table fait_ca :
▪ OrderID: ID de commande
▪ CustomerID: ID de client
▪ EmployerID: ID de l’employé
▪ ProductID: ID de produit
▪ Quantity:Quantité achetés de chaque produit
▪ Price T : le prix total de chaque achat de chaque produit
Réalisation du cube dans Pentaho Schema WorckBench :
Dans la partie précédente nous avons créer l’entrepôt de données en utilisant ETL, dans cette
partie nous allons nous atteler à rendre l’information contenue dans l’entrepôt de donnée de
manière simple, présentable et rapide cela signifie que l’utilisateur accède à l’information ne
doit pas voir la complexité du traitement de l’information càd qu’un utilisateur qui accède à des
informations mises à disposition, doit avoir un temps d’attente de l’ordre de la seconde. Donc
nous avons créé un nouveau cube qui peut nous aider à répondre à ces critères.
Références
Guide to Database Migration from Microsoft SQL Server using MySQL Workbench
https://mysqlworkbench.org/2012/07/migrating-from-ms-sql-
server-to-mysql-using-workbench-migration-wizard/

Weitere ähnliche Inhalte

Was ist angesagt?

Créer des applications Java avec MongoDB
Créer des applications Java avec MongoDBCréer des applications Java avec MongoDB
Créer des applications Java avec MongoDBMongoDB
 
BigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big DataBigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big DataLilia Sfaxi
 
Les Base de Données NOSQL
Les Base de Données NOSQLLes Base de Données NOSQL
Les Base de Données NOSQLkamar MEDDAH
 
Gestion d’une agence de voyage routière (Blondel Seumo)
Gestion d’une  agence  de  voyage  routière (Blondel Seumo)Gestion d’une  agence  de  voyage  routière (Blondel Seumo)
Gestion d’une agence de voyage routière (Blondel Seumo)Gantner Technologies
 
Chp3 - Modélisation Multidimensionnelle
Chp3 - Modélisation MultidimensionnelleChp3 - Modélisation Multidimensionnelle
Chp3 - Modélisation MultidimensionnelleLilia Sfaxi
 
Cours Big Data Chap5
Cours Big Data Chap5Cours Big Data Chap5
Cours Big Data Chap5Amal Abid
 
Conception et Réalisation d'un Data Warehouse
Conception et Réalisation d'un Data WarehouseConception et Réalisation d'un Data Warehouse
Conception et Réalisation d'un Data WarehouseAbderrahmane Filali
 
Data mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionData mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionMohamed Heny SELMI
 
BigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceBigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceLilia Sfaxi
 
Conception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIREConception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIREGhizlane ALOZADE
 
diagramme de séquence UML
diagramme de séquence UMLdiagramme de séquence UML
diagramme de séquence UMLAmir Souissi
 
Rapport PFE Application Web Mobiles belwafi bilel
Rapport PFE Application Web Mobiles belwafi bilelRapport PFE Application Web Mobiles belwafi bilel
Rapport PFE Application Web Mobiles belwafi bilelBelwafi Bilel
 
Présentation Talend Open Studio
Présentation Talend Open StudioPrésentation Talend Open Studio
Présentation Talend Open Studiohoracio lassey
 
Introduction à la big data v3
Introduction à la big data v3 Introduction à la big data v3
Introduction à la big data v3 Mehdi TAZI
 
TD3-UML-Correction
TD3-UML-CorrectionTD3-UML-Correction
TD3-UML-CorrectionLilia Sfaxi
 
Integration de donnees_etl
Integration de donnees_etlIntegration de donnees_etl
Integration de donnees_etlhoracio lassey
 

Was ist angesagt? (20)

PL/SQL:les curseurs
PL/SQL:les curseursPL/SQL:les curseurs
PL/SQL:les curseurs
 
Créer des applications Java avec MongoDB
Créer des applications Java avec MongoDBCréer des applications Java avec MongoDB
Créer des applications Java avec MongoDB
 
Data mining - Associativité
Data mining - AssociativitéData mining - Associativité
Data mining - Associativité
 
BigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big DataBigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big Data
 
Les Base de Données NOSQL
Les Base de Données NOSQLLes Base de Données NOSQL
Les Base de Données NOSQL
 
Gestion d’une agence de voyage routière (Blondel Seumo)
Gestion d’une  agence  de  voyage  routière (Blondel Seumo)Gestion d’une  agence  de  voyage  routière (Blondel Seumo)
Gestion d’une agence de voyage routière (Blondel Seumo)
 
Chp3 - Modélisation Multidimensionnelle
Chp3 - Modélisation MultidimensionnelleChp3 - Modélisation Multidimensionnelle
Chp3 - Modélisation Multidimensionnelle
 
Cours Big Data Chap5
Cours Big Data Chap5Cours Big Data Chap5
Cours Big Data Chap5
 
Conception et Réalisation d'un Data Warehouse
Conception et Réalisation d'un Data WarehouseConception et Réalisation d'un Data Warehouse
Conception et Réalisation d'un Data Warehouse
 
Data mining - Classification - arbres de décision
Data mining - Classification - arbres de décisionData mining - Classification - arbres de décision
Data mining - Classification - arbres de décision
 
BigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-ReduceBigData_Chp2: Hadoop & Map-Reduce
BigData_Chp2: Hadoop & Map-Reduce
 
Conception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIREConception et Réalisation d’une application de Gestion SCOLAIRE
Conception et Réalisation d’une application de Gestion SCOLAIRE
 
Les BD NoSQL
Les BD NoSQLLes BD NoSQL
Les BD NoSQL
 
Les étapes clés d'un projet web
Les étapes clés d'un projet webLes étapes clés d'un projet web
Les étapes clés d'un projet web
 
diagramme de séquence UML
diagramme de séquence UMLdiagramme de séquence UML
diagramme de séquence UML
 
Rapport PFE Application Web Mobiles belwafi bilel
Rapport PFE Application Web Mobiles belwafi bilelRapport PFE Application Web Mobiles belwafi bilel
Rapport PFE Application Web Mobiles belwafi bilel
 
Présentation Talend Open Studio
Présentation Talend Open StudioPrésentation Talend Open Studio
Présentation Talend Open Studio
 
Introduction à la big data v3
Introduction à la big data v3 Introduction à la big data v3
Introduction à la big data v3
 
TD3-UML-Correction
TD3-UML-CorrectionTD3-UML-Correction
TD3-UML-Correction
 
Integration de donnees_etl
Integration de donnees_etlIntegration de donnees_etl
Integration de donnees_etl
 

Ähnlich wie Business Intelligence

Le tableaudebord 2eversion
Le tableaudebord 2eversionLe tableaudebord 2eversion
Le tableaudebord 2eversionRafik1984
 
PMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affaires
PMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affairesPMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affaires
PMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affairesPMI Lévis-Québec
 
Mergers and acquisitions screen
Mergers and acquisitions screenMergers and acquisitions screen
Mergers and acquisitions screenGdemichael
 
Business Intelligence au coeur de la décision
Business Intelligence au coeur de la décision Business Intelligence au coeur de la décision
Business Intelligence au coeur de la décision Amal Brioual
 
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2CERTyou Formation
 
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2CERTyou Formation
 
Comarch smart analytics
Comarch smart analytics Comarch smart analytics
Comarch smart analytics Comarch France
 
Tableau de bord
Tableau de bordTableau de bord
Tableau de bordMa Ac
 
ATMTL23 - Le Developer Experience au service de la livraison en continu par A...
ATMTL23 - Le Developer Experience au service de la livraison en continu par A...ATMTL23 - Le Developer Experience au service de la livraison en continu par A...
ATMTL23 - Le Developer Experience au service de la livraison en continu par A...Agile Montréal
 
Séminaire IDS Scheer Processus Santé part 1
Séminaire IDS Scheer Processus Santé part 1Séminaire IDS Scheer Processus Santé part 1
Séminaire IDS Scheer Processus Santé part 1SAGIDS1
 
Apprentissage automatique avec RapidMiner
Apprentissage automatique avec RapidMinerApprentissage automatique avec RapidMiner
Apprentissage automatique avec RapidMinerMajdi Hannachi
 
Plan cahier-des-charges
Plan cahier-des-chargesPlan cahier-des-charges
Plan cahier-des-chargeswalouziz
 
Future of data center french
Future of data center frenchFuture of data center french
Future of data center frenchaditya panwar
 
Future of data center french
Future of data center frenchFuture of data center french
Future of data center frenchaditya panwar
 
La gestion des comptes d’une agence bancaire
La gestion des comptes d’une agence bancaireLa gestion des comptes d’une agence bancaire
La gestion des comptes d’une agence bancaireWalid Aitisha
 
ait_mlouk_addi_presentation_pfe
ait_mlouk_addi_presentation_pfeait_mlouk_addi_presentation_pfe
ait_mlouk_addi_presentation_pfeAddi Ait-Mlouk
 
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...Touria Engohan
 

Ähnlich wie Business Intelligence (20)

Le tableaudebord 2eversion
Le tableaudebord 2eversionLe tableaudebord 2eversion
Le tableaudebord 2eversion
 
PMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affaires
PMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affairesPMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affaires
PMILQ_Colloque_2020_Francois-Dumont_Gestion_de_projet_en_intelligence_affaires
 
Mergers and acquisitions screen
Mergers and acquisitions screenMergers and acquisitions screen
Mergers and acquisitions screen
 
Séance 3.pptx
Séance 3.pptxSéance 3.pptx
Séance 3.pptx
 
Business Intelligence au coeur de la décision
Business Intelligence au coeur de la décision Business Intelligence au coeur de la décision
Business Intelligence au coeur de la décision
 
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
 
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
B5270 g formation-essentials-for-ibm-cognos-bi-v10-2
 
Comarch smart analytics
Comarch smart analytics Comarch smart analytics
Comarch smart analytics
 
Tableau de bord
Tableau de bordTableau de bord
Tableau de bord
 
ATMTL23 - Le Developer Experience au service de la livraison en continu par A...
ATMTL23 - Le Developer Experience au service de la livraison en continu par A...ATMTL23 - Le Developer Experience au service de la livraison en continu par A...
ATMTL23 - Le Developer Experience au service de la livraison en continu par A...
 
Séminaire IDS Scheer Processus Santé part 1
Séminaire IDS Scheer Processus Santé part 1Séminaire IDS Scheer Processus Santé part 1
Séminaire IDS Scheer Processus Santé part 1
 
Apprentissage automatique avec RapidMiner
Apprentissage automatique avec RapidMinerApprentissage automatique avec RapidMiner
Apprentissage automatique avec RapidMiner
 
Plan cahier-des-charges
Plan cahier-des-chargesPlan cahier-des-charges
Plan cahier-des-charges
 
Future of data center french
Future of data center frenchFuture of data center french
Future of data center french
 
Future of data center french
Future of data center frenchFuture of data center french
Future of data center french
 
La gestion des comptes d’une agence bancaire
La gestion des comptes d’une agence bancaireLa gestion des comptes d’une agence bancaire
La gestion des comptes d’une agence bancaire
 
ait_mlouk_addi_presentation_pfe
ait_mlouk_addi_presentation_pfeait_mlouk_addi_presentation_pfe
ait_mlouk_addi_presentation_pfe
 
Plaquette BI
Plaquette BIPlaquette BI
Plaquette BI
 
Business intelligence QLIKVIEW
Business intelligence QLIKVIEWBusiness intelligence QLIKVIEW
Business intelligence QLIKVIEW
 
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...
Les enjeux du Big Data pour l'Entreprise - These professionnelle -Touria Engo...
 

Business Intelligence

  • 1. Année Universitaire :2019-2020 ETUDE DE CAS BI REALISATION DE CUBE AVEC DES DONNEES DE VENTE D’UNE ENTREPRISE COMMERCIAL CHAMOUR Walid ENCG d’Agadir 1ère années MS-Management des systèmes d’informations
  • 2. Table des matières Problématiques :............................................................................................................................................2 Objectif de projet : ........................................................................................................................................2 Préparation des données :..............................................................................................................................3 Source des données...................................................................................................................................3 DE SQL Server vers MySQL....................................................................................................................4  Les étapes à suivre : ......................................................................................................................4 Conception du data Warehouse : ..................................................................................................................9 Les axes d’analyse : ..................................................................................................................................9  Les mesures :...............................................................................................................................10  La table des faits : .......................................................................................................................10  Les dimensions : .........................................................................................................................11 Schéma en étoile de projet :....................................................................................................................11 Création des tables de faits et de dimension : .........................................................................................12  Création de l’entrepôt de données :.............................................................................................12  Création d’une table de faits : .....................................................................................................12 Processus ETL : ..................................................................................................................................13 Dimension Client ....................................................................................................................................13 Dimension Employé................................................................................................................................13 Dimension Produit ..................................................................................................................................14  Le format de la dimension produit :............................................................................................14 Table Fait_CA :.......................................................................................................................................15  Le format de la table fait_ca : .....................................................................................................16 Réalisation du cube dans Pentaho Schema WorckBench : .........................................................................16 Références...................................................................................................................................................18
  • 3. Problématiques : La plupart du temps, le service ne manquent pas de données pour améliorer leurs tactiques de la section vente. Ce qui fait plutôt défaut, c'est une utilisation efficace de ces données dans le but d'en faire ressortir de l’information exploitable (actionnable information). Une trop grande diversité de sources de données qui ne communiquent pas ensemble. Dans un pareil contexte, la plus simple des opérations d’analyse devient une tâche ardue. En effet, le service de vente se trouvent dans l’incapacité de faire des analyses fiables, efficaces et à des moments opportuns sans engager des moyens considérables sur des périodes plus ou moins longues. Ainsi, les principales difficultés rencontrées peuvent être résumées en : • Difficultés dans l’élaboration des rapports d’activité. • Difficultés dans l’élaboration des rapports d’activité. • Cout de la procédure de reporting. Objectif de projet : Afin de pallier aux problèmes précédemment cités, le groupe a initié, le présent projet. Ce projet a pour but de réaliser un système d’informations décisionnel, tout en conférant aux décideurs un support fiable pour une meilleure prise de décision. Ainsi, les principaux objectifs assignés au projet sont :  La réduction de la durée globale de l’élaboration des rapports, en essayant de ramener cette durée, au moins, en dessous de la barre des 48 heures.  La Réduction des coûts de la procédure de Reporting actuelle.  La réduction du nombre d’intervenants lors de la production de rapports.  Offrir aux décideurs et aux analystes la possibilité de faire des analyses appropriées.  Offrir des informations fiables, cohérentes et pertinentes, contenant la logique business souhaités.
  • 4. Préparation des données : Source des données Afin d’alimenter l’entrepôt, les informations doivent être identifiées et extraites de leurs emplacements originels. Il s’agit des sources de données hétérogènes qui peuvent comporter des données internes à l’entreprise, stockées dans les bases de données de production des différents services. Elles peuvent être aussi des sources externes, récupérées via des services distants et des web services ou des sources qui peuvent être sous format de fichiers plats. Les données provenant des différentes sources doivent être intégrées avant leur stockage dans l’entrepôt de données. Un nettoyage préalable des données est nécessaire afin d’avoir une cohérence et une normalisation de l’information. Après une étude globale sur la base de données de l’entreprise qui sont attachées par le temps, nous avons collecter les données de différentes sources de chaque année dans une seule base de données dans Access et puis nous avons fait notre analyse demandée par l’entreprise Le schéma relationnel ci-dessous présente Les sources de données générer par le service ce sont des données formats SQL :
  • 5. DE SQL Server vers MySQL Afin d’alimenter l’entrepôt aves Pentaho Data Integration (PDI) il faut que la base de données de système de production soit de type MySQL afin d'éviter quelque errors en plus le PDI est tout à fait compatible avec la base de données MySQL. Pour convertir une base de données SQL à une base de données MySQL il faut utilise MySQL WorckBench.  Les étapes à suivre : 1. Aller au menu vertical à gauche et cliquez sur migration wizard (cercle rouge)
  • 6. 2. La fenêtre ci-dessus s’affiche, cliquez sur Open ODBC Administrator pour configurer votre Data source 3. Puis cliquez sur add pour ajouter un nouveau data source
  • 7. 4. Sélectionner driver avec lequel vous souhaite pour configurer votre data source (SQL Server) puis cliquez sur finish 5. Donner un nom à votre data source et cliquez sur finish
  • 8. 6. Après que vous configurez votre data source vous retournez automatiquement à la fenêtre de début alors cliquez sur start migration pour lancer votre migration 7. Choisissez le type de base de données que vous voulez migrer et cliquez sur Next, Vous pouvez testes si la connexion est réussite, cliquez sur test connection (cercle verte)
  • 9. 8. Dans le cas de la réussite de connexion 9. Configurez votre base de données destinataire et cliquez sur Next
  • 10. 10. Choisissez la base de données que vous voulez émigrer et cliquez sur Next 11. Pour les étapes il vous restent de cliquer sur Next Conception du data Warehouse : Nous allons aborder dans cette partie le cadrage du projet sur le plan fonctionnel. Ce cadrage traduit les besoins présentés précédemment en termes d’axes d’analyse et d’indicateurs. Ces éléments détermineront la conception du data Warehouse. Les axes d’analyse : L’amélioration continue des services matériels exige pour chaque processus un plan de suivi. Afin de contrôler l’efficacité et l’efficience du processus en question, des mesures spécifiques, mesurables, réalisables et réalistes sont pris en compte. Le tableau suivant illustre les axes d’analyse :
  • 11.  Les mesures : Il existe deux mesures :CA (Chiffre d’affaire) et quantité : • CA=Prix*Quantité  La table des faits : La table des faits est la table « Fait CA » cette table contient les mesures et les clés primaires des tables de dimensions sa structure est la suivante : Axe d’analyse Description Hiérarchie Employé Désigne les employés responsables des ventes des produits suivants les noms des employés et leurs fonctions les adresses (ville) de chaque employé. Code employé -> Nom employé-> fonction>ville Produit Permet une analyse des indicateurs de produit suivant le type de produit concerné le prix des produits. Code produit-> Nom Produit-> Type de produit ->Fournisseur Client Désigne les clients qui font des achats des produits suivants les noms des clients et les adresses (ville) de chaque client. Code Client -> Nom Client->Adresse Client
  • 12.  Les dimensions : Il existe 3 dimensions : • Produit : les produits qui sont traiter par la section Achat, sa structure est la suivante : • Client : les clients concernant l’entreprise pour cerner leurs besoins : • Employé : les employés de l’entreprise et de service de vente Schéma en étoile de projet : Durant la modélisation du data Warehouse, il est nécessaire de choisir le modèle le plus adéquat. Les structures de données les plus utilisées sont les schémas en étoile et les schémas en flocon de neige. Suivant l’analyse faite précédemment, nous remarquons que les indicateurs sont analysés selon les mêmes axes de dimensions. Donc le modèle proposé sera un modèle en étoile contient
  • 13. une table de fait et de quatre tables de dimensions. La table de fait correspond à un indicateur et chaque dimension correspond à un axe d’analyse. Techniquement, la table de fait référence les tables de dimensions qui lui sont liées par des clés étrangères. Ci-dessous, le modèle proposé : Création des tables de faits et de dimension :  Création de l’entrepôt de données : Nous allons commencer par créer l’entrepôt de données. Nous appellerons la base de données : Sam_OLAP on va utiliser l’outil PhpMyAdmin pour la création de cette base de données.  Création d’une table de faits : Notre table de faits sera construite en deux étapes : • La première étape détaille les liaisons avec les tables de dimension : • La deuxième étape détaille les mesures de table fait : ► Quantity = Quantité ► Price = Chiffre d’affaire  Création des tables de type dimension : Nous allons donc dans cette partie de créer les tables de type dimension suivantes : ● dim_prod, pour la dimension produit ● dim_clt, pour la dimension client ● dim_emp, pour la dimension employé
  • 14. Processus ETL : La réalisation de notre plateforme décisionnelle commence par l’alimentation du data warehouse. Grâce au composant Pentaho Data Intagration de la solution Pentaho. Cette solution nous permet de rassembler les sources de données hétérogènes dans une seule base de données. Les données auront subi un ensemble de transformations, de nettoyages et d’agrégations avant d’être chargées définitivement dans le datawarehouse. ❖ La phase E signifie qu’une tâche va se connecter à une source, pour en Extraire des lignes de données. ❖ La phase T signifie que ces lignes vont passer par des tâches de Transformation pour subir des tests, des validations ou des modifications. ❖ La phase L signifie que ces lignes, une fois traitées et transformées, vont être chargées (Load en anglais) dans la base de données destination. Dimension Client ▪ Table_Clt : extraire la table client. ▪ Select values Clt : choisir les camps à conserver pour la dimension client. ▪ Dim_Clt : chargement de dimension client dans l’entrepôt de données. Dimension Employé ▪ Table_Emp : extraire la table employée. ▪ Select values Emp : choisir les camps à conserver pour la dimension employée. ▪ Dim_Clt : chargement de dimension employé dans l’entrepôt de données.
  • 15. Dimension Produit ▪ Table input : extraire les données des fournisseurs. ▪ Table_Prod : extraire la table produit ▪ Table_Cat : extraire la table catégorie ▪ Sort rows Supplier : faire un tri ascendant des lignes. ▪ Sort rows Prod : faire un tri ascendant des lignes ▪ Sort rows Cat : faire un tri ascendant des lignes ▪ Join Prod_Cat : faire la jointure entre la table produit et la table catégorie pour récupérer la catégorie de chaque produit. ▪ Sort rows Prod : faire un tri ascendant des lignes du résultat de la jointure (Join Prod_Cat). ▪ Join Cmd_DetCmd 2 : jointure entre la table fournisseur et le résultat de la jointure (Join Prod_Cat) pour récupérer le nom de fournisseur. ▪ Sort_rows Cat_Prod : faire un tri ascendant des lignes du résultat de la jointure (Join Cmd_DetCmd 2 ). ▪ Select values Cat_Prod : choisir les camps à conserver pour la dimension produit. ▪ Dim_Clt : chargement de dimension produit dans l’entrepôt de données.  Le format de la dimension produit :
  • 16. ▪ ProductID : Produit ID ▪ ProductName : Désignation de produit ▪ CategorieName : Catégorie de produit. ▪ CompanyName : Fournisseur de produit ▪ Pa : Prix d’achat ▪ Pv : Prix de vente Table Fait_CA : ▪ Table_Cmd : extraire de la table commande ▪ Table_DetCmd : extraire de la table detailcommande ▪ Sort rows Cmd : faire un tri ascendant des lignes de commande ▪ Sort rows DetCmd : faire un tri ascendant des lignes de detailcommande ▪ Join Cmd_DetCmd : faire la jointure entre la table commande et la table detailcommande en fonction de OrderId (N° Commande/clé primaire) ▪ Sort Cmd_DetCmd : faire un tri ascendant des lignes du résultat de la jointure (Join Cmd_DetCmd) ▪ Merge join 2 : faire la jointure entre le résultat de la jointure (Join Cmd_DetCmd) et la table produit pour récupérer PV (Prix de vente) afin de calculer le chiffre d’affaire (Prix*Quantité) ▪ Calculator : créer le champ mesure appelé Price T(chiffre d’affaire= Prix*Quantité).
  • 17. ▪ Select values Cat_Prod : choisir les camps à conserver pour la table fait. ▪ Sort Cmd_DetCmd : faire un tri ascendant des lignes avant de les charger. ▪ Fait_CA : chargement de table fait_ca dans l’entrepôt de données.  Le format de la table fait_ca : ▪ OrderID: ID de commande ▪ CustomerID: ID de client ▪ EmployerID: ID de l’employé ▪ ProductID: ID de produit ▪ Quantity:Quantité achetés de chaque produit ▪ Price T : le prix total de chaque achat de chaque produit Réalisation du cube dans Pentaho Schema WorckBench : Dans la partie précédente nous avons créer l’entrepôt de données en utilisant ETL, dans cette partie nous allons nous atteler à rendre l’information contenue dans l’entrepôt de donnée de manière simple, présentable et rapide cela signifie que l’utilisateur accède à l’information ne doit pas voir la complexité du traitement de l’information càd qu’un utilisateur qui accède à des informations mises à disposition, doit avoir un temps d’attente de l’ordre de la seconde. Donc nous avons créé un nouveau cube qui peut nous aider à répondre à ces critères.
  • 18.
  • 19. Références Guide to Database Migration from Microsoft SQL Server using MySQL Workbench https://mysqlworkbench.org/2012/07/migrating-from-ms-sql- server-to-mysql-using-workbench-migration-wizard/