Cette présentation est un livre blanc qui a pour intention d’apporter une vision claire du concept de « Virtualisation », de ses avantages, de sa place dans la stratégie IT d’une entreprise et des technologies qui y tirent leurs origines.
Si vous souhaitez aller plus loin dans la virtualisation, nous vous recommandons de cliquer ici pour télécharger librement 5 chroniques spécialisées : https://www.data-transitionnumerique.com/big-data-cloud/
2. • Le Nouveau Challenge
• Quel est l’objectif de cette présentation ?
• A qui s’adresse cette présentation ?
• Avant que l’aventure ne commence !
• Qu’est ce que la Virtualisation?
• Comment la virtualisation fonctionne t’elle ?
• Les candidats à la virtualisation
• Les Bénéfices de la Virtualisation
• Les Use-Cases technologiques de la Virtualisation
• Success Stories de la virtualisation
• Quelques fournisseurs de solution de virtualisation
• Que dois-je retenir ?
• Bibliographie & Ressources
• A propos de moi
Module Overview
3. Les entreprises d’aujourd'hui font face à des changements rapides, nouvelles technologies,
nouveaux facteurs de concurrence et nouveau trends de consommation. Les produits ont des cycles de vie
mesurés en mois ou en quelques années tout au plus. Non seulement la demande de production est difficile
à estimer, mais encore plus le sont les coûts des matières premières, du travail et du transport.
L‘environnement économique du 21ème Siècle est un monde radicalement différent de celui du siècle passé
Ajuster les opérations à la hausse ou la baisse en fonction de la situation économique qui
prévaut et la capacité à réagir rapidement pour faire face à de nouvelles menaces ou saisir de
nouvelles opportunités sont les conditions qui fondent le succès des entreprises de l'économie
d'aujourd'hui.
Aujourd'hui, l‘agilité est le maître-mot du succès. Les stratégies des entreprises DOIVENT être
« agiles» c’est-à-dire être en même de transformer les coûts fixes en coûts variables. Ainsi, les coûts
d'exploitation augmenteront si l'activité économique croît, les coûts chuteront également si l’'activité
économique chute. Or qui dit stratégie agile dit Système d’Information « agile » et qui dit système
d’information « agile » dit Système informatique(IT) « agile ». L’IT a toujours été l’infrastructure qui soutient la
stratégie de l’entreprise, cependant, avec la complexité de plus en plus grandissante des marchés, les
systèmes informatiques sont de plus en plus coûteux et il est admis que plus des 75% du budget des DSI
vont dans la maintenance des systèmes existants. Donc pour rendre l’entreprise agile, les DSI doivent
repenser l’utilisation des ressources informatiques, plus concrètement, elles doivent trouver le moyen de
rendre ces ressources « agiles » et c’est là où la virtualisation revêt tout son intérêt.
Dans cette présentation, nous allons montrer comment la virtualisation permet de rendre les
systèmes informatiques agiles et par ricochet l’entreprise tout entière.
Le Nouveau Challenge
4. Quel est l’objectif de cette présentation ?
Cette présentation est un livre blanc qui a pour intention d’apporter une
vision claire du concept de « Virtualisation », de ses avantages, de sa
place dans la stratégie IT d’une entreprise et des technologies qui y tirent
leurs origines.
Ainsi, j’espère qu'à la fin de la présentation, vous aurez compris ce qu'est
la virtualisation, et que vous pourrez déduire par vous-même quand est ce
qu’il est bénéfique de virtualiser.
Bonne lecture !
5. A Qui s’adresse cette présentation ?
Cette présentation a été conçu pour tout le monde, des professionnels aux étudiants qui
veulent avoir une idée claire du concept de la virtualisation, de ses avantages et de sa place
dans la stratégie d’une entreprise.
Ainsi, si vous êtes un professionnel de l'informatique, alors vous avez très certainement déjà
entendu parlé de la virtualisation, ou alors vous virtualisez déjà! Cette présentation vous servira
de support conceptuel, elle fournit les use-cases technologiques de la virtualisation et un
panel de solutions de virtualisations qui vous aiderons dans la définition de la stratégie IT de
votre entreprise.
Si vous êtes un décideur ou un professionnel avec un point de vue plus fonctionnel, alors il y’a
des chances que vous ayez entendu parlé de la virtualisation, ou alors que vous ne connaissez
pas du tout! Cette présentation vous permettra de mieux comprendre ce qu’est la virtualisation
en tant que technologie, ses avantages et sa place dans la stratégie de l’entreprise.
En tant que professionnel, vous n’avez très certainement pas beaucoup de temps à consacrer à
des lectures longues et fastidieuses. Ne vous inquiétez pas, la présentation est très synthétique.
Si vous êtes un étudiant ou un intéressé, vous bénéficierez de tous les avantages énumérés ci-
dessus et pourrez toujours vous servir de cette présentation pour vos exposés
6. Avant que l’aventure commence !A part moi, PERSONNE D’AUTRE n’est responsable des informations fournies dans cette présentation. Ni Microsoft, ni EMC², ni Ncomputing, ni
même encore Citrix ne sont impliqués dans la rédaction de cette présentation. Ils ne sont même pas au courant de son existence Cela dit,
cette présentation n’a pas pour but de commercialiser leurs solutions, encore moins de les comparer. Mon objectif est simplement de vulgariser
la virtualisation en tant que technologie et vous fournir un panel de choix afin de vous permettre de prendre des décisions éclairées en matière
de stratégies IT.
les informations fournies ici sont uniquement à caractère informationnel et représentent mon point de vue en la date de cette présentation. En
raison des changements rapides du marché, les informations fournies ici peuvent être modifiées ou démodées, plus précisément, le contenu des
sites Web fournis peut être modifié ou changé, ou le site Web lui-même peut être indisponible. Donc, après la date de publication de cette
présentation, je ne peux vous donner aucune garantie quant à la fiabilité des informations fournies.
Les noms de produit cités ici sont des marques déposées aux ETATS-UNIS et/ou dans d'autres pays. Je fais référence à Microsoft, EMC²,
VMWARE, Ncomputing. Xen, Citrix.
Sentez vous libre de partager cette présentation à quiconque, de vos collègues à vos amis, mais dans ce cas, n' oubliez pas de mentionner le nom
de l'auteur. Vous pouvez utiliser et modifier le contenu de ce tte présentation à vos propres fins, mais je n'en serais pas responsable dans ce cas.
Cette présentation n'est pas à vendre, si vous avez l'intention de l'utiliser à vos propres fin, please ne le commercialisez pas !
Les citations et définitions fournies dans cette présentation sont des traductions françaises que j'ai faites des propos originaux. Ainsi, je ne peux
en garantir la fiabilité de la teneur sémantique. Pour plus de précision, référez-vous aux liens fournis dans la bibliographie & Ressources.
Aucune des images présentes dans cette présentation ne m’appartient, je m’excuse d’avance auprès des auteurs de ces images de les avoir
utiliser sans leur permission. Si vous vous reconnaissez dans l’une de ces images et que vous vous voulez que je l’enlève, veuillez m’écrire à
jvc35@yahoo.fr et je l’enlèverais de suite. De même, j’ai choisis à bon escient de ne pas citer la source de chaque image directement en dessous
de celle-ci, mais plutôt à la fin dans le slide bibliographie & Ressources., afin de maintenir votre attention concentré sur le contenu de la
présentation.
L’entreprise JVC Hotel est une entreprise fictive qui a été crée pour masquer le nom de la véritable entreprise, ceci pour des raisons de
confidentialité.
Les prix des ordinateurs, écrans et autres matériels fournis ici sont purement estimatifs. Il vous revient de vous renseigner quant aux prix réels.
De même, rien ne me permet de garantir l’exactitude des prix fournis dans le slide 39 pour la solution cloud de Microsoft. Il vous revient de vous
rapprocher de Microsoft pour connaître les prix réels.
8. • De nombreuses études montrent que les
serveurs [d’entreprises] sont utilisés à
seulement 20% de toute leur capacité. La
virtualisation est le moyen utilisé pour exploiter
pleinement les ressources ces serveurs afin d’en
tirer le maximum de ROI (Retour sur
Investissement).
• Pour être formel, la virtualisation fait référence
à « l’abstraction physique des ressources
informatiques ». En d’autres termes, les
ressources physiques (puissance de calcul,
mémoire, disque dur, réseau…) d’une machine
(ordinateur) sont allouées à ce que l’on appelle
une machine virtuelle c’est-à-dire une
abstraction des ressources de la machine hôte à
partir de leurs équivalents
physiques. L’ordinateur hôte "voit" ces
machines virtuelles comme des applications
auxquelles il dédie ou distribue ses ressources.
9. Les machines virtuelles sont construites à partir de l’excès de ressources de la machine hôte
et sont gérées par un hyperviseur.
Ainsi, virtualiser un système informatique revient à gérer les ordinateurs, serveurs et les
logiciels comme des pools et à organiser ces pools de façon à ce qu’ils soient utilisés plus
efficacement qu’avant.
11. Au cœur de la virtualisation, il y’a ce
que l’on appelle une « machine
virtuelle » (« Virtual Machine »,
souvent abrégé « VM »), une couche
logicielle très isolée contenant un
système d’exploitation et des
applications. Parce que chaque
machine virtuelle est complètement
séparée et indépendante, plusieurs
d’entre elles peuvent s’exécuter sur
un même ordinateur.
Une très fine couche logicielle
appelée « hyperviseur » gère les
machines virtuelles et allouent
dynamiquement (i.e en fonction de
la charge et de la disponibilité des
ressources de(s) ordinateur(s) hôtes)
les ressources à chaque machine
virtuelle.
Figure : L’hyperviseur permet de répartir les ressources d’un
système informatique en machines virtuelles. Celles-ci sont par
la suite gérées comme un pool
13. Le modèle de virtualisation du Groupe
KUSNETZKY est un modèle de référence qui
présente tous les niveaux de virtualisation
possible dans un système informatique.
Dans le cadre de cette présentation, nous
présenterons les niveaux les plus courants à
savoir : La virtualisation d’accès, la
virtualisation d’application, la virtualisation
de la puissance de calcul, la virtualisation du
réseau et la virtualisation du stockage.Figure: Niveaux de virtualisation définis par le
Modèle du groupe Kusnetzky
« Qu’est ce qui peut être virtualisé dans un
environnement informatique ? ».
14. La Virtualisation des accès• La virtualisation des accès aux
logiciels et matériels permet de
placer l’accès à des logiciels, des
applications et des charges dans un
environnement virtuel.
• Cette technologie permet le « any
place, any time, any device
computing ».
• Ce type de virtualisation est
généralement utilisé avec d’autres
formes de virtualisation et
certaines formes de service Cloud
telles que le SaaS .
Grace à elle, les outils clients légers
peuvent communiquer avec une
application distance
15. La Virtualisation d’application
La virtualisation des applications
permet d’encapsuler une application ou
de la faire tourner dans un
environnement virtuel. La différence
majeure qui existe entre celle-ci et la
virtualisation des accès se situe sur le
fait qu’une partie ou toute l’application
(de l’entreprise) est installé sur un
périphérique (client léger) au lieu d’un
serveur distant.
Ce type de virtualisation s’appuie sur le
système d’exploitation de la machine
hôte.
16. La Virtualisation de la puissance de calcul
La virtualisation de la puissance de
calcul revêt 5 formes différentes: le
moniteur de calcul parallèle, le
moniteur de gestion de la charge de
travail (workload), le moniteur de
haute disponibilité/ tolérance, le
logiciel de virtualisation de machine ou
d’OS et le partitionnement.
Le calcul parallèle, la gestion de la
charge de travail (workload), la haute
disponibilité/ tolérance sont
généralement appelés « Cluster ».
17. La Virtualisation du Réseau
La virtualisation du réseau fait
référence à l’ensemble des
outils qui sont utilisés pour
présenter une vue artificielle
de l’environnement réseau de
l’entreprise. Ce type de
virtualisation est
généralement supporté par
des routeurs et le réseau. Elle
fournit les fonctions
suivantes : le routage réseau,
la traduction d’adresse
réseau et l’isolation réseau.
18. La Virtualisation du stockage
La virtualisation du stockage fait
référence à l’ensemble des outils
utilisés pour présenter une vue
artificielle de l’environnement de
stockage. Elle est supporté par
l’espace de stockage des serveurs
ou tout autre support de stockage
tels que les disques durs, les
mémoires vives. Elle fournit les
fonctions suivantes :
la distribution des Systèmes de
Fichiers, la création des volumes
de stockage virtuels, le contrôle
de l’espace de stockage et
Le partage de l’espace de stockage
entre plusieurs systèmes
incompatibles
20. Optimiser l’utilisation des ressources informatiques
Réaliser des économies d’echelle
Réduire le TCO (Coût Total de Possession)
Absorber les charges associées aux pics/creux de l’activité de l’entreprise
Tester les logiciels
2
3
Économiser l’énergie
Les bénéfices de la virtualisation peuvent se résumer en 6 points :
1
4
5
6
22. La Big Data
Technologiquement parlant, La Big
data est c’est la combinaison de
virtualisation de puissance de
calcul (qui fournit la puissance de
calcul parallèle avec une faible
latence) et de virtualisation de
stockage (qui fournit le système de
fichiers distribué) pour le
traitement massivement parallèle
de gros volumes de données
variées et distribuées sur des
clusters d’ordinateurs.
Ce sont ces technologies de
virtualisation que des plateformes
telles que Hadoop implémente.
23. Le Cluster Computing Le “Cluster computing” utilise la
virtualisation de la mémoire et du
stockage pour regrouper ensemble
un grand nombre d’ordinateurs (
« compute node »). Dans cette
configuration, un logiciel de
mémoire cache est utilisé pour
distribuer les données dans un
grand nombre de systèmes,
rendant ainsi possible l’accès et la
mise à jour d’une forte volumétrie
de données très rapidement. Un
Système de Fichiers de distribué
de à l’exemple du HDFS (Hadoop
Distributed File System) peut être
utilisé pour accéder à ces
données. Hadoop (et son HDFS) en
est un exemple typique.
24. Le High Performance Computing
Le « High Performance
Processing » est utilisé pour les
applications qui demandent
énormément de puissance de
calcul. Ce type de virtualisation
permet de paralléliser l’exécution
de plusieurs tâches sur un grand
nombre d’ordinateurs. Un
moniteur [logiciel] (type
« zookeeper ») envoie les tâches à
exécuter à chaque machine. Au fur
et à mesure que les tâches sont
exécutées, les résultats sont
renvoyés au système ou à la
machine sur laquelle tourne le
moniteur pour la demande d’une
nouvelle série de tâches…
25. Rappelons que le “Cloud Computing” est un modèle économique et informatique dans
lequel un ou plusieurs fournisseurs fournissent des ressources informatiques en ligne (des
“services”) à d’autres entreprises que celles-ci payent à l’usage (a « pay-as-you-go » basis).
Ce modèle s’appuie totalement sur la virtualisation.
Le Cloud Computing
27. JVC Hotel*: la réduction du TCO
A travers la virtualisation (la solution de
virtualisation de bureau Ncomputing, l’ hôtel
JVC Hotel a réalisé d’énormes gain en terme
de coût total de possession de son système
informatique et la réduction du coût de sa
maintenance. Le tableau suivant l’illustre.
Architecture de la solution de virtualisation de bureau NComputing
Spécification Serveur physique Poste de travail standard physique Terminaux NComputing
coût 3 000 € 450 € 305, 40 €
quantité 1 Unité 32 Unités 6 Pack de 6
Total 3 000 € 14 440 €
1 832 € + 100 * 32 écrans+ 3000 euros
du serveur central
CTO 17 440 € 8 032 €
Soit une économie de 9 408 euros sur le CTO,
soit 53% de réduction du coût de
possession
NB: les coûts fournis ici sont estimatifs.
29. VMware, la filiale d'EMC Corporation depuis 2004,
propose plusieurs produits propriétaires liés à la
virtualisation d'architectures x86. C'est aussi par
extension le nom d'une gamme de logiciels de
virtualisation. Le principe des produits VMware est
de créer un environnement clos dans lequel sont
disponibles un, deux, quatre ou huit (vSphere)
processeur(s), des périphériques et un BIOS virtuel.
En 2006, les produits suivants étaient disponibles :
VMware Workstation, VMware Player et VMWare
ACE : logiciels pour stations de travail ;
VMware Fusion : logiciel pour stations de travail
Macintosh avec processeurs Intel ;
VMware GSX Server, VMware Server et VMware
ESX/ESXi Server : logiciels pour serveurs ;
VMware Virtual Center et VMware Converter :
logiciels de gestion et outils.
EMC² [VMWARE]
30. Xen. est un hyperviseur de
machine virtuelle. Il permet
de faire fonctionner de façon
isolée plusieurs systèmes
d’exploitation virtuels
(invités) sur une seule
machine physique hôte. Ces
machines virtuelles peuvent
s’exécuter sur plate-forme
x86, x86-64, IA-64 et
PowerPC, ARM Cortex-A7 et
Cortex-A151 (bientôt sur
SPARC). Les systèmes
d'exploitation invités
partagent ainsi les
ressources de la machine
hôte.
Citrix[Xen]
Les versions commerciales de Xen à ce jour sont les suivantes :
- Citrix XenServer
- Oracle VM (Oracle Virtual Machine)
- Sun xVM (Racheté par Oracle)
- Huawei FusionSphere
31. Microsoft entre dans le marché de la
virtualisation avec 2 produits : Virtual PC et
Hyper-V.
Microsoft Virtual PC
Virtual PC est une solution gratuite de
virtualisation de Microsoft. Virtual PC utilise
l’émulation pour fournir son environnement
de machines virtuelles.
Microsoft Hyper-V
Hyper-V, également connu sous le nom de
Windows Server Virtualisation, est un
système de virtualisation basé sur un
hyperviseur 64 bits de la version de Windows
Server (version 2008 et 2012).
Microsoft
32. Que dois-je retenir?
• Pour les professionnels métier & décideurs :
₋ La nouvelle économie des marchés obligent les entreprises à être agiles. L‘Agilité Métier est
la capacité à apporter des changements et des ajustements continus aux processus métiers
de sorte que l'entreprise soit en mesure de répondre aux conjonctures économiques qui
surgissent.
₋ Les entreprises qui comprennent comment optimiser leurs coûts d'informatique mettront en
œuvre un modèle économique plus agile.
₋ La virtualisation est une stratégie IT qui rend le SI « élastique » et agile
₋ Avant de se lancer dans un projet de virtualisation, les entreprises doivent au préalable se
poser les questions relatives à l’alignement stratégique.
• Pour les Informaticiens :
₋ L’agilité Métier appelle à l’Agilité Informatique
₋ La virtualisation n’est pas seulement une technologie, c’est une partie de la stratégie
intégrale d’une entreprise réactive.
₋ La virtualisation c’est l’abstraction des ressources physiques d’un système informatique
₋ La virtualisation permet de gérer les ressources informatiques comme un pool à l’aide d’un
hyperviseur
33. Ressources fournies par charge de travail
Instancesde taille variable pourmanier des charges de travail de n’importequelle taille.
ANNEXE : Tarif du Cloud Microsoft Windows AZURE
34. Bibliographie & Ressources
“Virtualization: A Manager’s Guide”, Dan KUSNETZKY, ISBN: 978-1-449-30645-8, Juin 2011, édition O’Reilly.
“Virtualization for dummies”, Bernard Golden, ISBN: 978-0-470-14831-0, publié en 2008 par Wiley Publishing
“Virtualisation en pratique”, Kenneth Hess et Amy Newman, traduit par Isabelle Hurbain-Palatin ISBN : 978-0-137-
14297-2, Publié en 2010 par Pearson Education France
Michael Hugos, DerekHulitzky, “Business in the Cloud : WHAT EVERY BUSINESS NEED TO KNOW ABOUT THE CLOUD
COMPUTING”, John Wiley & Sons, Inc., ISBN 978 0 470 61623 9
Informations générales sur la virtualisation http://searchservervirtualization.techtarget.com/
Bénéfices de la virtualisation
http://www.vmware.com/virtualization/virtualization-basics/virtualization-benefits.html
Fonctionnement de la virtualisation
http://www.vmware.com/virtualization/virtualization-basics/how-virtualization-works#sthash.hQtFdRKq.dpuf
Informations sur VMWare Server: http://fr.wikipedia.org/wiki/VMware
Informations sur VMWare Server : http://searchvmware.techtarget.com/definition/VMware-Server
Fiche commerciale des produits VMWare
http://www.vmware.com/fr/products/vcenter-server/
Information sur l’open source Xen : http://en.wikipedia.org/wiki/Xen
Informations sur HyperV :http://technet.microsoft.com/fr-fr/library/hh831531.aspx
Solutions de virtualisation offertes par Microsoft
http://www.microsoft.com/fr-fr/server-cloud/solutions/virtualization.aspx
Site officiel du groupe KUSNETZKY http://kusnetzky.net/
Site du magzine ITMWEB dédié à comparaison et à l’évaluation des budgets informatiques des Directions
informatique des entreprises www.itmweb.com/blbenchall.htm
35. A propos de moi
Data Information Knowledge
Actionable
plans
Performance
Contact
Mail : jvc35@yahoo.fr
Twitter : @Juvenal_JVC
Linkedin : http://fr.linkedin.com/pub/juv%C3%A9nal-chokogoue/52/965/a8
Je suis un Consultant spécialisé dans l’aide à la décision avec un
focus très pointu sur 3 domaines : la Big Data, la Business
Intelligence et la Business Analytics.
J’aide les entreprises à valoriser leurs données afin d’accroître
leur performance à travers la technologie adéquate, la solution
technique adéquate, les outils adéquats et les méthodologies
adéquates. J’ai près de 3 ans d’expérience en tant que
consultant et suis titulaire de 5 certifications. Je suis un
professionnel certifié SAS de haut niveau et je suis également
certifié EMC² Data Scientist.
36. Merci de votre attention !
J’espère sincèrement que cette
présentation vous aidera !
Hinweis der Redaktion
Au cœur de la virtualisation, il y’a ce que l’on appelle une « machine virtuelle » (« Virtual Machine », souvent abrégé « VM »), une couche logicielle très isolée contenant un système d’exploitation et des applications. Parce que chaque machine virtuelle est complètement séparée et indépendante, plusieurs d’entre elles peuvent s’exécuter sur un même ordinateur. Une très fine couche logicielle appelée « hyperviseur » gère les machines virtuelles et allouent dynamiquement (c’est-à-dire en fonction de la charge et de la disponibilité des ressources de(s) ordinateur(s) hôtes) les ressources à chaque machine virtuelle. Cette architecture permet entre autre :
A chaque machine virtuelle d’encapsuler et d’émuler un ordinateur, permettant ainsi à plusieurs applications et systèmes d’exploitation d’être exécutés sur une même machine hôte au même moment.
L’utilisation à « plein » des serveurs. Chaque machine physique est utilisée à sa pleine puissance, permettant de réduire significativement les coûts en déployant moins de serveurs.
L’approvisionnement en ressources logicielle rapide et facile. En tant que fichiers, les machines virtuelles peuvent être manipulées (copier et coller) facilement, être transportés d’une clé USB à une autre…etc. Ceci amène de la flexibilité, de la simplicité, et de la rapidité aux directions informatiques. Les machines virtuelles peuvent même être transférées d’un serveur à un autre tandis qu’elles sont en exécution (à travers un processus appelé la migration en live). Les applications métiers peuvent aussi être virtualisées pour améliorer la performance, la fiabilité, l’évolutivité et la réduction des coûts.
La virtualisation a 4 principaux bénéfices : elle réduit la consommation électrique (ce qui a un effet bénéfique pour l’environnement), elle améliore la gestion des serveurs de l’entreprise, elle réduit les coûts IT [et par ricochet le coût de possession TCO] et elle améliore l’utilisation des ressources. Nous y détaillons plus bas ses avantages.
Ces avantages fournissent aux DSI et directions informatiques, plus d’agilité et de flexibilité. Il n’y’a plus le lourd fardeau de configuration des serveurs, installations, paramétrages et tout autre travail nécessaire pour mettre à disposition des utilisateurs des applications, des données très rapidement. La virtualisation rend donc les entreprises plus flexibles et plus réactives aux changements du marché dans lequel elles évoluent.
La Sous-utilisation
Comme vu précédemment, les systèmes sous-utilisés sont parfaits pour la virtualisation car à à la différence d’une machine physique, la machine virtuelle ne consomme pas d’électricité, n’a pas besoin de refroidissement et ne prend pas de place.
Les économies d’échelle
En plus d’être une solution économique, la virtualisation fournit des économies d’échelle. Les entreprises peuvent aisément convertir deux serveurs ou plus, en configuration de haute disponibilité, et en des serveurs virtuels. Des systèmes virtuels peuvent aussi être ajoutés à cette solution de haute disponibilité en maintenant les serveurs physiques. L’ajout de capacité haute disponibilité ne s’accompagne pas de dépenses en matériel. De plus, la vie du matériel est courte. L’espérance de vie d’une infrastructure matérielle est de trois à quatre ans. La raison de cette durée de vie si courte est que le taux d’échec augmente énormément après quatre ans. Une bonne estimation générale sur l’espérance de vie d’une pièce est la durée de la garantie du constructeur sur le produit. La virtualisation est un vainqueur clair dans le dilemme des infrastructures vieillissantes. Le système hôte vieillira, mourra, deviendra obsolète ou sortira du contrat de location, mais ce ne sera jamais le cas des machines virtuelles. De la RAM, des processeurs, de l’espace disque, des interfaces réseau et d’autres périphériques pourront y être ajoutées indépendamment du matériel physique les hébergeant. De même, le système d’exploitation des machines virtuelles pourra être mis à jour quand le besoin se fera ressentir.
réduire le TCO (Coût Total de Possession)
Il est facile de voir que la virtualisation réduit le fardeau de devoir acheter du matériel pour tout nouveau système. La question est alors de savoir de quel ordre sont les économies en question. Considérons le scénario suivant. Le serveur est un système typique utilisé comme serveur de fichiers et d’impression, de courrier électronique, un DNS et un serveur web : processeur double-cœur, 2 Go de RAM, 80 Go de disque, système montable en rack. Ce système standard tourne autour de 1 300 euros. Si vous avez besoin de matériel RAID et de disques, vous pouvez compter 200 à 300 euros de plus. Pour finir, ce système "de base" coûte entre 1 300 et 1 600 euros.
Notre serveur d’entreprise est une machine intégrable en rack, à deux processeurs
quadruple-cœur, 32 Go de RAM et trois disques de 400 Go montés en RAID 5. Ce système coûte environ 12 000 euros. Ceci ne prend pas en compte les interfaces réseau, mais la plupart des systèmes standard embarquent (ou devraient embarquer) deux interfaces réseau. Typiquement, l’une est configurée pour le réseau local et l’autre pour les sauvegardes. Le serveur d’entreprise devrait être configuré avec sa propre connexion au réseau local, une connexion pour les sauvegardes et au moins quatre autres pour les machines virtuelles. Notre système contient quatre interfaces réseau ; quatre interfaces supplémentaires ajouteraient environ 300 euros de plus au total. Le coût supplémentaire est assez insignifiant par rapport au prix total et revient environ à une petite centaine d’euros par interface.
Cette partie a été extraite du livre “Virtualisation en pratique”, Kenneth Hess et Amy Newman, traduit par Isabelle Hurbain-Palatin ISBN : 978-0-137-14297-2, Publié en 2010 par Pearson Education France dans lequel il est très bien détaillé
Un matériel RAID est un système qui permet de répartir les données sur plusieurs disques durs afin d'améliorer soit les performances, soit la sécurité ou la tolérance aux pannes de l'ensemble du système informatique (voir Wikipédia : http://fr.wikipedia.org/wiki/RAID_(informatique) )
Absorber les charges associées aux pics/creux de l’activité de l’entreprise
Une des raisons principales pour lesquelles la plupart des DSI et professionnels informatiques envisagent la virtualisation est l’agrégation de charges d’inactivité. La virtualisation permet de faire le système informatique aux besoins de l’entreprise engendrés par les mouvements du marché. Grace à la virtualisation, il est possible de gérer les pics et creux d’activité sans reconfigurer le parc informatique de l’entreprise. Tout ce dont la DSI a besoin c’est d’ajouter ou de supprimer des machines virtuelles. La consolidation de serveurs prend alors la forme d’une réduction du nombre d’ordinateurs physiques en combinant les charges sur du matériel plus neuf et plus fiable, ou celle de l’utilisation de logiciels de virtualisation afin de créer des machines virtuelles pour gérer ces charges. Etant donné le faible nombre d’ordinateurs, les coûts de maintenance associés au suivi des tendances du marché sont très faibles. De plus, les opérations de consolidation peuvent engendrer des réductions de personnel interne ou des réattributions de tâches car les machines virtuelles sont créés en quelques clics
Tester des logiciels
L’utilisation de machines virtuelles pour tester des logiciels est l’une des premières applications pour laquelle la virtualisation a été utilisée. Le scénario est le suivant : Une machine virtuelle est créée, démarrée, les correctifs lui sont appliqués, une adresse IP et un nom lui sont attribués, et une sauvegarde de cette machine virtuelle originale est faite. La copie de travail est utilisée pour installer, modifier et désinstaller des paquetages logiciels.
Utiliser une machine virtuelle de cette manière offre l’opportunité de régler tout conflit ou problème potentiel avant de déployer les logiciels sur des systèmes serveur ou bureautiques. Si des problèmes apparaissent en raison d’un conflit ou d’une application mal construite, entraînant des plantages, redémarrages, écrans bleus, vidages de mémoire ou autres, vous pouvez essayer de régler les problèmes ou supprimer cette machine virtuelle plantée, faire une nouvelle copie de travail de votre machine originale et recommencer
L’économie d’énergie
Les machines virtuelles s’appuient sur l’ordinateur hôte pour fonctionner. Donc théoriquement, son coût électrique est nul. Bien que la consommation électrique du serveur hôte augmente avec le nombre de machines virtuelles qu’il héberge, celle-ci reste toujours très faible par rapport à ce qu’elle serait si plusieurs ordinateurs physiques avaient été achetés à la place des machines virtuelles. Cette faible consommation entraîne également une baisse des coûts de maintenance puisqu’étant donné que les machines virtuelles ne dégagent pas de chaleur, les achats en radiateurs pour refroidir la salle sont nuls. De plus, une baisse de la consommation a un effet positif sur notre environnement.
La Big data est un cas spécifique de combinaison de virtualisation de puissance de calcul et de virtualisation de stockage pour le traitement massivement parallèle de gros volumes de données variées distribuées sur des clusters d’ordinateurs. Lorsque l’on fait référence à la Big Data techniquement, on fait référence à :
la virtualisation du stockage (pour fournir le système de fichiers distribué)
la gestion des environnements virtuels
la virtualisation de la puissance de calcul pour exécuter des calculs avec une faible latence.
La Big Data s’appuie sur le Cluster computing et le traitement massivement parallèle, qui sont elles-mêmes deux formes distinctes de virtualisation.
Le « High Performance Processing » (traitement massivement parallélisé en environnement Cluster computing) est utilisé pour les applications qui demandent énormément de puissance de calcul, bien plus que ce qui est disponible. Ce type de virtualisation permet de paralléliser l’exécution de plusieurs tâches à travers un grand nombre d’ordinateurs. Un moniteur [logiciel] (type « zookeeper ») envoie les tâches à exécuter à chaque machine. Au fur et à mesure que les tâches sont exécutées, les résultats sont renvoyés au système ou à la machine sur laquelle tourne le moniteur pour la demande d’une nouvelle série de tâches. Cette approche est utilisée généralement pour gérer les problèmes de modélisation financière, simulations géographiques, analyses de risque, la recherche scientifique, et d’autres tâches qui demandent une grande puissance de calcul.
Le “Cluster computing” utilise la virtualisation de la mémoire et du stockage pour regrouper ensemble un grand nombre d’ordinateurs (appelés dans le jargon « compute node »). Dans cette configuration, un logiciel de mémoire cache distribué est utilisé pour distribuer les données dans un grand nombre de systèmes, rendant ainsi possible l’accès et la mise à jour d’une forte volumétrie de données très rapidement. Un Système de Fichiers de distribué de à l’exemple du HDFS (Hadoop Distributed File System) peut être utilisé pour accéder à ces données. Les serveurs de stockage peuvent utiliser un SAN pour l’espace de stockage distribué. Hadoop (et son HDFS) est un exemple typique de logiciel qui implémente ces technologies de virtualisation.
Pour la compréhension complète du concept, Voir http://en.wikipedia.org/wiki/Computer_cluster
Voir http://zookeeper.apache.org/
Voir http://hadoop.apache.org/
La Big data est un cas spécifique de combinaison de virtualisation de puissance de calcul et de virtualisation de stockage pour le traitement massivement parallèle de gros volumes de données variées distribuées sur des clusters d’ordinateurs. Lorsque l’on fait référence à la Big Data techniquement, on fait référence à :
la virtualisation du stockage (pour fournir le système de fichiers distribué)
la gestion des environnements virtuels
la virtualisation de la puissance de calcul pour exécuter des calculs avec une faible latence.
La Big Data s’appuie sur le Cluster computing et le traitement massivement parallèle, qui sont elles-mêmes deux formes distinctes de virtualisation.
Le « High Performance Processing » (traitement massivement parallélisé en environnement Cluster computing) est utilisé pour les applications qui demandent énormément de puissance de calcul, bien plus que ce qui est disponible. Ce type de virtualisation permet de paralléliser l’exécution de plusieurs tâches à travers un grand nombre d’ordinateurs. Un moniteur [logiciel] (type « zookeeper ») envoie les tâches à exécuter à chaque machine. Au fur et à mesure que les tâches sont exécutées, les résultats sont renvoyés au système ou à la machine sur laquelle tourne le moniteur pour la demande d’une nouvelle série de tâches. Cette approche est utilisée généralement pour gérer les problèmes de modélisation financière, simulations géographiques, analyses de risque, la recherche scientifique, et d’autres tâches qui demandent une grande puissance de calcul.
Le “Cluster computing” utilise la virtualisation de la mémoire et du stockage pour regrouper ensemble un grand nombre d’ordinateurs (appelés dans le jargon « compute node »). Dans cette configuration, un logiciel de mémoire cache distribué est utilisé pour distribuer les données dans un grand nombre de systèmes, rendant ainsi possible l’accès et la mise à jour d’une forte volumétrie de données très rapidement. Un Système de Fichiers de distribué de à l’exemple du HDFS (Hadoop Distributed File System) peut être utilisé pour accéder à ces données. Les serveurs de stockage peuvent utiliser un SAN pour l’espace de stockage distribué. Hadoop (et son HDFS) est un exemple typique de logiciel qui implémente ces technologies de virtualisation.
Pour la compréhension complète du concept, Voir http://en.wikipedia.org/wiki/Computer_cluster
Voir http://zookeeper.apache.org/
Voir http://hadoop.apache.org/
La Big data est un cas spécifique de combinaison de virtualisation de puissance de calcul et de virtualisation de stockage pour le traitement massivement parallèle de gros volumes de données variées distribuées sur des clusters d’ordinateurs. Lorsque l’on fait référence à la Big Data techniquement, on fait référence à :
la virtualisation du stockage (pour fournir le système de fichiers distribué)
la gestion des environnements virtuels
la virtualisation de la puissance de calcul pour exécuter des calculs avec une faible latence.
La Big Data s’appuie sur le Cluster computing et le traitement massivement parallèle, qui sont elles-mêmes deux formes distinctes de virtualisation.
Le « High Performance Processing » (traitement massivement parallélisé en environnement Cluster computing) est utilisé pour les applications qui demandent énormément de puissance de calcul, bien plus que ce qui est disponible. Ce type de virtualisation permet de paralléliser l’exécution de plusieurs tâches à travers un grand nombre d’ordinateurs. Un moniteur [logiciel] (type « zookeeper ») envoie les tâches à exécuter à chaque machine. Au fur et à mesure que les tâches sont exécutées, les résultats sont renvoyés au système ou à la machine sur laquelle tourne le moniteur pour la demande d’une nouvelle série de tâches. Cette approche est utilisée généralement pour gérer les problèmes de modélisation financière, simulations géographiques, analyses de risque, la recherche scientifique, et d’autres tâches qui demandent une grande puissance de calcul.
Le “Cluster computing” utilise la virtualisation de la mémoire et du stockage pour regrouper ensemble un grand nombre d’ordinateurs (appelés dans le jargon « compute node »). Dans cette configuration, un logiciel de mémoire cache distribué est utilisé pour distribuer les données dans un grand nombre de systèmes, rendant ainsi possible l’accès et la mise à jour d’une forte volumétrie de données très rapidement. Un Système de Fichiers de distribué de à l’exemple du HDFS (Hadoop Distributed File System) peut être utilisé pour accéder à ces données. Les serveurs de stockage peuvent utiliser un SAN pour l’espace de stockage distribué. Hadoop (et son HDFS) est un exemple typique de logiciel qui implémente ces technologies de virtualisation.
Pour la compréhension complète du concept, Voir http://en.wikipedia.org/wiki/Computer_cluster
Voir http://zookeeper.apache.org/
Voir http://hadoop.apache.org/
NB : les coûts donnés ici sont estimatifs
Cet article a eu pour but de parler de la virtualisation. Plus précisément, l’objectif pour nous a été de vous présenter la virtualisation d’un point de vue fonctionnel et métier afin que vous compreniez comment elle pouvait être une technologie de choix pour rendre l’entreprise agile, c’est-à-dire capable de réagir rapidement face aux changements du marché. Cela s’est fait en définissant ce que c’est que la virtualisation, en présentant les niveaux et types de technologies de virtualisation, les bénéfices de la virtualisation, les uses-case de la virtualisation et la liste de quelques fournisseurs en technologies de virtualisation.
De l’article, il ressort globalement que comme toute technologie, la virtualisation est une épée à double tranchant, c’est-à-dire qu’elle ne sera réellement bénéfique que si elle est stratégiquement alignés aux besoins et processus métiers de l’entreprise. C’est-à-dire qu’elle est utilisée conformément à des besoins métiers qui ont été clairement identifiés.
Si dans l’entreprise, les uses-cases ont bien été définis, les bénéfices suivants peuvent être réalisés en utilisant la virtualisation :
La réduction du coût Total de Possession du matériel informatique
La flexibilité de l’infrastructure informatique
Et l’optimisation de l’utilisation des serveurs entre autre.
Avant de se lancer dans la virtualisation, les entreprises doivent se poser les questions relatives à l’alignement stratégique, à savoir :
Quels sont les objectifs de l’entreprise ?
Qu’est ce qui doit être fait pour atteindre ces objectifs ?
Quels sont les partis impliqués dans l’atteinte de ces objectifs ??
Quelles technologies a-t-on besoin pour atteindre ces objectifs ?
Quel est le budget mis en place pour l’atteinte de ces objectifs ??
Est-ce que la configuration actuelle de l’entreprise est propice à la nouveauté ou au changement technologique ?
Clairement, les entreprises doivent avoir un plan, elles doivent implémenter les solutions selon ce plan et doivent contrôler attentivement l’exécution des opérations pour être sûr d’atteindre leurs objectifs. En ce qui concerne les choix stratégiques à opérer en matière virtualisation, si l’entreprise ne dispose pas en interne des spécialistes dans le domaine, il est fortement préférable qu’elle fasse appel à des consultants externes et des fournisseurs de solutions pour l’accompagner.