Africa teaching

Virtualisation de serveurs : l'âge industriel

Virtualisation de serveurs : l'âge industriel

En 2008, le nombre de machines virtuelles déployées dans le monde a dépassé pour la première fois le nombre de serveurs physiques vendus par les constructeurs. Désormais utilisés à l'échelle industrielle, les hyperviseurs devraient être déployés sur 21% des serveurs vendus en 2009. Dans 4 ans, IDC estime que 60% des serveurs vendus seront virtualisés. Consolidation, Green IT, accroissement de la disponibilité et flexibilité des infrastructure sont autant d'arguments qui prêchent en faveur de la technologie. Dans ce dossier, LeMagIT fait un point sur le phénomène de la virtualisation, sur ses grands acteurs et sur les écueils à éviter dans le cadre d'un projet de virtualisation.

Pour la première fois en 2008, le nombre de machines virtuelles mises en service sur des serveurs x86 virtualisés a dépassé le nombre de serveurs physiques vendus dans le monde. Ce chiffre d'IDC en dit long sur la révolution qui frappe actuellement les centres informatiques des entreprises. Selon IDC, un peu plus d'un serveur sur 5 vendu dans le monde en 2009 sera virtualisé et ce chiffre devrait atteindre 60% en 2013. à ce stade, l'essentiel de la production informatique mondiale tournera dans des machines virtuelles.

L'ironie est que cette adoption de la virtualisation dans l'univers des serveurs AMD et Intel est en quelque sorte un retour aux sources. Née il y a près de 40 ans dans le monde des grands systèmes IBM avec l'apparition de VM, la technologie a fait un retour progressif dans le monde des systèmes distribués au cours des années 90 avec les premiers pas des systèmes de partitionnement logique pour grands serveurs Unix. Aujourd'hui c'est l'univers des serveurs banalisés, sur processeurs Intel ou AMD, qui connaît à son tour un engouement pour la virtualisation, un engouement dopé par la popularité de VMWare - dont les technologies seraient utilisées sur 80 à 90% des déploiements sur le marché français selon les intégrateurs et constructeurs que nous avons interrogé -, mais aussi par la montée en puissance de ses concurrents, au premier rang desquels Citrix, avec XenServer, mais aussi Microsoft, Avec Hyper-V, et Oracle avec Oracle VM.

Des environnements de test à la production

Les débuts de la virtualisation de serveurs se sont effectués dans les environnements de test et de développement, un scénario logique, étant donné que de nombreux développeurs utilisaient déjà des outils de virtualisation sur leurs postes clients à des fins de test et avaient pu valider les bénéfices de ces outils. Pour de tels environnements, la virtualisation avait plusieurs bénéfices, le principal étant sans doute l'activation très rapide d'un nouveau serveur de développement. Avec un hyperviseur, il est en effet très facile de constituer une bibliothèque d'environnement prêt à l'emploi que l'on peut déployer d'un simple clic. Cela permet d'activer en quelques minutes un environnement de test, mais aussi de le détruire en quelques minutes si besoin. Une quasi-instantanéité à comparer aux heures ou aux jours qu'il fallait autrefois pour configurer un serveur de test. Il est aussi très simple de cloner un environnement actif pour tenter une manipulation et vérifier sa faisabilité avant de l'exécuter sur un environnement réel. Nombre d'entreprises ont ainsi commencé par mettre en œuvre des hyperviseurs dans leurs environnements de test et de développement. Le tout couplé à des interfaces permettant aux utilisateurs  de ces environnements d'activer eux-mêmes les machines virtuelles dont ils ont besoin.

Rapidement les entreprises ont ainsi pu tester les promesses de la virtualisation et les hyperviseurs ont peu à peu acquis leur lettre de noblesse, jusqu'à être jugés mûrs pour faire face aux exigence des environnements de production. C'est ainsi qu'en 2007, on a vu apparaître en France chez de nombreux grands comptes les premiers grands projets de virtualisation dans les datacenters.

La virtualisation, moteur de la consolidation de serveurs

La principale motivation pour l'adoption de la virtualisation reste la réduction des coûts liée à la consolidation de serveurs. C'est d'ailleurs avec cet objectif en tête que la plupart des grandes entreprises françaises ont lancé leurs projets de virtualisation. L'idée est relativement simple à comprendre. Un serveur x86 non virtualisé est en moyenne utilisé à 5 à 10%  de ses capacités (ce qui, soit dit en passant, en dit aussi long sur les dérives des constructeurs et des entreprises en matière de conception et d'achat de serveurs). En virtualisant, une quinzaine de ces serveurs sur une machine de nouvelle génération, on peut espérer atteindre un taux d'utilisation moyen de 60%, c'est-à-dire utiliser réellement la puissance que l'on a payée.

Quelques exemples permettent d'avoir une idée plus claire des impacts d'une telle consolidation. Chez France Télécom, les premières étapes du projet "Eco Center" ont abouti à des taux de consolidation pouvant atteindre 20 pour 1 (un serveur virtualisé moderne accueille 20 machines virtuelles et remplace vingt vieux serveurs de génération antérieure) en environnement VMware. À terme, l'opérateur espère éliminer environ 10 000 serveurs de son parc dans le cadre d'un vaste projet de rationalisation de ses 17 datacenters en 2 megadatacenters dont un situé à Val de Reuil près de Rouen. Chez Bouygues Construction, 150 serveurs biprocesseurs ont été remplacés par  6 machines quadri-processeurs virtualisées sous Hyper-V, soit une réduction de 96% du nombre de serveurs sur le périmètre impacté.

Un projet de consolidation de serveurs est une opération qui peut-être assez rapide. Un administrateur formé et opérant dans un cadre de migration bien défini (après une phase de pilote et maquettage de quelques mois) peut ainsi migrer une vingtaine machines physiques par jour. Lorsque cette opération de consolidation est réalisée de façon maîtrisée et avec les outils de migration adéquats, elle peut produire un retour sur investissement impressionnant. A la Poste, par exemple, 600 serveurs ont été remplacés par 50 serveurs virtualisés sous VMware, dégageant une économie allant de 30 à 50 % selon les cas. 

Quand économies et écologie font bon ménage

Ces gains s'obtiennent à de multiples niveaux. La consolidation permet tout d'abord de réduire sensiblement les dépenses en matériel, mais aussi de réaliser de considérables économies en matière d'hébergement de machines et de consommation électrique. Prenons par exemple le cas d'un datacenter où 100 serveurs biprocesseurs de génération antérieure sont remplacés par 8 serveurs quadri-socket en lames. Cette consolidation va permettre de faire passer la consommation typique  d'environ 30 KW/h à 6KW/h, tout en réduisant de façon drastique l'espace d'hébergement utilisé dans le datacenter.  La configuration cible n'occupera en effet que 7 U dans un rack de 19 pouces, alors que  la configuration d'origine occupait entre 1,5 et 2 racks (cas de serveurs lames) ou 3 racks pleins (cas de serveurs racks). Et c'est encore sans compter avec les bénéfices liés à la réduction de la connectique réseau et stockage générée par la consolidation de serveurs.

Si l'on accepte que dans un datacenter typique, non encore modernisé, la protection électrique et le refroidissement peuvent doubler la consommation, le passage du physique au virtuel de ces 100 serveurs générera une économie de près de 420 000 KW/h en année pleine, soit environ 30 000 €  de réduction de la facture électrique (sur la base d'un KWh facturé à 7 centimes en moyenne). Autant dire que pour des grands comptes, la virtualisation de 1000 ou 5000 serveurs peut rapidement générer des gains palpables.

Des scénarios qui dépassent la simple consolidation de serveurs

Mais les bénéfices de la virtualisation ne s'arrêtent pas à la seule consolidation. La technologie, bien utilisée, promet aussi une plus grande flexibilité de déploiement, la simplification de l'administration ainsi que des améliorations sensibles en matière de disponibilité, de continuité de service ou de reprises d'activité. Autant d'éléments qui participent de la création de ce que nombre d'analystes appellent le Datacenter dynamique. Cette transition vers plus de flexibilité requiert toutefois des investissements coûteux en matière de logiciels d'administration. Car si la consolidation ne requière guère plus de choses que la mise en œuvre des fonctions de base des hyperviseurs (et un usage judicieux d'outils de gestion de capacité), l'usage des fonctions avancées requiert en général l'activation de coûteuses options de licence, la mise en œuvre de logiciels additionnels (Lab Manager, module de Disaster Recovery,…). Sans compter la mise en œuvre de fonctions avancées dans les serveurs (telle la virtualisation des entrées/sorties réseaux ou stockage) et la mise en œuvre de configurations réseau et stockage avancées.

Les promesses fonctionnelles sont en revanche séduisantes. Tous les grands fournisseurs proposent ainsi des fonctions de provisionning automatique d'environnements virtuels, afin d'accélérer le déploiement de nouvelles applications ou plus simplement d'ajouter rapidement de nouvelles capacités à des applications dont la qualité de service commence à se dégrader.  Chez France Télécom, Loic Renaudon, le directeur du programme Eco Center explique ainsi que la virtualisation permet de répondre à une demande de déploiement d'un nouveau serveur virtuel en quelques heures, contre près de quatre semaines pour un serveur physique.

Tous les grands de la virtualisation proposent aussi des fonctions de haute disponibilité. Les  versions avancées de leurs hyperviseurs et de leurs outils de management sont ainsi capables de redémarrer automatiquement sur un nouveau serveur une machine virtuelle victime d'une panne matérielle sur un autre serveur). Dans la dernière mouture de vSphere, VMware va même jusqu'à intégrer la tolérance aux pannes. Citrix ne le propose qu'en option grâce à un partenariat avec Marathon – Stratus le propose aussi, mais dans sa propre version OEM du code de XenServer. Toujours chez VMware, l'outil SRM promet le redémarrage rapide de l'infrastructure virtualisée sur un site de secours en cas de défaillance de l'infrastructure primaire, une opération que l'outil réalise de concert avec les outils de réplication de données des grands fabricants de baies de stockage tels qu'EMC, HP, IBM, NetApp, 3Par, Compellent…

La virtualisation : un défi pour les hommes et les organisations

Tous ces nouveaux outils représentent un défi pour les administrateurs. Car pour tirer parti des fonctions les plus prometteuses des hyperviseurs, il faut mettre en place des architectures complexes, mettant en œuvre plusieurs niveaux d'abstraction et que l'humain a de plus en plus de mal à gérer sans l'assistance d'outils d'automatisation et d'administration avancés. D'autant que les frontières traditionnelles entre les différents composants de l'infrastructure informatique (serveurs, réseau et stockage) ont une fâcheuse tendance à s'estomper avec la virtualisation.

Les éditeurs l'ont d'ailleurs bien compris et multiplient les annonces de nouveaux outils d'administration, avec une attention toute particulière à des domaines comme le provisionning et le déploiement d'environnements virtuels (notamment les outils de LabManagement), les outils de gestion de capacité, les outils d'administration de performance… Derniers outils en date, les outils de refacturation (chargeback) ont commencé à faire leur apparition tant chez Citrix que chez VMware.

Ce dernier point est d'ailleurs révélateur de l'impact qu'à la virtualisation sur l'organisation des services IT. Car qui dit virtualisation dit mutualisation de capacités serveurs qui autrefois étaient dédiés à telle ou telle application ou service métier. Et qui dit mutualisation, dit nécessité de définir une forme de métrique pour pouvoir refacturer l'usage réel aux services métiers.

Reste que cette question de la refacturation est vue par certains comme la porte ouverte à plus d'externalisation. Car à terme avec l'avènement des architectures virtualisées en nuage, les services métiers vont pouvoir benchmarker bien plus facilement le coût de leurs services informatiques internes avec les prestations de tiers. La virtualisation de serveurs ouvrirait-elle la porte à celles des informaticiens ?

suite



12/08/2009
0 Poster un commentaire

A découvrir aussi


Inscrivez-vous au blog

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 157 autres membres