Virtualisation, un pas supplémentaire vers le « tout en réseau »

Par Sébastien Moinet
Directeur des opérations d’Opteams (société de services spécialisée dans la virtualisation).

Déclenchée il y a plus de vingt ans, la vague des architectures clients/serveurs a connu un premier ralentissement avec la généralisation d’Internet. Depuis quelques années, la virtualisation constitue une nouvelle digue, ou pour le dire positivement, une nouvelle façon de penser l’informatique. La logique en est simple : pourquoi continuer « d’empiler » des serveurs coûteux à acquérir et à maintenir et finalement sous-utilisés ? Avec la virtualisation, chaque nouvelle application à mettre en production dispose d’un serveur logiciel – et non plus matériel. Ce passage du physique au virtuel entraîne un ensemble de bénéfices pour les entreprises et les administrations qui adoptent cette technologie.

La finance en premier déclencheur

Le premier de tous est d’ordre économique. Les technologies de virtualisation proposées par VMWare (pionnier du marché, racheté par EMC), Microsoft (HyperV) ou Citrix (XenServer) font qu’une centaine de serveurs physiques sont remplacés par deux à trois puissantes machines. Si la dépense initiale est plus importante, le retour sur investissement s’obtient en général en moins de deux ans. Le coût de possession est réduit de façon impressionnante puisque le parc d’unités centrales, de disques, de cartes est divisé par un facteur de dix à cent… Le deuxième déclencheur provient de la simplicité, de la qualité et de la puissance conférées par la virtualisation. Avec un minimum de deux à trois machines travaillant en grappe (cluster), les opérations de mise à jour et les éventuelles pannes d’un serveur n’entraînent plus d’interruption du service ou alors de façon très limitée dans le temps, puisque toutes les applications sont instantanément rapatriées vers un serveur physique disponible. Nombre d’organisations ont justement fondé leurs plans de reprise d’activité sur la virtualisation. Enfin, l’aspect informatique « verte » n’est pas négligeable non plus dans la motivation à basculer vers moins de serveurs physiques.

Souplesse et qualité de service

Le système d’informations dans son ensemble gagne aussi en souplesse et en réactivité. Déployer une nouvelle application se fait en quelques minutes heures puisque le socle matériel a été défini une fois pour toutes. Cela s’apparente à l’activation de services pratiquée par les opérateurs de télécommunications. Ces applications, selon leur degré d’importance, ne sont pas logées à la même enseigne. L’hyperviseur (le système d’exploitation en charge de la virtualisation) propose en effet une gestion différenciée des ressources(processeurs, mémoire, cartes, baies de stockage, réseau, disques) selon la nature des programmes utilisés. Cet effet «caméléon» offert par la virtualisation permet aussi aux fournisseurs de service en ligne de facturer leurs prestations non plus par machine dédiée, mais par ressource consommée. Les clients bénéficient ainsi de tarifs adaptés à leur usage réel.

Une démarche accessible dès une dizaine de serveurs

Face à de tels avantages, existent-ils des freins ? Ils sont peu nombreux. La virtualisation ne se prête pas par exemple au regroupement d’applications et d’environnements trop spécifiques : calculs graphiques dans les secteurs du multimédia ou du jeu vidéo, simulation numérique, conception assistée par ordinateur dans l’industrie. Par ailleurs, le coût d’investissement initial peut être conséquent (licences de virtualisation, serveurs physiques nécessaires à leur fonctionnement, baies de stockage, formation des informaticiens) si l’on souhaite tirer parti de tous les avantages de cette technologie. Hormis cela, toute entreprise ou collectivité qui dispose d’une dizaine de serveurs constitue un candidat potentiel à la virtualisation, d’autant plus si les machines arrivent en fin de vie. En regroupant des applications dispersées, la virtualisation établit un pont entre le passé informatique (les grands ordinateurs centralisés) et son avenir (une architecture qui ira de plus en plus consommer des ressources situées extra muros, dans le « nuage » d’Internet). Aujourd’hui, la virtualisation a fait ses preuves à l’échelle de plusieurs centaines d’applications. Pour ce qui est de basculer vers le tout en réseau, il faudra sans doute patienter encore et lever les craintes liées à la confidentialité et à la sécurité de données hébergées chez des tiers.

____________________________________________
Le blog des experts en informatique  - ORSYS Formation - Le blog informatiquewww.orsys.fr


Cette entrée a été publiée dans Tribune de l'Expert, avec comme mot(s)-clef(s) , , , , , , , , , , , , . Vous pouvez la mettre en favoris avec ce permalien.

Commentaires

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*