Depuis plusieurs mois maintenant, on constate que la virtualisation est au cœur de la plupart des projets d'implémentation et de refonte des systèmes d'information.
Migration vers un environnement virtualisé : entre mythe et réalité
Avec en ligne de mire les économies induites par la consolidation des systèmes et la souplesse offerte par la virtualisation, les considérations d’implémentation de l’infrastructure virtuelle sont souvent mal considérées ou sous-évaluées lorsque vient le moment de définir l’architecture.
On observe ainsi deux familles de caractéristiques appelant à implémenter une infrastructure virtualisée :
• La consolidation qui va permettre de bénéficier d’économies sur l’infrastructure matérielle en hébergeant un nombre important de systèmes sur un nombre limité de serveurs.
• La souplesse d’administration permettant une abstraction des systèmes avec les composants matériels qui les hébergent et ouvrant ainsi à une large gamme de logiciels, des scénarios de déplacements, haute disponibilité, sauvegardes, mises à jour, … des machines virtuelles.
Il ne faut donc pas se laisser bercer par les légendes urbaines ou les sirènes des commerciaux avant-vente prônant la consolidation à tout va et enchaînant promesse sur promesse sur les futures économies substantielles qui vont être faites. Aussi, il faut garder à l’esprit les réalités terrain propres aux spécificités de l’entreprise et aux applicatifs qui sont utilisés. La consolidation des machines a ainsi ses limites et il est courant que les éditeurs de solutions de virtualisation recommandent un ratio proche de 1 Cpu virtuel pour 1 cœur physique et une réservation de la mémoire, afin de garantir des performances optimales. Or, ce constat arrive en opposition des promesses précédemment entendues car les factures s’en trouvent au final alourdies. Surcoût principalement lié aux licences de l’infrastructure de virtualisation. Ce résultat est donc difficile à justifier auprès de la direction.
Pour déterminer l’architecture optimale, il est important d’évaluer le niveau de décrochage des performances de l’infrastructure. Pour ce faire, le besoin réel en ressources, des applications doit être mesuré afin de garantir leur fonctionnement dans des conditions idéales. Cette phase d’évaluation prend du temps, nécessite des ressources et une expérience significative sur le comportement des applications virtualisées. Jérémie L’Orphelin, Ingénieur stockage et virtualisation, témoigne : « Les processus permettant le dimensionnement des systèmes virtualisés au sein des entreprises ne prennent pas assez souvent en compte les capacités sous-jacentes des infrastructures virtualisées (hyperviseur, réseau, stockage, …).
Les esprits sont encore focalisés sur les capacités matérielles plutôt que sur les besoins applicatifs. Il est courant d’appliquer les préconisations des éditeurs sans une réévaluation liée à l’architecture cible. On constate aussi quotidiennement que des machines virtuelles sont surdimensionnées car on a gardé à l’esprit les réflexes inhérents à l’achat de matériel où il était nécessaire d’anticiper les besoins futurs très tôt dans le projet. Il était, en effet, souvent complexe de faire évoluer les capacités matérielles des machines à posteriori ». La souplesse d’administration est, elle aussi, mise à défaut par la gestion quotidienne de l’infrastructure virtuelle.
Certes, nous allons pouvoir « basculer à chaud » nos machines virtuelles d’un hôte physique à l’autre pour garantir la disponibilité des systèmes. Par contre, on devra redémarrer les machines virtuelles pour mettre à jour les composants d’intégration liée à la plateforme virtualisée lors de l’application de correctifs ou de montée de version sur les hyperviseurs… Dans ce sens, Microsoft vient d’annoncer le déploiement des futures versions de ses composants d’intégration via Windows Update, permettant d’homogénéiser le processus avec les mises à jour système.
Téléchargez cette ressource
Travail à distance – Guide IT et Métiers
Le travail à distance met à l'épreuve la maturité numérique des entreprises en termes de Cybersécurité, d'espace de travail, de bien-être des collaborateurs, de communication et gestion de projet à distance. Découvrez, dans ce nouveau Guide Kyocera, quels leviers activer prioritairement pour mettre en place des solutions de travail à domicile efficaces, pérennes et sécurisées.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- AI Speech double toutes vos vidéos !
- Finance : l’IA générative plébiscitée pour les décisions stratégiques
- Cybersécurité : les comportements à risque des collaborateurs
- Prédictions 2025 : voici comment l’intelligence artificielle va redéfinir la sécurité de 3 façons
- Top 5 des technologies à suivre en 2025 et au-delà !