En tant que principal hyperviseur de Microsoft, Hyper-V est en lice pour atteindre des performances à la hauteur du meilleur de ce que peut fournir la concurrence.
Ce dossier est issu de notre publication IT Pro Magazine (06/11). Pour consulter les schémas et illustrations associés, rendez-vous dans le club abonnés.
Pour y parvenir, l’éditeur a noué des partenariats très étroits avec Intel Corp. et AMD Inc. sur les technologies VT et V respectivement.Ce faisant, il voulait être certain que le matériel des fabricants de puces pourrait gérer la virtualisation. Microsoft a alors bâti Hyper-V par-dessus. Sur cette lancée, l’éditeur a poursuivi sa collaboration avec Intel et AMD concernant la mémoire et la virtualisation d’E/S, afin de réduire la charge processeur d’Hyper-V jusqu’au point où les utilisateurs peuvent exécuter des charges de travail très volumineuses et gourmandes en ressources processeur et en espace disque.
« Certains de nos clients exécutent SQL, Exchange, etc. dans ces environnements et ils sont tous très satisfaits des niveaux de performances atteints », déclare Neil.
Le manque de capacité de surallocation de mémoire est devenu un point délicat pour Hyper-V, lequel a mis également du temps à bénéficier de la fonction de migration en direct. Microsoft a résolu le problème de surallocation de mémoire dans Windows Server 2008 R2 SP1. Le produit dont la bêta est sortie en juin 2010 en était toujours au même stade début octobre. La réponse proposée est la mémoire dynamique, une technologie considérée par Microsoft comme moins risquée que la surallocation de mémoire prise en charge par VMware. La surallocation de mémoire est une fonction d’hyperviseur qui permet à une VM de consommer plus d’espace mémoire que celle dont dispose un hôte physique.
Avec la mémoire dynamique, les invités participent avec Hyper-V à la gestion de la mémoire sur toutes les VM exécutées. Le mécanisme consiste à fractionner la mémoire physique sur toutes les VM, puis à la déplacer entre elles selon les besoins. Ce faisant, l’OS invité s’exécutant sur la VM est conscient du déplacement dynamique de la mémoire, de sorte qu’il n’y a jamais de situation de surallocation.
« Ainsi, vous accédez à bon nombre des mêmes avantages en ce sens que vous avez plus d’instances virtuelles sur une même plate-forme physique, d’où une densité nettement plus élevée. En revanche, vous courez moins de risques du fait de l’absence de surallocation des ressources. De même, vous n’aboutissez pas à une situation de dégradation des performances et de défaillance », explique Neil.
De l’avis de Bartoletti, malgré les avancées d’Hyper-V, VMware a encore au moins cinq ans de suprématie technologique devant lui par rapport à Citrix XenServer et Hyper-V. En effet, les récentes versions des deux produits commencent seulement à rattraper leur retard sur VMware en matière de performances brutes, d’évolutivité brute et de puissance brute dans le centre de données. « D’après moi, cela explique les propos nettement plus nombreux de Microsoft sur le poste de travail et une intégration nettement plus étroite avec Citrix, lequel, dans de nombreux cas, possède le poste de travail et la fourniture d’applications sur celui-ci », indique Bartoletti.
Selon Neil, Hyper-V a déjà apporté la preuve de ses progrès techniques en concurrençant VMware dans le domaine de la virtualisation de serveurs, un marché toujours très lucratif où VMware a régné très longtemps en maître. « Nous freinons leur croissance, nous leur prenons des parts de marché et nos délais de commercialisation sont plus rapides », déclare-t-il.
Margevicius s’intéresse moins aux comparaisons techniques entre Hyper-V et vSphere, mais plus au produit optimal en termes de valeur. Selon lui, les clients bien engagés dans la virtualisation ont adopté les produits VMware en standard et repoussent réellement les limites de son ensemble de fonctionnalités. Ils considèrent VMware comme un meilleur produit, même s’il n’apporte pas forcément la meilleure valeur.
« Toutefois, pour les utilisateurs qui en sont seulement aux débuts et ont des exigences minimales, la valeur constitue un aspect plus important et l’intégration d’Hyper-V dans le produit serveur en fait clairement une très bonne alternative pour tous ceux qui n’ont pas encore adopté la virtualisation », ajoute-t-il.
Téléchargez cette ressource
Travail à distance – Guide IT et Métiers
Le travail à distance met à l'épreuve la maturité numérique des entreprises en termes de Cybersécurité, d'espace de travail, de bien-être des collaborateurs, de communication et gestion de projet à distance. Découvrez, dans ce nouveau Guide Kyocera, quels leviers activer prioritairement pour mettre en place des solutions de travail à domicile efficaces, pérennes et sécurisées.