De nos jours, peu d'entreprises n'ont pas encore envisagé la virtualisation de leur infrastructure réseau afin de réduire les coûts, d'améliorer la gestion de la flexibilité et d'optimiser leur productivité.
Une bonne visibilité permet de tirer le meilleur parti de la virtualisation
Toutefois, les écueils liés à la virtualisation sont nombreux et les organisations doivent désormais passer d’une virtualisation tactique à stratégique : en effet, en améliorant l’efficacité de la gestion de trafic et en étendant les bonnes pratiques de monitoring au monde virtuel, les entreprises pourront tirer davantage de bénéfices de la virtualisation.
La virtualisation et le réseau invisible.
Alors que de plus en plus de données migrent vers les serveurs virtuels, une part croissante du trafic réseau se passe par des machines virtuelles résidant sur un même serveur.
Ainsi, lorsque les paquets de données arrivent sur le réseau physique, ils restent encapsulés pour assurer la livraison à la destination appropriée.
Afin de maintenir la prestation de service de bout en bout et d’optimiser les performances, les flux de données sélectionnées entre les machines virtuelles sur le même serveur – ou à travers d’autres hébergeurs – nécessitent d’être extraits et livrés à des outils de suivi externe et ce, sans avoir d’impact sur la sécurité ou la productivité.
Cependant, les chemins empruntés par les données d’application dans l’infrastructure de commutation virtuelle sont un peu « nébuleux » et le manque de visibilité empêche le diagnostic et le suivi efficaces des problèmes.
Cette contradiction rend la gestion et le monitoring des infrastructures virtualisées par des approches traditionnelles très difficiles.
Au cours des dernières années, de nombreuses manières de gérer le monitoring des environnements virtualisés ont été expérimentées.
Par exemple, des technologies ont été développées pour permettre la migration en direct des machines virtuelles d’un serveur physique à un autre, autorisant la création de machines virtuelles auto-optimisées en continu.
Cependant, malgré les avantages de ces solutions, c’est une nouvelle couche de complexité qui s’ajoute au réseau, obligeant ainsi les administrateurs à assurer le suivi et les mises à jour afin de tenir compte des nombreux – et inévitables – changements au sien de l’infrastructure serveurs. Le manque de traçabilité et le suivi de l’historique des événements est également un problème, car les configurations peuvent être compromises lorsque les machines virtuelles sont constamment déplacées.
Rendre la vue aux administrateurs
L’approche la plus efficace consiste à introduire des techniques de filtres intelligents qui permettent à des flux spécifiques, entre les machines virtuelles ou à travers le même serveur, d’être sélectionnés, transférés et délivrés aux outils de monitoring, d’analyse et de sécurité appropriés.
Ces solutions ne nécessitent pas d’agents intrusifs ou de modification de l’hyperviseur, et permettent aux gestionnaires du système d’obtenir la même visibilité du trafic au niveau des paquets entre les applications virtualisées que celle déjà disponible entre les applications et les serveurs physiques distincts.
Téléchargez cette ressource
Travail à distance – Guide complet pour les Directions IT et Métiers
Le travail à distance met à l'épreuve la maturité numérique des entreprises en termes de Cybersécurité, d'espace de travail, de bien-être des collaborateurs, de communication et gestion de projet à distance. Découvrez, dans ce nouveau Guide Kyocera, quels leviers activer prioritairement pour mettre en place des solutions de travail à domicile efficaces, pérennes et sécurisées.
Les articles les plus consultés
- Cloud Adoption 2018
- L’Azure Lab Experience du 5 juin 2018 adressera la synchronisation de vos serveurs de fichiers dans le Cloud
- Modèle de benchmark / modèle de performance SI : lequel choisir ?
- Le Cloud : une accélération depuis la crise du Covid-19
- Quels sont les bénéfices d’une stratégie multi-Cloud ?