Ce mois-ci, revenons aux origines de la virtualisation ! Pourquoi la virtualisation a-t-elle intégrée toutes les strates de nos systèmes informatiques ? Est-ce un eldorado technologique ? Est-ce un argument marketing magique qui peut s'appliquer à tout et qui permet de tout vendre ? La réponse se trouve entre ces deux extrêmes et c'est ce que je vais présenter dans le présent billet.
La virtualisation … Pourquoi ? Comment ?
Si on en revient aux origines, ce qui a participé à l’expansion et à l’adoption massive de l’informatique vient en partie de la capacité offerte à tous de pouvoir participer à son amélioration. Naturellement, cette contribution prend différentes formes selon les capacités, l’imagination ou la vision de chacun.
Or, lorsqu’une population de plus en plus large participe et apporte sa fonctionnalité, son périphérique, son logiciel, … la complexité induite rend la compatibilité entre ces composants de plus en plus difficile. L’équilibre nécessaire est fragile pour que tout ce petit monde cohabite sans que cela soit au détriment de la fiabilité ou des performances générales du système les accueillant.
La virtualisation … Pourquoi ? Comment ?
Le résultat est notre incapacité à gérer les systèmes de plus en plus complexes auxquels nous sommes confrontés. En effet, la nature des architectures que nous manipulons quotidiennement ne facilitent ni l’installation, ni la maintenance ou le dépannage. Aussi, il n’est plus possible à notre époque d’envisager d’installer tous les composants dont nous avons besoin sur un seul système d’exploitation. Et ceci même s’il dispose de suffisamment de ressources brutes pour permettre d’exécuter l’ensemble. Cet ensemble est perçu comme un vrai château de cartes et on en arrive à se dire « Tant que ca marche, je n’y touche pas ! ».
La solution est la segmentation, ce que nous offre la virtualisation
Pour cela, on crée une couche d’abstraction permettant de contrôler l’accès aux ressources quel que soit le niveau dans l’architecture du système. La virtualisation permet d’obtenir potentiellement plusieurs processus mémoire, plusieurs bases de registre et plusieurs systèmes d’exploitation fonctionnant en parallèle sur nos serveurs et dans nos SI.
Cela permet à une nouvelle population de collaborateurs de manipuler les composants de l’infrastructure avec une plus grande souplesse et une plus grande liberté car sans agir directement sur la configuration des composants.
On manipule maintenant des conteneurs virtuels: Je veux supprimer un programme qui ne répond plus ? Je supprime le processus (donc la mémoire et l’espace de swap du disque) liée à l’application. Je veux déplacer mon système d’exploitation car mon serveur ne démarre plus ? Je déplace la machine virtuelle (donc le disque virtuel et sa configuration) sur un autre serveur.
À ce jour, le concept de virtualisation est donc profondément ancré dans nos systèmes informatiques et continuera à s’étendre … À l’évidence, l’avenir est prometteur pour les spécialistes de la virtualisation.
Téléchargez cette ressource
Travail à distance – Guide IT et Métiers
Le travail à distance met à l'épreuve la maturité numérique des entreprises en termes de Cybersécurité, d'espace de travail, de bien-être des collaborateurs, de communication et gestion de projet à distance. Découvrez, dans ce nouveau Guide Kyocera, quels leviers activer prioritairement pour mettre en place des solutions de travail à domicile efficaces, pérennes et sécurisées.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- AI Speech double toutes vos vidéos !
- Finance : l’IA générative plébiscitée pour les décisions stratégiques
- Cybersécurité : les comportements à risque des collaborateurs
- Prédictions 2025 : voici comment l’intelligence artificielle va redéfinir la sécurité de 3 façons
- Top 5 des technologies à suivre en 2025 et au-delà !