Personnalisation de l’affichage dans Active Directory
Dès sa conceptionActive Directory est une base de données constituée d’attributs et de classes. Une classe est un regroupement d’attributs constituant un objet. Le schéma, qui est le squelette de la base de données Active Directory, n’est pas figé, celui-ci peut être facilement étendu. Cependant, beaucoup d’administrateurs se demandent comment afficher un attribut qui aurait été ajouté au schéma Active Directory. Voici comment personnaliser cet affichage.
Lire l'articleDiagnostiquer les problèmes de performance d’AD
Tôt ou tard, ça devait arriver : la performance de votre AD (Active Directory) s’est brusquement dégradée sans raison apparente. La semaine dernière encore, tout se passait bien ; mais cette semaine vous avez reçu cinq ou six doléances à propos de logons léthargiques, d’échecs des consultations du carnet d’adresses Microsoft Exchange Server, et de lents démarrages d’applications.En appliquant Performance Monitor à chacun de vos DC (domain controller), vous constatez que, sur l’un d’eux, l’utilisation de la CPU est bloquée à 100 % la plupart du temps. Pourtant rien n’a changé et tout le reste semble fonctionner correctement. Alors que faire ?
Heureusement il existe Windows Server 2003 Performance Advisor (SPA). C’est un utilitaire d’analyse de performances aussi efficace qu’inconnu, que Microsoft propose depuis plus de deux ans. Il automatise la collecte des données de configuration, de ETW (Event Tracing for Windows) et du compteur de performances provenant d’un ou plusieurs serveurs, passe à la moulinette la masse de données ainsi obtenue et en tire des rapports de performances d’une grande clarté, avec des alertes et des recommandations sur la manière de redresser la situation. SPA est livré avec des collecteurs de données prédéfinis et des règles de performances pour des serveurs de fichiers génériques, des DC AD, des serveurs DNS et des serveurs utilisant Microsoft Internet Information Service (IIS).
Révisez vos bases de la conception avec SQL Diagrammer
Depuis combien de temps n’avez-vous pas effectué de la modélisation des données ? Etait-ce hier ? Le mois dernier ? Il y a une éternité, pendant vos études universitaires ? Si vous entrez dans la dernière catégorie, quelle est votre excuse ?A) Je n’en ai pas besoin pour mon travail.
B) Je n’ai pas le logiciel approprié.
C) Je ne sais pas comment procéder.
Si vous avez répondu par B) ou C), j’ai de bonnes nouvelles à vous annoncer : si vous avez SQL Server 2005 ou 2000, vous disposez d’un outil de modélisation de données intégré. Parfois connu sous l’appellation outils DaVinci ou Concepteur de bases de données, le concepteur de diagrammes SQL Server ou SQL Server Diagrammer est disponible dans l’arborescence de SQL Server 2005 Management Studio sous la forme « Database Diagrams » et en tant que « Diagrammes » (Diagrams) dans la console SQL Server 2000 Enterprise Manager. C’est ce logiciel qui vous aidera à décrire vos schémas de base de données et même à concevoir vos futures bases de données. A mesure que nous allons explorer cet outil élémentaire, vous verrez comment il peut vous donner une bonne représentation visuelle facilement exploitable de vos bases de données.
Aucun travail d’indexation, aucune programmation intelligente ou aucun matériel plus puissant ne peut contrebalancer une conception médiocre. En revanche, si vous commencez par modéliser et par réaliser la conception appropriée, vous serez bien parti pour obtenir une base de données très performante. (Pour en savoir plus sur l’importance et les avantages d’une bonne conception de base de données, lisez l’encadré Web « Why Model? », http://www.itpro.fr (Club Abonnés), et pour une présentation de la modélisation dimensionnelle appliquée à l’analyse décisionnelle, consultez l’article « Les bases de la modélisation dimensionnelle », dans SQL Server Magazine Juin 2006.)
Le logiciel de modélisation est utilisé de deux manières : pour décrire et pour concevoir. En mode description, il sert à cataloguer l’existant : les systèmes, processus, référentiels de données, applications et systèmes logiciels qui concourent à la réussite de votre entreprise, ainsi que les documents qui décrivent les méthodes employées pour accomplir les tâches. En mode conception, vous vous tournez vers l’avenir. Vous écoutez les griefs et problèmes des utilisateurs, à savoir des employés en première ligne jusqu’aux échelons de direction (par ex., PDG, Directeur financier) et vous allez utiliser le logiciel de modélisation pour concevoir les structures de données permettant d’atténuer ces griefs et problèmes. Il existe de nombreux logiciels pour la modélisation de bases de données et l’encadré Web « Describe and Design », http://www.itpro.fr (Club Abonnés), présente les types de fonctionnalités des différents outils disponibles. L’outil de modélisation de SQL Server est relativement basique. Il est idéal pour la tâche de description et il serait donc plus approprié de le considérer comme un outil de conception de diagrammes, plutôt qu’un outil de modélisation. Pour les besoins de cet article, je ferai référence au concepteur de diagrammes SQL en tant qu’outil de modélisation et aux graphiques qu’il crée en tant que modèles. Une fois familiarisé avec le fonctionnement du concepteur de diagrammes SQL, vous pour
Deux outils pour une optimisation permanente de SQL Server
Depuis des années, le support technique de Microsoft (PSS) se sert de deux outils, OSTRESS et Read80Trace, afin de simuler des scénarios et d’analyser des fichiers de trace SQL Server pour le compte de ses clients. Au cours de l’édition 2004 de la conférence PASS (Professional Association for SQL Server), ces outils ont été dévoilés au public.Les DBA et développeurs SQL Server verront dans OSTRESS un outil appréciable pour la mise en oeuvre de scénarios de test de charge complexes et Read80Trace les aidera à analyser des fichiers de trace SQL Server afin de résoudre des problèmes de performances. Cet article propose quelques scénarios d’utilisation détaillés pour ces outils et fournit des indications afin de les mettre en oeuvre efficacement.
Optimiser Exchange Serveur 2003
Microsoft Exchange Server 2003 est une application très sensible pour le serveur sur lequel vous allez l’installer. Trois éléments seront facteurs clés du bon niveau de performance de votre messagerie : la gestion de la mémoire, la configuration du sous-système disque et la configuration des transactions entre le client de messagerie et le serveur...
Lire l'articleOptimisation des bases de données MS SQL Server – Partie 2
Seconde partie : le serveur - ressources physiques, ressources logiquesJe pose souvent la question en ces termes lors des formations que je donne : parmi les différentes formes d’informatique, laquelle nécessite les machines ayant les plus grandes ressources ? La plupart du temps, les étudiants et les stagiaires m’affirment que c’est l’informatique scientifique, gavée des exploits des antiques Cray et de Deep Blue et des monstres utilisés pour les calculs de la météo. D’autres pensent que ce sont les machines de la conquête spatiale… Peu savent que l’on trouve les systèmes les plus étoffés dans l’informatique de gestion. Un système comme SABRE de United Airlines fut longtemps l’un des systèmes de gestion de bases de données les plus énormes qui soit.
Ce besoin de ressources est lié à deux composantes : des calculs, certes souvent peu complexes, mais surtout la volumétrie des données à manipuler. Des quantités de données parfois si gigantesques qu’il convient de répartir la charge sur de multiples machines car pour certaines bases, aucun ordinateur au monde n’a encore la capacité de traiter seul et dans des temps de réponse acceptables les masses des données en jeu.
Finalement un serveur n’est rien d’autre qu’un ordinateur dont on a sciemment atrophié certains éléments afin de les rendre plus performants qu’un PC de bureau. Voyons ce qu’un serveur n’a peu ou prou besoin. Il n’a pas bien besoin d’un écran puisque qu’il se doit d’être scruté par l’intermédiaire d’autres machines. Il n’a pas non plus réellement besoin d’un clavier ni d’une souris pour les mêmes raisons. En revanche, nous pouvons convenir qu’il a besoin de beaucoup de mémoire comme nous l’avons vu au chapitre précédent. Il a besoin de processeurs rapides (notez le pluriel), de disques de grande capacités dotés des temps de réponses les plus courts. Ce sont donc ces trois axes que nous allons étudier dans cet article. Nous verrons cela du côté physique puis du côté logique. Nous en tirerons quelques nouvelles règles propres à établir les préconisations que tout un chacun doit pouvoir spécifier afin de choisir une machine et la configurer au mieux en fonction de son budget.
Compression : notions fondamentales
Les routines de compression recherchent les séquences de données récurrentes dans les fichiers, puis remplacent celles-ci par des séquences de bits plus courtes, appelées jetons. Les fichiers qui contiennent de nombreux bits récurrents tirent le meilleur parti possible de la compression.Par exemple, vous pouvez réduire sensiblement la taille de la majorité des fichiers en mode point et des documents Word. En revanche, les fichiers JPEG sont déjà compressés et les avantages à essayer de réduire davantage leur taille sont limités, voire nuls.
Lire l'articleOptimisation des bases de données MS SQL Server – Partie 1
On a beau répéter que l'optimisation de bases de données ne relève pas d'outils ni d'automatismes, mais du simple artisanat, il y a toujours quelques personnages pour prétendre qu'il suffit de faire ceci ou cela, pour obtenir de bonnes performances. Si les choses sont plus complexes qu'il n'y paraît, il n'en reste pas moins vrai que certains principes simples et des règles d'une grande évidence qui devraient guider l'équipe en charge du développement d'un projet informatique, sont souvent ignorées voire sciemment bafouées.
Cette série d'articles a pour but de présenter l'optimisation des bases de données sous toutes ses facettes. Il ne s'agit pas d'un cours technique (pour cela la place manquerait), mais plus globalement d'une réflexion sur les erreurs à ne pas commettre, celles à rectifier et les mesures à prendre dans le cadre de l'exploitation courante d'une base de données.
Compressez vos données
Les .NET Framework pour étendre la puissance de SQL Server 2005.
SINGLE SIGN-ON: Finis les mots de passe SYSTEM i
Si seulement vous n’aviez plus jamais à vous connecter à votre System i ! Imaginez la satisfaction de vos utilisateurs finaux cliquant sur l’icône System i et obtenant immédiatement leur menu d’applications principal. Imaginez encore : Aucune invite de la part du serveur sign-on (la petite boîte GUI qui vous demande votre ID et mot de passe utilisateur) et pas d’invite 5250 Telnet redemandant ce que vous venez juste de taper dans la boîte GUI du serveur sign-on.En voilà assez de devoir cliquer sur l’icône System i et de nous connecter à la boîte du serveur sign-on, puis de recommencer le sign-on pour chaque session Telnet sur écran passif. Pourquoi en est-il ainsi ? Nous pensons que c’est stupide et nos utilisateurs finaux pensent que c’est ridicule. Tout le monde a raison : c’est à la fois stupide et ridicule.
Combien d’argent et de ressources économiserions-nous si personne ne devait plus appeler le help desk ou l’administrateur système pour redéfinir un mot de passe i5/OS ou réactiver un profil utilisateur. Une enquête du Gartner Group estime que le coût moyen d’un appel pour redéfinir un mot de passe est d’environ 31 dollars. Si 300 utilisateurs font un tel appel une fois par an, une simple multiplication nous donne un coût d’environ 9 300 dollars. Mais nous en connaissons qui appellent beaucoup plus souvent ! Alors débarrassons-nous simplement des mots de passe i5/OS de nos utilisateurs finaux. Ils ne risquent pas d’oublier un mot de passe qu’ils n’ont pas. Elémentaire, non ?
Quand j’entends parler du SSO (single sign-on) d’entreprise, j’entrevois aussitôt un paradis où les utilisateurs n’ont qu’un ID et un mot de passe (ou un autre mécanisme d’authentification du genre biométrie). Cette authentification unique les conduit partout où ils ont envie d’aller : tous les serveurs de la société, tous les sites Web protégés par mot de passe et toutes les autres applications telles que la messagerie électronique, la gestion de la relation client (GRC) et l’informatique décisionnelle (BI, business intelligence).
En ce sens, SSO est un fantasme. Même si certains éditeurs de logiciels le considèrent comme le Graal, personne ne peut en montrer un exemple convaincant. Quand je parle de SSO, je pense réellement à une définition très étroite visant à réduire simplement le nombre de dialogues sign-on que les utilisateurs doivent effectuer pour faire leur travail. C’est pourquoi je préfère désigner ce concept sous le son de sign-on réduit.
Créez votre propre bibliothèque de code
Les développeurs de base de données ADO.NET utilisent fréquemment les chaînes T-SQL afin de récupérer des données pour leurs applications. Si leur connaissance de la conception d’une base de données et/ou du langage T-SQL est insuffisante, le processus de création des chaînes pour leurs applications peut aboutir à des conceptions d’accès aux données inefficaces, voire à des ensembles de résultats présentant des valeurs erronées.Dans ce type de situation, la réutilisation du code T-SQL dans des objets de base de données tels que des procédures stockées et des fonctions définies par l’utilisateur (UDF) présente des avantages particuliers. Cette approche peut contribuer à simplifier la tâche d’accès aux données et sécuriser le schéma d’une base de données. Un développeur ou DBA confirmé peut préparer une bibliothèque de code T-SQL qui sera ensuite réutilisée par des développeurs débutants ou un peu aguerris pour de nombreuses tâches courantes d’accès aux données. Le développeur ou DBA peut en outre exiger que les applications client se connectent via des comptes de sécurité qui ont le droit d’appeler les procédures stockées et fonctions UDF de la bibliothèque, mais pas nécessairement les objets sous-jacents.
Dans cet article, nous allons étudier les techniques pour le traitement des procédures stockées et des fonctions UDF avec ADO.NET et Visual Basic .NET. Pour ce faire, nous allons utiliser deux exemples d’applications s’appuyant sur les tables Categories et Products de la base de données exemple Northwind. Vous pouvez réaliser une jointure entre ces deux tables sur les valeurs de la colonne CategoryID. Il est possible d’adapter les exemples de code présentés ici afin des les appliquer à toute paire de tables jointes sur une ou plusieurs paires de valeurs de colonne. Les exemples de code T-SQL sont également utiles à un autre titre : ils exposent les techniques pouvant servir à améliorer la réutilisabilité du code.
Ces techniques incluent l’utilisation de paramètres d’entrée, de paramètres de sortie et de valeurs d’état de retour avec des procédures stockées, ainsi que la mise en oeuvre de valeurs scalaires et de valeurs de type table retournées par les fonctions UDF. En apprenant ces techniques et en les appliquant dans vos applications, vous décuplerez la réutilisabilité du code T-SQL dans vos procédures stockées et fonctions UDF. (Vous pouvez cependant appliquer les techniques Visual Basic .NET présentées dans cet article avec n’importe quel langage .NET qui met en oeuvre la programmation ADO.NET, tel que C#).
Il me faut plus de débit, 1ère partie
Quelles que soient la configuration et l’installation d’un système, il arrive que la charge de travail consomme toute la capacité de traitement, ralentisse le débit, et allonge le temps de réponse. De la même façon que votre activité a besoin de changement, votre système demande des améliorations de performances, et ce bien que vous ayez alloué le maximum de matériel. Cet article s’intéresse à quelques scénarios de ralentissement et indique comment atténuer leur effet.
Lire l'articleLes API à l’oeuvre – avec des JOBS
Il n’est pas si facile de mettre les API au travail. En effet, elles renvoient des données en différents formats, par diverses méthodes, et certaines API ont des listes de paramètres complexes. En outre, il n’est pas toujours facile de percevoir immédiatement le sens d’un message d’erreur. Cependant, au fur et à mesure que vous gagnerez en expérience, vous saurez où commencer à chercher l’information et comment régler les difficultés en cours de route.En particulier, les API Open List offrent de riches fonctions et des paramètres de filtrage nombreux et efficaces, qui vous permettent de braquer le projecteur sur le sous-ensemble exact d’entrées de liste que votre programme ou utilitaire vise. Ces API ont aussi un paramètre d’information de tri, permettant de trier la liste obtenue d’après tous les critères imaginables. Mieux encore, vous pouvez spécifier quels champs l’API devrait renvoyer dans ces paramètres de données de renvoi, pour lui éviter de gaspiller des cycles de CPU à extraire des informations sans intérêt. Finalement, les API Open List peuvent construire la liste ouverte de manière asynchrone en arrièreplan. Vous pouvez donc démarrer le traitement de la liste avant qu’elle soit terminée, afin que la construction et le traitement de la liste aient lieu en parallèle, pour accélérer l’ensemble du processus.
A l’origine, IBM a créé les API Open List pour supporter des applications client/serveur et elle s’est efforcée de les rendre aussi souples et fonctionnelles que possible. System i Navigator est un exemple d’application client qui bénéficie des API Open List. (Il est important de noter que, avant la release V5R3, les API Open List faisaient toutes partie de Host Server (5722-SS1 option 12) du système d’exploitation et étaient situées dans la bibliothèque QGY. A partir de la V5R3, les API Open List ont été intégrées dans l’OS de base. Si vous travaillez sur une version V5R2 ou antérieure, vous pouvez utiliser la commande Display Software Resources (DSPSFWRSC) pour vérifier que l’option 12 est installée.)
Autre exemple, la commande Work with Jobs (WRKJOBS), que j’utilise ici pour vous faire couvrir les étapes nécessaires pour mettre l’API Open List of Jobs (QGYOLJOB) au travail. (Pour une liste des sources utilisées pour créer la commande WRKJOBS, voir l’encadré « Spécification des sources »).
Les clés de la conception Exchange, 2eme partie
Dans l’article « Les clés de la conception Exchange, 1ère partie », vous avez découvert les quatre principes architecturaux clé que sont la simplicité, l’intégration, le coût et l’efficacité. Vous avez également pris connaissance de quelques astuces pour bien démarrer une conception Exchange Server en documentant vos exigences métier et conceptuelles, et en planifiant vos besoins concernant Active Directory et votre configuration matérielle.Dans le présent article, nous allons aborder les 6 dernières étapes, ô combien précieuses, pour concevoir une organisation Exchange Server 2003 ou Exchange 2000 Server robuste et performante.
Lire l'articleUn réseau PME « parfait »
Bienvenue au début d’une longue série d’articles traitant de la mise en place du « parfait » petit réseau PME (petites et moyennes entreprises). Nous partons du commencement: là où vous vous trouvez peut-être en ce moment, si vous créez une entreprise. Nous voulons vous présenter les composantes successives que vous devrez considérer pour votre infrastructure.Notre ambition n’est pas seulement de vous offrir une base de réseau parfaite mais aussi une solution élégante. A cette fin, au fur et à mesure que nous présenterons les éléments essentiels du réseau PME, nous proposerons des articles sur la manière de mettre ce réseau à votre service.
L’un des points importants pour bien équiper le réseau PME est de bien comprendre que les besoins de la PME sont très différents de ceux de la grande entreprise. En général, ce qui vaut pour celle-ci ne convient pas à la PME. Dans cette dernière, l’organisation de l’activité, la sophistication technique et les exigences de management sont très différentes. Pour compliquer les choses, il n’existe pas vraiment de PME type. Elles peuvent beaucoup varier entre elles en termes d’exigences de gestion et de capacités techniques. Donc, pour commencer cette série, essayons de parvenir à une définition générale des types de réseaux PME, en exposant les composantes et les caractéristiques de base. Les articles suivants utiliseront ces thèmes comme points de départ pour construire le parfait réseau PME.
Optimiser les performances de ODBC et OLE DB
ODBC et OLE DB sont des middlewares d’accès aux bases de données qui relient à l’iSeries des serveurs Windows, des applications Office et des applications d’accès à des bases de données maison. Beaucoup d’utilisateurs savent que ces éléments de middleware iSeries Access assurent la connectivité de base entre des applications Windows et l’iSeries. Mais les mêmes ignorent souvent que ODBC et OLE DB possèdent tous deux certains paramètres très influents sur la performance de vos applications ODBC et OLE DB.Dans cet article, je parle des paramètres courants qui peuvent affecter la performance du driver iSeries Access ODBC, et je couvre certaines des propriétés importantes qui affectent la performance du provider iSeries Access OLE DB. Vous pourrez ainsi tirer le maximum de ces deux technologies.
Lire l'articleQuand de bons scripts dérapent
Vous venez de passer des heures à écrire un script chargé de supprimer automatiquement les anciens comptes utilisateur inactifs dans l’AD (Active Directory). Bien que vous soyez débutant en code VBScript, la suppression manuelle des anciens comptes d’AD chaque mois était une telle corvée que vous vous êtes résolu à écrire ce script. Plein d’espoir, vous l’exécutez sur votre réseau de test… pour le voir s’arrêter prématurément. Pas croyable ! Où est l’anomalie ? Les raisons sont multiples. Cependant, le principe de Pareto (c’est-à-dire, la règle des 80/20) veut que la plus grande partie des erreurs de script (80 % environ) provient d’un petit nombre de causes possibles (20 % environ).Plusieurs experts en scripting ont récemment parlé des erreurs courantes qu’ils trouvent quand ils examinent le code VBScript sur le terrain. D’après ces experts et à en croire divers articles, les erreurs de syntaxe VBScript les plus courantes (c’est-à-dire, celles qui surviennent quand le code transgresse les règles grammaticales du langage VBScript) et les erreurs à l’exécution (c’est-à-dire, les erreurs qui se produisent quand un script tente d’effectuer une action que le système ne peut pas exécuter) surviennent quand les auteurs de scripts utilisent des variables, des instructions de traitement d’erreurs, des guillemets et des caractères spéciaux et réservés.
Lire l'articlePrendre en main la gestion des données d’Exchange
Il n’est pas facile de bien gérer les données de Microsoft Exchange Server. Il n’a jamais été aisé de trouver l’équilibre entre les demandes des utilisateurs et la performance et la stabilité d’Exchange. Pourtant, aujourd’hui c’est une nécessité. Le courriel est devenu une application de gestion critique, les exigences réglementaires mettent les administrateurs sur la sellette et vous ne jonglez pas avec des assiettes, mais avec des couteaux.
Pour prendre en mains vos données Exchange, il vous faut adopter une approche multidisciplinaire qui associe des stratégies clairement définies et les technologies appropriées (par exemple, matériel de stockage, outils de supervision et de reporting, applications de gestion de données). Par où allez-vous commencer ?En premier lieu, je tiens à clarifier ce que j’entends par bonne gestion de données. Pour moi, c’est la pratique qui consiste à gérer en toute sécurité les données Exchange stockées, de manière à optimiser le stockage des données, tout en offrant un accès adéquat à ces mêmes données. Cela dit, la meilleure manière de démarrer est d’examiner les contraintes financières, techniques et réglementaires qui s’appliquent à votre entreprise. Ces facteurs influenceront vos choix pour la gestion des données Exchange qui résident dans les groupes de stockage (SG, storage groupes), les bases de données et les boîtes à lettres des utilisateurs (y compris les OST, offline storage stores, et les PST, personal folder stores) tout en offrant de bonnes possibilités de sauvegarde, de reprise et d’archivage.
ILM met les données à leur place
Le centre informatique du Wake Forest University Baptist Medical Center n’est pas très différent de ceux d’autres grandes institutions. Il héberge un assortiment de mainframes et de serveurs qui offrent des services tels que le courrier électronique et la gestion des dossiers des patients, aux utilisateurs des différents secteurs. En 2000, le centre médical – dirigé par Bob Massengill, responsable des services techniques – a mis en place un réseau de type SAN (storage area network) pour stocker les données générées par le centre. Le passage au SAN a eu des conséquences spectaculaires.Lors de sa première mise en oeuvre, le SAN contenait « 2 téra-octets de stockage », déclare Massengill. « Un an plus tard, on en était à 18 téra-octets. Et aujourd’hui, nous sommes entre 60 et 70 téra-octets ». Cette explosion du volume de données dans le SAN a conduit Massengill à explorer un nouveau mode de gestion du stockage du centre médical : la gestion du cycle de vie de l’information (ILM, Information Lifecycle Management). Selon Massengill « ILM a les bonnes données, dans le bon format, sur la bonne plate-forme de stockage, au moment opportun. »
Lire l'articleREUNICA réduit ses coûts d’administration et gagne en souplesse de travail
Groupe de protection sociale, Réunica rassemble des activités de mutuelle, de prévoyance et de retraite. Afin de réduire ses coûts, la société a choisi de consolider ses serveurs destinés aux tests et à la validation des applications qu’elle a développées en s’appuyant sur Microsoft Virtual Server 2005. Très satisfaite des gains réalisés en matériel et en administration, Réunica n’a pas hésité à étendre son expérience à ses serveurs métiers.« Au fil du temps, les serveurs destinés aux environnements d’étude, de développement, de recette ou de pré production se sont multipliés, raconte Jean- Francois Neron, responsable systèmes et réseaux de Réunica. Nous avions autant de machines physiques que d’instances de Windows, ce qui coûte cher en matériel mais également en maintenance ». Début 2004, dans le cadre du programme RAP (Rapid Adoption Programm) qui permet aux entreprises de tester les solutions de Microsoft en phase bêta, Réunica a donc procédé à une étude qui l’a conduite vers Virtual Server 2005 de Microsoft. Cette solution de virtualisation sous Windows Server 2003 permet à Réunica de consolider ses serveurs de préproduction, de créer toutes les instances de Windows nécessaires à ses projets de tests, d’installation de nouveaux produits ou de déploiement d’applications. Avec, à la clé, une réduction significative des coûts et des gains de temps importants consacré à l’administration des environnements de travail.
De fait, grâce à cette évolution, la société a pu ramener ses serveurs au nombre de dix sans investir dans du nouveau matériel en lieu et place de la quarantaine de serveurs physiques. Très satisfaite des économies réalisées en maintenance, mais aussi de sa plus grande souplesse de travail, Réunica a également choisi de déployer Virtual Server 2005 en production pour consolider des serveurs hébergeant des applications métiers.