> Hardware
NAS ou SAN, que choisir ?

NAS ou SAN, que choisir ?

La consolidation du stockage d'entreprise a le vent en poupe, parce qu'elle accroît l'efficacité, diminue la redondance et simplifie la gestion. Qui n'a pas entendu parler de l'importance du stockage pour les entreprises et de ces deux technologies de stockage dont on parle tant en ce moment : le NAS (Network Attached Storage) et le SAN (Storage Area Network).Les périphériques NAS sont des dispositifs de stockage - de gros serveurs spécialisés que l'on connecte au réseau - qui n'exécutent qu'une tâche et fonctionnent très bien : ils livrent très rapidement les fichiers. La capacité des grands dispositifs NAS est de l'ordre du téraoctet. Les SAN sont, quant à eux, des réseaux multiserveur, multistockage pouvant dépasser les 400 To. Un SAN sert de réseau secondaire à un LAN. Chaque serveur devant accéder au SAN est relié au LAN par une connexion fibre channel. Ce réseau secondaire soulage le réseau principal des charges massives de transfert des données, puisque le trafic de sauvegarde a lieu entre périphériques de stockage à l'intérieur du SAN. Les dispositifs NAS et les SAN ont des fonctions nettement différentes. Le premier peut effectuer certaines fonctions qu'un SAN ne peut pas effectuer et un SAN offre l'évolutivité. Examinons les technologies du NAS et du SAN et les scénarios dans lesquels l'une est préférable à l'autre.

Lire l'article
Une topologie SAN

Une topologie SAN

Selon un vieil adage, les données s’étendent sans cesse et finissent toujours par dévorer tout l’espace de stockage disponible. Beaucoup d’applications sont d’ailleurs là pour le confirmer : le commerce électronique, les images, le data warehouse, les progiciels de gestion (ERP) et la gestion de la relation client (CRM) comblent vite les supports de stockage et apparemment sans fin.L’accessibilité des données doit être rapide pour les applications et la disponibilité est extrêmement importante. Les SAN (Storage Area Network) offrent des pools de stockage à grande vitesse grâce à un groupe de serveurs connectés et de stations de travail très rapides.
Hors de l’univers du mainframe, chaque application cruciale (par exemple un ERP) possède une instance résidant sur un serveur distinct, en particulier les applications client-serveur (ainsi 10 serveurs abritent 10 applications). C’est la modularité des systèmes et le fait d’ajouter des applications après d’autres déploiements d’applications réussis qui favorise cette tendance. La modularité des systèmes crée des batteries de serveurs et peut donner de multiples instances des données. Si celles-ci doivent avoir des relations entre elles, il faut appliquer des méthodes de duplication ou de synchronisation pour les résoudre.
C’est pourquoi les données de serveurs monolithiques deviennent pénibles à organiser et à gérer. Les SAN contribuent à alléger cette charge d’administration.
Les SAN sont des réseaux à l’intérieur des réseaux. Leur conception désassocie les applications des serveurs du stockage des données sans sacrifier les temps d’accès au stockage et permet à de nombreux serveurs et applications d’accéder aux données.

Ils minimisent le besoin de serveurs équipés d’énormes magasins de données séparés et permettent d’équilibrer les besoins de fiabilité et de disponibilité. On peut également amortir les coûts du stockage sur plusieurs serveurs et leurs applications.
Les batteries de stockage SAN supportent de nombreux systèmes d’exploitation hôtes et systèmes d’archivage de données. C’est le système d’exploitation hôte qui définit comment les membres du SAN accèdent à un système de fichier. Pour Windows NT, les SAN apparaissent comme des volumes accessibles localement en FAT ou NTFS.
Un SAN est constitué de serveurs (ou de stations de travail d’E/S très rapides) avec des connexions à un canal d’E/S à grande vitesse. Par exemple, sur la figure 1, les serveurs et les stations de travail sont connectées au hub grâce à un commutateur. Les stations de travail ou les serveurs au stockage sont connectées au moyen de SCSI ou Fibre Channel. La méthode de connexion dicte la conception du SAN et affecte les capacités d’évolution et l’accessibilité des données stockées. Examinons les différentes méthodes et leurs caractéristiques.

Lire l'article
10 trucs pour récupérer votre espace disques

10 trucs pour récupérer votre espace disques

La plupart des nouveaux systèmes Windows NT sont dotés de quantités prodigieuses d’espace disque local ; mais tout le monde n’a pas la chance d’utiliser un de ces monstres. Beaucoup d’entre nous gèrent des systèmes sur lesquels l’espace disque est un bien précieux. Ce mois-ci je vous fais part de quelques astuces pour récupérer l’espace disque dur.

Lire l'article
Optimiser les sous-systèmes disques

Optimiser les sous-systèmes disques

Des performances ! Tout le monde veut que les serveurs et les stations de travail NT tournent le plus vite possible. Or l’optimisation d’un sous-système disque est importante pour améliorer les performances globales d’une solution NT.Cet article décrit comment obtenir des performances maximales des ressources supplémentaires ajoutées lors de la mise en œuvre de sous-systèmes disques et de grappes RAID supplémentaires, sans tenir compte des mises au point matérielles spécifiques à tel ou tel constructeur. Pour optimiser rapidement le sous-système disque (RAID matériel ou logiciel), on peut faire appel à des outils intégrés de Windows NT ou à un freeware. Pour réaliser cette tâche, il importe de comprendre les caractéristiques individuelles de performances des disques ou de la technologie RAID, selon le choix que vous avez fait, et les charges de travail de votre sous-système disque existant. Ces informations vous permettront d’équilibrer les charges de votre sous-système disque et d’optimiser la taille des unités d’allocation des disques. Enfin, comme l’accroissement des performances peut varier en fonction de l’environnement informatique, j’expliquerai comment j’ai optimisé et testé mon sous-système disques.

Lire l'article
Optimiser les performances de NTFS

Optimiser les performances de NTFS

Système de fichier moderne et fiable, NTFS peut être amélioré grâce au tuning et mieux adapté aux besoins propres à chaque entreprise. Cet article décrit des mesures pour évaluer et optimiser les performances des volumes NTFS.En 1993, Microsoft a lancé Windows NT 3.1 et, avec lui, un nouveau système de fichier FAT conçu pour améliorer les possibilités du nouvel OS. Conçu à l’origine par Gary Kumura et Tom Miller, membres de l’équipe de développement originale de NT, NTFS s’appuie sur la sécurité de NT pour améliorer les caractéristiques d’efficacité et de récupération de FAT.
Ces fonctions font de NTFS le système de fichier de prédilection pour les disques de grands volumes des serveurs de réseau. On trouve toujours le système FAT sur les disques de nombreux systèmes qui en ont besoin (par exemple les partitions multi OS ou les serveurs NT basés sur RISC) ; mais les limites de ce système en ont fait un canard boiteux dans l’univers NT moderne.
Si vous voulez satisfaire aux impératifs de sécurité, de performances et de capacité propres à la plupart des organisations, NTFS est le seul choix possible.NTFS est un système de fichier robuste, autocorrectif, qui offre plusieurs fonctions personnalisables ayant une incidence sur son fonctionnement dans un environnement donné.
Certains paramètres sont généraux et d’autres spécifiques à certains volumes NTFS et un certain nombre peuvent se contrôler et s’optimiser. En examinant les besoins de stockage spécifiques à un système et en adaptant ensuite les volumes NT en conséquence, il est possible d’augmenter significativement les performances de disques des systèmes. Cet article décrit plusieurs méthodes pour évaluer et augmenter les performances de NTFS.

Lire l'article
Les SAN tirent leur épingle du jeu

Les SAN tirent leur épingle du jeu

Récemment, Scott McNealy, PDG de Sun Microsystems, a déclaré " Le stockage n’est pas une industrie ; c’est une fonction du serveur " Pour EMC et Data General, il s’agit pourtant bel et bien d’une industrie - et d’une industrie qui marche incroyablement bien.Quand on sait que 50 % de l’investissement en infrastructure effectués par une entreprise sont destinés au stockage (certains analystes vont même jusqu’à 70 %), on comprend assez bien l’importance de ce marché. L’e-commerce, le datawarehousing, le datamining, le multimédia et les transactions OLTP consomment rapidement les ressources de stockage et pèsent lourdement sur les réseaux des entreprises.

Ces technologies contribuent aussi à susciter un intérêt pour le développement de la technologie du SAN (Storage Area Network) qui consolide et gère les données et décharge le trafic du réseau vers un sous-système.L’émergence de la technologie Fibre Channel (FC) facilite considérablement la mise en œuvre des SAN, entraînant du même coup plusieurs nouveaux acteurs sur le marché avec des offres telles que des sous-systèmes disques, des commutateurs, des interconnexions, des systèmes de sauvegarde et de récupération, des bibliothèques sur CD-ROM et des lecteurs de bandes.
Pour les constructeurs les SAN sont une aubaine, avec un marché mondial qui progressera de 4 milliards de dollars environ en 1998 à 17 milliards en 2000, selon Strategic Research. IDC prévoit pour sa part que le marché global du stockage atteindra 50 milliards de dollars en 2002 et celui du SAN 11 milliards de dollars en 2003.

L’avenir du SAN et le développement des standards FC sont inexorablement liés car Fibre Channel augmente considérablement les possibilités de connectivité des SAN et permet la distribution à distance.
Les trois organismes qui définissent les standards FC en ce moment sont Fibre Alliance, sous l’égide d’EMC, la SNIA (Storage Networking Industry Association) et l’IETF (Internet Engineering Task Force), à qui revient en dernier lieu la décision des standards qui seront adoptés. L’avenir des SAN dépend de ces organismes.

L’avenir du SAN et le développement des standards Fibre Channel sont inexorablement liés

Lire l'article
Au coeur de la gestion du stockage – Première partie

Au coeur de la gestion du stockage – Première partie

L'évolution de la gestion du stockage de Windows NT débute avec DOS ; le premier OS de Microsoft. Avec l'augmentation de la taille des disques durs, DOS a du s'adapter. Pour cela, une des premières décisions prises par Microsoft a été de permettre à DOS de créer de multiples partitions, ou disques logiques, sur un même disque physique.Avec l'introduction des disques logiques, DOS a pu formater chaque partition avec un type de système de fichiers différent (FAT12 ou FAT 16) et affecter à chaque partition une lettre d'unité différente. DOS 3 et 4 étaient sévèrement limités quant à la taille et au nombre de partitions que l'on pouvait créer, mais avec DOS 5, le système de partitions est arrivé à sa pleine maturité : on pouvait diviser un disque en autant de partition de quelque taille que ce fût. Windows NT a emprunté le système des partitions du DOS afin d'assurer la compatibilité des disques avec DOS et Windows 3.x, et pour que l'équipe de développement de NT puisse s'appuyer sur des composants éprouvés pour la gestion des disques.
Dans Windows NT, Microsoft a fait évoluer les concepts de base du système de partitionnement de base du DOS pour supporter les fonctions de gestion des disques des OS d'entreprise : le spanning de disques et la tolérance aux pannes. Dès la première version de Windows NT, les administrateurs système ont pu créer des volumes comprenant plusieurs partitions.
Cette possibilité permet de créer de grands volumes consistant en partitions réparties sur plusieurs disques physiques et permet la mise en œuvre de la tolérance de panne grâce à la redondance logicielle des données. Le support du partitionnement de Windows NT est assez souple pour supporter la plupart des besoins de gestion du stockage, mais ce support comporte plusieurs inconvénients. Un de ces inconvénients est que la plupart des modifications de configuration des disques nécessitent un redémarrage pour entrer en vigueur. Dans l'environnement actuel des serveurs, qui doivent rester on-line pendant des mois, voire des années, tout redémarrage (même planifié) est un problème majeur.

Autre inconvénient, le Registre de Windows NT stocke les informations avancées de configuration des disques. Ce choix a pour conséquence de compliquer le déplacement des informations de configuration lorsque l'on déplace des disques d'un serveur à un autre. Il est facile de perdre des informations de configuration lorsque vous devez réinstaller le disque. Enfin, le fait que NT exige que chaque volume ait une unique lettre d'unité dans la tranche A à Z, fixe un plafond au nombre de volumes locaux et distants qu'un utilisateur puisse créer.
Windows 2000 élimine bon nombre de limitations des tâches de gestion du stockage de NT 4.0Windows 2000 élimine bon nombre de limitations des tâches de gestion du stockage de NT 4.0 avec une nuée de nouvelles améliorations en la matière. Depuis les points de montage de volumes, qui permettent de supprimer la limite du nombre de volumes possibles, au support intégré de la migration des fichiers, en passant par le stockage hors connexion ou la gestion du stockage sans redémarrage, Windows 2000 place sa gestion du stockage à un niveau équivalent à celui des UNIX les plus évolués. Détaillons les internes de la gestion du stockage dans Windows NT et 2000.

Lire l'article
Un stockage sans limites

Un stockage sans limites

Parmi les changements les plus subtils - et néanmoins des plus significatifs - introduits par Microsoft dans Windows 2000 il faut citer NTFS. Bien qu'identique à lui-même en apparence, NTFS bénéficie en réalité de nouvelles fonctions qui donnent aux administrateurs de plus grandes capacités pour gérer le stockage sur les réseaux d'entreprise.Windows 2000 Magazine a déjà largement traité ces capacités, notamment le chiffrement, la journalisation et l'utilisation des points d'analyse. Bien qu'ils n'aient l'air de rien, ces points d'analyse (ou reparse points) activent l'une des fonctions les plus avancées du stockage en réseau - le stockage hiérarchique. L'utilisation du stockage hiérarchique permet d'avoir - théoriquement - un espace de stockage illimité disponible à tout moment pour un système donné. Grâce à Microsoft cette technologie est à présent très facile à installer et à administrer.

Lire l'article