par Pascal Creusot - Mis en ligne le 23/03/2005 - Publié en Mars 2004
La haute disponibilité est un terme générique utilisé pour définir une
infrastructure conçue dans le but de réduire le plus possible les temps
d'indisponibilité des services. Mais comme pour la sécurité, la haute
disponibilité est une notion qu'il n'est guère possible d'atteindre à 100 %,
ce qui correspondrait à une architecture opérationnelle sans aucune
interruption de quelque durée, même minime. Différentes solutions
techniques et technologiques permettent de tendre vers cette disponibilité
ininterrompue, mais cela a un prix et il faut donc trouver, choisir et mettre
en place la solution la plus adaptée aux besoins de l'entreprise.Avant même d'entrer dans les technologies et les solutions,
il faut définir quel est le niveau de disponibilité qui est
recherché. Cette notion est importante et on la trouve aussi
souvent présente sous le terme de ‘Service Level Agreement'
ou SLA, ce qui signifie accord de niveau de service. Ce niveau
de service est défini en pourcentage de disponibilité. Dans
ce domaine, les chiffres doivent être précis. Pour bien comprendre,
appuyons-nous sur des chiffres précis. Un taux de
disponibilité d'un système est de 100 % sur une période s'il
ne subit aucune interruption. Le plus souvent la période de
référence retenue est de l'ordre de l'année. Nous prendrons
donc cette durée d'un an soit 365 jours (le
plus souvent), ce qui est équivalent à un
total de 8760 heures de service à fournir.
Le tableau des taux de disponibilité
montre les durées d'interruption qui sont
acceptables en fonction du taux de disponibilité
souhaité ou défini au sein du SLA
sur une période d'un an. On constate
qu'un taux de 99% autorise plus 87 heures
soit plus de 3 jours et demi d'indisponibilité.
Un taux de 99,9% n'autorise plus que 8
heures et 45 minutes, alors qu'un taux de disponibilité de
99,99% ne laisse plus que 52 minutes d'arrêt du service pendant
une année complète ! On comprend alors rapidement
au vu de ces chiffres que l'approche du 100% demande un
déploiement de solutions complètement différentes selon
les durées d'interruption tolérables. Un autre point à
prendre en compte lors de la définition du taux de disponibilité
souhaité, c'est que cette notion se rapproche d'un
calcul statistique, tout comme les calculs de prise de risque.
Il ne peut se produire aucune panne, comme il peut y en
avoir plusieurs au cours d'une seule année. Nous allons donc
voir dans ce dossier, les différentes solutions qui permettent
de minimiser ces risques et le temps nécessaire à la reprise
en cas d'incident en fonction des solutions retenues. Pour
obtenir une meilleure qualité de service et donc améliorer le
taux de disponibilité des services réseau, et donc des serveurs,
il suffit souvent dans un premier temps de prendre de
bonnes habitudes, sans pour autant investir des sommes importantes.
C'est comme pour la majorité des équipements,
une bonne maintenance et une surveillance régulière
permettent d'obtenir un meilleur fonctionnement.
La haute disponibilité au niveau de la messagerie Exchange
Dans ce domaine, il n’est pas rare de constater certaines anomalies
qui peuvent avoir des conséquences dramatiques.
Certaines salles informatiques sont de véritables nids de
poussières avec des câbles dans tous les sens, des prises multiples un peu partout, des équipements à même le sol et
des climatisations dont le flux d’air arrive même pas vers les
équipements. Tant que cela fonctionne, pourquoi ne pas
conserver ce type d’infrastructure informatique, mais le jour
où se produit un incident, ou lorsqu’une personne se prend
les pieds dans un câble, alors dans ce cas, le temps de retrouver
ou était banché le câble ou de tout pousser pour accéder
à un serveur en panne, les temps d’intervention sont
fortement allongés. L’intérêt de disposer d’un environnement
pensé et aménagé correctement afin de limiter les
temps d’intervention, de limiter les fausses manipulations et
les erreurs, d’optimiser les flux d’air est évident. Le matériel
ainsi géré correctement dans un environnement sain peut
être utilisé plus longtemps. Le bon repérage des câbles et
une structure de câblage adapté permettent une intervention
plus rapide en cas de crash ou de besoin urgent. Outre
le fait de disposer d’une infrastructure en armoire Rack qui
permet une intervention rapide sur un serveur tout en optimisant
l’espace, il faut penser l’ensemble de la salle informatique
pour permettre une diminution des risques. Cela signifie
le passage de tous les câbles par le faux plancher en
respectant les chemins de câbles. Au niveau de l’environnement,
il existe aujourd’hui une tendance à rendre les serveurs
de plus en plus redondants avec par exemple une multiplication
des alimentations, des cartes réseau…. Mais si les
deux alimentations d’un même serveur aboutissent à la
même prise, cela augmente le risque d’indisponibilité si la
prise est hors tension. Le mieux est de prévoir au sein du
rack deux rampes d’alimentation différentes et branchées si
possible sur deux points d’alimentation différents (deux disjoncteurs
différents) afin que le point
commun des deux sources d’alimentation
soit le plus éloigné possible. Une des deux
rampes d’alimentation pourra aussi par
exemple être sauvegardée sur un onduleur
et l’autre sur un autre dispositif de secours.
Le mieux est aussi de disposer de
cheminements différents pour les câbles
afin d’assurer une continuité de service,
même en cas de problèmes importants au
sein du bâtiment par exemple (rupture,
travaux…). Il faudra aussi s’assurer que
lorsqu’un serveur dispose de deux blocs d’alimentation, ces
deux alimentations sont bien redondantes et que le serveur
fonctionne parfaitement avec une seule alimentation (bilan
de puissance). Il en est de même pour le réseau. Si deux
cartes réseau sont montées en redondance, il est judicieux
de faire prendre deux chemins différents pour les câbles et
de les connecter sur des équipements réseau différents afin
de se prémunir de la défaillance d’un équipement réseau ou
d’une partie du câblage. Comme on peut le voir transparaître
dans cette première partie de ce dossier, la redondance est la
solution pour augmenter la disponibilité d’un serveur ou
d’une infrastructure, à condition de bien l’organiser et la gérer,
sinon, les investissements réalisés dans le matériel
s’avèrent complètement inutiles.
Téléchargez cette ressource
Comment lutter contre le Phishing ?
Dans un environnement cyber en constante mutation, le phishing évolue vers des attaques toujours plus sophistiquées combinant IA, automatisation et industrialisation. Une réalité complexe qui exige des mesures de sécurité avancées et repensées au-delà de l’authentification multifacteur. Découvrez les réponses technologiques préconisées par les experts Eviden et les perspectives associées à leur mise en œuvre.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Les actions pour un environnement de travail numérique durable
- Fin de vie pour Windows Server Update Services ! Après ?
- Cycle des données d’IA : le rôle stratégique du stockage dans l’entreprise
- DAF 2035 : principaux axes de transformation
- Les attaques par détournement de session : attention aux cookies et jetons de session