La supervision de la sécurité a déjà été évoquée… En oubliant toute paranoïa relative aux backdoors de la NSA, l’idéal reste de vous équiper d’un SIEM français, personnalisable et évolutif, afin de parfaitement couvrir ce besoin vital de votre SI.
La supervision en accompagnement d’une interconnexion performante
Mais revenons-en à cette question générale de la supervision. Elle impose de grandes capacités de détection, de corrélation, de réaction. Pour se faire, on conseillera la mise en place d’indicateurs opérationnels d’efficacité, notamment en ce qui concerne la remontée d’un événement et l’analyse de celui-ci… Et de la SSI, on glisse facilement vers la supervision de la performance.
En premier lieu pour juger du taux de disponibilité de chaque dispositif de détection et de gestion des événements. En ce qui la concerne, elle, la supervision de la performance est essentielle pour évaluer, maintenir, et améliorer la performance de son système d’information. On verra, en outre, que plusieurs SI peuvent s’interconnecter, interagir, et que la performance de l’ensemble sera donc fonction tant des performances unitaires que de la façon de les associer.
Supervision
Par définition, la supervision est une fonction qui consiste à indiquer et à commander l’état d’un système ou d’un réseau. Les solutions de supervision permettent de remonter des informations techniques et fonctionnelles du système d’information.
Il existe deux enjeux majeurs pour les directions informatiques. Le premier est de garantir la disponibilité et les niveaux de service du système en cas de panne ou de dégradation des performances. Le second est indispensable au premier puisqu’il vise à prévenir en cas de problème et, le cas échéant, à permettre une remontée d’information rapide et une durée d’intervention minimale. C’est ce à quoi la supervision va vous aider.
Le projet Nagios
Comment ne pas parler de Nagios ? Référence en la matière, Nagios est une application permettant la surveillance système et réseau. Elle surveille les hôtes et services spécifiés, alertant lorsque les systèmes vont mal et quand ils vont mieux. De nombreux outils commerciaux se basent sur cette solution libre pour la compléter et l’optimiser.
Sur le plan théorique, la supervision inclut donc plusieurs activités comme surveiller, visualiser, analyser, piloter, agir, alerter…
En fait, c’est dès 1988 que l’ISO a cadré la problématique en publiant la norme ISO7498/4 qui définit les principales fonctions que doivent implémenter les systèmes de supervision et d’administration : gestion des performances, gestion des configurations, gestion de la comptabilité, gestion des anomalies, gestion de la sécurité.
La performance
Concentrons-nous donc sur la gestion des performances. Elle analyse de manière continue les performances du réseau afin de le maintenir dans un état de performance acceptable. Cette gestion s’opère en trois étapes. Tout d’abord, des variables contenant des informations significatives quant aux performances du réseau sont récupérées. Parmi celles-ci on peut citer le temps de réponse d’une station utilisateur ou encore le taux d’occupation d’un segment réseau. Une fois ces variables obtenues, elles sont analysées. Si elles dépassent un seuil de performance fixé préalablement, une alarme est tout de suite envoyée à l’administrateur du réseau, pour régler le problème au plus vite.
Ces variables de gestion de performances sont réactualisées à court intervalle de temps dans le but d’être le plus réactif possible au moindre signe de baisse de performance. La gestion des performances permet donc une évaluation continue du comportement des ressources et un contrôle de l’efficacité des activités de communication.
Les solutions du marché
Votre système d’information a atteint une certaine maturité ? Il est temps de vous équiper d’une solution complète de supervision capable de gérer des systèmes d’envergure (réseau et serveurs) grâce à une architecture répartie et modulaire.
Souvent construite autour de Nagios, cette solution pourra également traiter en complément la métrologie, la cartographie, la corrélation d’évènements et le reporting. Associés à une IHM qui vous plaira, les différents modules sélectionnés selon vos propres besoins seront autant d’outils rapidement indispensables à une supervision de la performance pratique et utile de votre SI.
Par ailleurs, sachez que de rares produits permettent un déploiement sur des architectures décentralisées y compris à travers des réseaux hautement sécurisés (pare-feu, diodes, etc.). Afin de ne pas avoir à choisir entre sécurité et performance, optez pour eux !
Interconnexion
Nous venons de le voir, la possibilité de supervision d’un grand parc est plutôt rassurante à notre époque ou l’interconnexion s’impose partout.
Pour être précis, sachez que l’interconnexion désigne une connexion directe et sécurisé, physique ou virtuelle, entre une entreprise et ses partenaires, clients et salariés. L’entreprise interconnectée est donc théoriquement en mesure de connecter tous les utilisateurs finaux aux contenus dont ils ont besoin, à tout moment et partout. Ceci de manière qualitative, c’est-à-dire avec efficacité et sans risque.
Mais un état des lieux sur quelques PME révèle malheureusement un constat nuancé dans la mesure où l’infrastructure informatique traditionnelle n’est pas nativement conçue pour faire face à l’interconnexion même si les liens entre tous les acteurs semblent se multiplier…
Une tendance évidente
Toutefois, la part des entreprises françaises interconnectées devrait plus que doubler dans les deux ans qui viennent. La tendance des entreprises à baser leur stratégie informatique sur l’interconnexion est inéluctable et il faut la garder propre.
L’hébergement ne consiste plus seulement en du stockage de données, il s’agit d’interagir. Pour cela, il faut fluidifier le transfert de données entre son SI et les autres, bien au-delà de l’échange d’e-mails. La problématique sécuritaire s’impose alors encore un peu plus. De son côté, la vitesse des échanges que l’on pourrait croire toujours suffisante à l’ère du numérique nécessite parfois une co-localisation des machines pour rendre l’interopérabilité efficace.
C’est pourquoi l’exécution d’une stratégie d’interconnexion nécessite une architecture orientée interconnexion qui transforme l’architecture classique (modèle centralisé et en silo des années 70 !) en un modèle interconnecté et hébergé. Cette notion n’est pas nouvelle. Souvenez-vous… Au sein même des architectures orientées service (SOA) sont apparus les ESB (Enterprise Service Bus) qui se concentrent sur les fonctions d’interconnexion et de médiation.
La sécurité
Rappelons que la sécurité est au sommet de la liste des préoccupations des entreprises. L’inter-connectivité entre plusieurs clouds est une stratégie de choix pour les entreprises du monde entier. En effet, les besoins actuels et futurs nécessitent un niveau d’interconnexion tout simplement inaccessible uniquement sur l’Internet public.
Justement, pouvoir se connecter directement et de façon sécurisée aux fournisseurs de services cloud, sans passer par l’Internet public, diminue les peurs en matière de sécurité.
L’interconnexion constitue un moyen pour les entreprises de mieux protéger leurs données. De toute évidence, les informations échangées au sein d’un même data center risquent moins de tomber en de mauvaises mains que lorsqu’elles sont envoyées à un serveur éloigné.
L’interconnexion performante et sécurisée
Les utilisateurs eux-mêmes furent les premiers à s’interconnecter. Sur le lieu de travail, certains croient qu’une sécurité basique s’acquiert à l’aide d’un pare-feu (notamment via un filtrage de port). Mais ces équipements ont leurs limites. L’interconnexion, en redéfinissant les frontières du SI, permet de placer la sécurité au plus près de l’infrastructure consolidée. Le trafic est réduit et peut être géré de façon bien plus efficace.
Ce sont ensuite les lieux qui ont été interconnectés, au sein d’une même entreprise ou entre plusieurs entreprises. Or la sécurité de l’entreprise exige que les personnes, les processus et la technologie se concentrent tous sur l’identification et la réduction des risques. Grâce à l’optimisation du trafic qui passe sur les réseaux partagés et à son maintien sur les interconnexions privées, l’exposition est considérablement réduite.
Enfin, l’interconnexion des données est devenue le cœur du sujet. Les entreprises ne sont pas préparées à gérer le paradoxe lié à la sécurité des données et aux implications qu’impose le besoin grandissant d’accès à ces données. Le chiffrement n’est pas toujours suffisant. L’interconnexion offre un tissu de communication avec des connexions privées sécurisées vers les clients, les partenaires… Les échanges deviennent invisibles de l’extérieur et il est par ailleurs possible de mieux gérer les accès aux données en scrutant le trafic en ligne. La maîtrise est accrue, avec moins de bruit et plus de contrôle.
En conclusion …
Quelle que soit votre dimension, quelle que soit votre ambition, votre développement passera tôt ou tard par l’interconnexion. L’interconnexion et tous ses avantages. Mais aussi ses risques.
Et pour tirer au mieux profit d’un système interconnecté sans subir les désagréments liés à l’évolution de votre architecture, il est impératif de s’intéresser tant à la sécurité qu’aux performances.
Puisqu’il ne coûte rien de réfléchir, commencez dès aujourd’hui. Evaluer vos besoins court, moyen et long terme en matière d’interconnexion. Puis mettez-les en parallèle de vos impératifs de sécurité et de performance pour bien choisir vos outils de supervision.
Téléchargez cette ressource
Guide inmac wstore pour l’équipement IT de l’entreprise
Découvrez les dernières tendances et solutions IT autour des univers de Poste de travail, Affichage et Collaboration, Impression et Infrastructure, et notre dossier Green IT sur les actions engagés par inmac wstore pour réduire son impact environnemental