Explosion et multiplication des données à grande vitesse, phénomène du Big Data, les organisations sont désormais confrontées à de nouveaux défis et doivent faire des choix.
De nouvelles pistes pour le stockage et la sauvegarde des données
Quels sont-ils ? Stéphane Estevez, Senior Product Marketing Manager EMEA chez Quantum, nous éclaire sur le sujet.
Quantum, avec 30 ans d’expérience dans la protection de données, et le Big Data aujourd’hui, gère trois grandes lignes de services, à savoir le Big Data sur la partie infrastructure, la protection des données (archivage, stockage objet, déduplication de sauvegarde …), et des solutions de protection des environnements virtuels.
Entre stockage primaire, sauvegarde et archivage
« La partie non structurée des données explose » souligne d’emblée Stéphane Estevez, et 70 % des données dans les entreprises seraient « de la donnée non structurée ». Cette partie grossit le plus, et est paradoxalement la moins bien gérée en raison de problèmes organisationnels, « le nettoyage des données reste un problème crucial, de vieux fichiers sont conservés, le stockage primaire s’en ressent et augmente ». Sans filtrage en amont, discussions métiers, échanges entre les équipes IT et les métiers, les entreprises ajoutent de la capacité, changent les baies, et le stockage primaire arrive à ses limites.
La technologie RAID est de moins en moins adaptée à de grosses volumétries, l’impact sur la perte des données s’accentue, la protection se trouve en mode dégradé, « notre manière de travailler avec le RAID n’est peut-être pas forcément adaptée » commente Stéphane Estevez, « Dans les environnements de sauve garde sur disques, la même chose se passe, notamment avec l’adoption de la déduplication ». Plus on ajoute de la donnée sur le stockage primaire, plus on backup, et la sauvegarde explose en termes de volumétrie.
Autre manière d’optimiser le flux, c’est la notion d’archivage. En effet, si l’entreprise n’a pas forcément les moyens de prendre des décisions sur la nature de la donnée, il faut qu’elle se donne les moyens de bouger cette donnée, de la rendre plus disponible avec un accès plus rapide que de la bande sur une infrastructure qui croît de manière plus optimisée, à un coût moindre que le stockage primaire. D’autres possibilités d’archivage s’offrent alors, comme faire du stockage objet. Dans ce cas, « les algorithmes prennent la donnée, la transforment en objet, et la dispersent géographiquement. Le coût de la durabilité pour procéder au travers d’algorithmes est moindre par rapport au RAID. « C’est donc une des manières de pouvoir rerouter toutes les données hors du stockage primaire très cher vers du stockage objet en garantissant qu’elles seront toujours là ».
La pression sur la partie sauvegarde à savoir sur disque ou sur bande s’en trouve réduite. Bouger ses données de manière simple et non intrusive, en n’impactant pas l’utilisateur final est une stratégie essentielle. Si la technologie est ancienne (codes et algorithmes), il faut juste un temps d’apprentissage pour procéder différemment, et ne plus rajouter de la capacité sur le stockage primaire. La sauvegarde ne doit plus être l’archivage ! Les économies réalisées par rapport à l’explosion des données et les problèmes générés, montrent qu’il est vraiment temps de passer à l’archivage et enlever ainsi la pression sur le stockage primaire et backup.
Et si on parlait Cloud ?
Quand on parle de plusieurs tiers, un des tiers peut être le Cloud qui se positionne dans ce cas sur la notion de PRA. Quantum aide ainsi les Cloud Provider à monter leur propre solution de sauvegarde ou Disaster Recovery dans le Cloud avec des technologies basées sur la déduplication. « La technologie change mais elle ne remet pas en cause les bonnes pratiques » précise Stéphane Estevez. Le Cloud devient de plus en plus intéressant pour les PME mais également pour les grands comptes. La problématique « comment bouger beaucoup de données ? » reste essentielle, les sauvegardes prenant de la place. Or, pour être pragmatique et coller aux bonnes pratiques, plusieurs points sont nécessaires dans le temps pour revenir en arrière, faire une réplication des dernières données ne suffit plus.
La technologie de l’approche déduplication est vue comme une rare manière de pouvoir réduire la taille des sauvegardes au travers des réseaux existants, et consommer très peu, une fois la première réplication faite. Démarche très intéressante en termes de Disaster Recovery. Le panorama des solutions s’étoffe, puisque l’idée est d’avoir de plus en plus une approche hybride (copie dans le cloud, et copie locale qui fonctionne de façon autonome même avec une indisponibilité de l’ADSL ou connectivité). « Cette approche est une bonne transition entre sauvegardes locales et réplication par une technologie pouvant bouger les données sans consommer beaucoup de bande passante, ce qui rassure les entreprises et lève quelques freins ». On arrive finalement à une conjonction entre flexibilité des machines virtuelles, économies de coûts et technologie de déduplication. Il faut cependant se poser les bonnes questions comme la notion de portabilité, comment récupérer les données et les transférer ailleurs. Contrats et contraintes technologiques entrent alors en jeu.
Longtemps, la sauvegarde fut propriétaire, l’outil qui sauvegarde, est le même que l’outil qui restaure. Aujourd’hui, faire de la sauvegarde en format natif a un intérêt pour l’utilisateur final et pour les prestataires, et permet de livrer des services plus simplement (Disaster Recovery). De plus, la sauvegarde en format natif combinée à la déduplication, fournit un système intéressant pour transporter les sauvegardes dans le Cloud et rebooter les VMs à partir des sauvegardes en cas de problème. Le tout pour un gain de temps, et une simplicité de reprise sans relecture des jeux de sauvegarde. Le marché adressé par les Cloud providers devient plus large… « Le format des sauvegardes devient de plus en plus important dès qu’on veut offrir, en plus de la sauvegarde dans le Cloud, le Disaster Recovery dans le Cloud » explique Stéphane Estevez.
De bonnes pratiques
N’oublions pas que la notion de risque en termes de sécurité est plus limitée pour certaines entreprises que d’autres. Les bonnes questions et pratiques liées à l’externalisation restent les mêmes (de l’infogérance au cloud), il faut juste s’assurer de la viabilité du prestataire, de l’importance des données, des contraintes de sécurité de l’entreprise, de la mutualisation de l’infrastructure dédiée, des clauses de sortie du contrat, de la récupération des données… Mais la technologie a beaucoup évolué et des processus qu’on ne pouvait pas faire avant ou réservés à de gros projets, se démocratisent aujourd’hui. Via la déduplication et la sauvegarde en format natif, des moyens très simples permettent de faire les sauvegardes en local.
La notion d’archivage est intéressante même si elle semble se positionner sur des entreprises de moyenne à grande taille. Et, « quand on voit les investissements réalisés sur le stockage primaire, alors qu’un très bon niveau de sécurisation de la donnée existe sur le stockage objet, il faut se poser la question et évaluer les priorités. A savoir recentrer et mettre à jour le stockage primaire, gagner en performances, faire des économies grâce à l’archivage pour repenser et orchestrer une nouvelle architecture ». Un dernier mot, combinaison des technologies et flexibilité des entreprises avant tout…
Téléchargez cette ressource
Livre blanc Sécurité et Stockage des documents
Découvrez dans ce livre blanc Kyocera les outils logiciels qui permettent une approche holistique et efficace de la collecte, du stockage, de la gestion et de la sécurisation des documents en entreprise.
Les articles les plus consultés
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- La blockchain en pratique
- L’utilisation des données pour survivre !
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- Databricks lève 1 milliard de dollars !