Applicatifs et gouvernance des données pour optimiser les équipements de stockage

La valeur ajoutée se trouve aujourd'hui dans la capacité des applications à classer la donnée en fonction de son importance et selon des règles bien précises.

Xavier Laignel - Expert en Data governance
Xavier Laignel - Expert en Data governance

« L'utilisation de mémoires vives, les SSD, les disques, les bandes, etc, les supports physiques existent pour que les entreprises puissent organiser correctement leur stockage en fonction de l'importance qu'elles donnent à leurs données... », résume Damien Cudal, chef de marché Plateforme Applicative division marketing chez Microsoft qui a dévoilé lors des derniers Tech-days, les nouvelles applications de l'éditeur autour de la gestion des big data et des bases de données. C'est vrai, les équipementiers attachent de plus en plus d'importance à la distribution de la donnée en fonction de sa valeur, même si leur activité première est aussi de vendre des baies de stockage.

 

L'application : la valeur ajoutée dans la hiérarchisation du stockage

« Chez Quantum, on fournit bien sûr des équipements matériels, mais notre valeur ajoutée se trouve aujourd'hui dans notre application StorNext qui classe la donnée en fonction de son importance sur des SSD, des disques ou des bandes. Il faut cependant définir des règles via des attributs en fonction des profils métiers pour classer l'importance de la donnée. Et pour l'utilisateur, le fichier qu'il soit sur des SSD, des disques Sata ou sur de la bande, quelle importance ! Dans ce cas, on ne parle pas de données primaires et de stockage, mais de workflow via une approche métier », explique Gabriel Chaher, vice-président marketing EMEA et APAC de Quantum. Et de continuer : « Dans 90 % des cas, avec notre application Stornext, l'information va terminer sur la bande donc ça sert aussi de copie de protection pour l'entreprise. Stornext est un système qui s'autoprotège... »

 

À l'instar du produit de Quantum, Symantec répond à cette problématique de hiérarchisation avec Veritas Storage Foundation, « qui répond aux piliers que nous avons identifiés (NDLR : de la lisibilité du stockage à son efficacité en passant par sa distribution sur les supports en fonction des règles), permet d'obtenir une infrastructure plus souple et plus agile et donc de réduire les coûts de stockage, notre plateforme s'appuie sur des fonctionnalités telles que la déduplication, la compression, l'allocation dynamique et la gestion du stockage par niveaux », résume Vincent Videlaine, directeur EMEA Strategic Alliances et Services Providers chez Symantec. De même chez Nec où l'on défend bec et ongles la nécessité pour une entreprise d'optimiser l'allocation de son stockage. « Nous répondons à cette problématique, malheureusement trop peu répandue par manque de process clairement établis dans les entreprises, par notre solution de tiering Optimal Data Allocation qui permet d'allouer les données sur les bons médias », explique François Remy Monnier, directeur des ventes pour l'Europe du Sud et l'Afrique de la division entreprise de Nec. Enfin, chez EMC, on sait faire du tiering (hiérarchisation) depuis un certain nombre d'années déjà avec la solution FAST.

 

Du côté de NetApp, la stratégie est aussi à l'organisation du stockage. En effet, lorsque l'équipementier parle de données « vivantes », ce sont celles qui n'ont pas encore été archivées de manière patrimoniale ou de façon légale. Pour gérer ce type stockage, NetApp s'appuie donc sur Data Ontap dont la dernière version (8.1) permet de gérer le cycle de vie de la donnée. « Pour les données non structurées qualifiées de classiques, notre proposition de valeur est de les mettre sur des disques capacitifs et d'accélérer leur accès avec la technologie Flash Cache. Dans ce cas, les données sont stockées au moindre coût. Pour des données que l'on veut garder sans avoir à les manipuler, nous allons les stocker sur des gros disques capacitifs. Et de ce fait, on peut utiliser Snaplock qui permet d'avoir une fonctionnalité de Worm logique et garantir ainsi que la donnée ne pourra être modifiée ou supprimée tant que le permet sa date probante de rétention », indique Cyril Van Agt, responsable avant-vente partenaires chez NetApp France.

 

Les évolutions des matériels comme les SSD jouent un rôle décisif

Ces quelques exemples montrent bien que les fournisseurs s'adaptent à la grande mixité en matière de stockage qui sévit dans les entreprises. L'objectif est de disposer de solutions modernes pour distribuer les données en fonction des moyens de stockage existants. Toutefois, cette hiérarchisation du stockage a clairement été possible par l'évolution du support physique. Les entreprises peuvent choisir un type de disque en fonction des besoins métiers du projet et de l'importance des données. Par exemple, pour des applications peu sensibles, comme la messagerie, des disques avec une capacité de stockage importante, mais peu performante en termes d'exécution (de type Sata ou Sas) suffisent.

Pour l'archivage avec des données dormantes, on peut exploiter des disques durs Sata très capacitifs low cost. Et à l'opposé, des disques de type flash (SSD) sont certes moins capacitifs, mais plus réactifs pour les applications métiers plus critiques, touchant à la gestion intégrée ou la gestion de la relation client par exemple. En effet, en montant les données au plus proche du processeur, on profite de la bande passante (plusieurs dizaines de milliers d'IO par seconde pour une SSD contre moins de 200 pour un disque dur) et de la latence d'accès aux données (moins d'une milliseconde pour une SSD contre 5 ms pour le meilleur disque dur à 15 000 trs/minute).

SSD idéal si ce n'est son coût

Il est clair que les SSD révolutionnent le stockage, car elles mettent en exergue un autre indicateur que le coût du Go, c'est la capacité à traiter un nombre élevé d'entrées/sorties par Go. Dans l'absolu, si les équipementiers reconnaissent que les SSD représentent techniquement la meilleure solution par rapport à nos vieillissants disques durs, des questions restent en suspens sur leur fiabilité. « Tout mettre sur des SSD, c'est l'idéal si nous n'avons pas les contraintes de coûts et des incertitudes sur leur durée de vie, sans oublier la capacité bien plus faible qu'un disque dur...», constate à juste titre Gabriel Chaher. Pour Guy Chesnot, architecte stockage chez SGI, pour avoir une fiabilité garantie avec les SSD, il est recommandé de disposer de systèmes SSD avec des algorithmes de redondances et de correction d'erreurs. Sebastien Verger, directeur technique d'EMC, tient néanmoins à temporiser sur la fiabilité des SSD, « chez EMC, nous avons déjà 5 années d'exploitation dans les SSD, le constat est qu'il n'y a pas plus de problèmes de fiabilité avec les SSD que par rapport aux disques durs hautes performances ». 

 

On le voit bien, les disques durs ne vont pas disparaître à moyen terme, il n'empêche que depuis peu, business oblige, les baies 100 % flash se multiplient. En effet, on ne compte plus uniquement les start-ups très spécialisées comme Pure Storage, Violin Memory, Nimbus Data ou encore SolidFire à proposer ce type de Baie 100 % SSD, mais aussi des grands fabricants comme NetApp avec sa récente baie EF5400 (qui fait suite à l'acquisition d'Eugenio filiale stockage de LSI) ou encore EMC avec son projet X issu du rachat d'XtremIO. Point important par rapport à ces baies 100 % flash, certaines déjà disponibles sont basées sur un châssis hybride mélangeant des disques et des SSD et de ce fait, ces baies ne sont pas forcément bien optimisées pour une utilisation 100 % full flash...

 

La fin des disques durs reportée grâce à l'innovation

En attendant que la fiabilité des SSD s'améliore, que les prix baissent et que leur capacité augmente, les fournisseurs travaillent toujours sur l'amélioration des performances autour des disques durs. Ainsi Quantum combine, dans sa gamme Lattus (destinée aux environnements de stockage de plusieurs pétaoctets), une technologie de stockage objet avec un système de passerelle CIFS et NFS. Le but est de palier au temps de restitution d'un Raid qui peut durer des heures en fonction de la capacité. La gamme Lattus utilise des équations mathématiques pour exploiter le partage des disques. Par exemple, si l'on distribue les informations sur plusieurs disques et que l'on perd quatre disques, en aucun cas les données seront perdues, elles transiteront vers d'autres disques.

À l'instar de Quantum, SGI a mis au point une technique pour gérer des données à très long terme avec ses baies de disques Copan utilisant la technologie MAID (Massive Array of Idle Disks). Ces baies représentent une alternative à la bande pour la conservation sur le moyen et le long terme des données. Afin de réduire l'inconvénient principal des disques magnétiques, à savoir le fonctionnement en continu, les baies Copan offrent la possibilité de mise hors tension des disques unitaires, tout en permettant un « réveil » global des disques, puisque jusqu'à 50 % des unités peuvent être redémarrées en une seule fois. Les technologies MAID pour réduire la consommation électrique, Nec les maîtrise, le fabricant nippon travaille aussi sur des technologies permettant de mieux garantir l'intégrité des données en isolant de la baie, par exemple, les disques durs qualifiés de potentiellement défectueux. En effet, une analyse de bas niveau est effectuée sur le disque et, dans la majorité des cas, le disque incriminé est reconstruit et n'a pas besoin d'être changé, le tout s'effectuant sans impacter la baie entière. Notons enfin que Nec dispose aussi d'un certain nombre de brevets sur l'optimisation des composants basses consommations que le constructeur revend en OEM à ses partenaires équipementiers.

 

 Retrouvez l'intégralité du dossier sur LMI LeMonde Informatique :