35 Zo d'ici à 2020, soit 45% par an ! Le volume des données explose. Mais le vrai problème n'est pas tant le volume. Que faire de toutes ces données ? Les stocker ou les archiver ?

La volumétrie des données explose, 35 Zo d'ici à 2020, soit 45% par an selon IDC ! Le stockage et l'archivage sont donc stratégiques dans les décisions IT que les entreprises doivent prendre.

Xavier Laignel Expert e-Archiving
Xavier Laignel Expert e-Archiving

Premier constat : le cloud dans l'état actuel des choses sert davantage à une extension de sauvegarde avancée avec des fonctions de reprise d'activité même si, dans un avenir proche, on irait plus loin en stockant réellement une partie des données primaires dans le cloud. Deuxième constat : la tendance actuelle est de hiérarchiser de façon automatique le stockage. Les technologies de provisionnement fin ou de multi-tiering se multiplient chez les éditeurs et les constructeurs de baies pour mieux saucissonner le stockage en fonction de l'importance des données. Troisième constat : il faut aller jusqu'au bout de la réflexion. Nous savons que les solutions existent, encore faut-il les adapter à la nature des enjeux. Au fait, pour vous : sauvegarde/stockage /archivage : Même combat ? 

« Le stockage est la pierre angulaire des environnements cloud. Il faut garantir les ressources, les niveaux de SLA, la gestion, les accès et la sécurité des données, et ce quel que soit le type de cloud» résume David Thomas, responsable commercial  de chez Interoute. Ces mots ont toute leur importance pour un fournisseur de services cloud pour ne pas reproduire l'incident d'Amazon qui a conduit à une perte de données de ses clients. Souvenez-vous, en 2011, un crash des serveurs dans un centre de données d'Amazon en Virginie avait gravement affecté des milliers de sites web hébergés sur Amazon Web Services (AWS). La conséquence de cela est qu'un certain nombre de clients avaient définitivement perdu leurs données faute de stratégie de déduplication rigoureuse des données.  «Nous pensons, à juste titre, que le cloud est un bon moyen pour faire de la réplication grâce aux technologies de virtualisation et garantir ainsi la reprise d'activité. Aujourd'hui, c'est clairement l'aspect de continuité qui prime dans le cloud» rebondit Stéphane Estevez, responsable marketing produit pour les régions EMEA et APAC chez Quantum.

Un backup as a service ou un disaster recovery as a service, c'est ce qui prime aujourd'hui dans le cloud pour de nombreux fournisseurs qui insistent sur la garantie d'une continuité de service. Selon différentes études, en moyenne 40% des opérations de restaurations échouent en local, le cloud pourrait donc se montrer plus performant...Un avis que partage Stéphane Berthaud, responsable avant-ventes chez Veeam qui indique que la récupération des données à la source devient très compliquée entre l'archivage et la sauvegarde. « Avec la version 6 de Veeam Backup et Réplication, nous mettons un point d'honneur sur l'importance de la réplication des données et surtout la reprise d'activité dans les environnements virtuels, c'est une tendance et de nombreux intégrateurs proposent nos offres en mode cloud » reconnaît M. Berthaud.

 

Le cloud : une extension pour la sauvegarde...

Il est vrai que les données ou les systèmes qui ont été perdus doivent pouvoir être restaurés le plus rapidement possible, et ce, dans leur configuration la plus récente. C'est le seul moyen de limiter les risques de pertes de données, les temps d'arrêt ou les interruptions des activités métiers. Tous les acteurs aujourd'hui proposent des solutions de continuité de services transposables dans le cloud comme les fournisseurs de solutions de virtualisation Microsoft, VMware et Citrix et tous les autres acteurs IBM, Arkeia, Quantum, EMC, Symantec, Falconstor, HP ou Nec IT Platform. Il est difficile de citer toutes les solutions, voici quelques exemples. Déjà la solution Hydrastor que Nec IT Platform vient de lancer. Pour Thierry Marulier, responsable marketing continuité de service chez Nec Europe, c'est une application de déduplication et d'archivage qui se distingue, selon le fabricant par sa scabilité (architecture en grille), ses performances et son avantage TCO pour les entreprises.

HP, de son côté, s'est considérablement renforcé dans ce domaine depuis le rachat de l'entreprise 3PAR il y a deux ans. « Nous commercialisons des solutions dotées des technologies 3PAR avec de la réplication synchrone et asynchrone transposable dans les environnements cloud » confirme Pierre Hoffer, le nouveau directeur de l'entité stockage chez HP. Quant à Symantec, l'éditeur propose Veritas Cluster Server 6.0 pour la haute disponibilité, sans oublier NetBackup 7.5 et Backup Exec 2012 pour la gestion de la sauvegarde et la reprise d'activité rapide et simple. Les deux derniers, l'un comme l'autre, présentent un changement dans le mode opérationnel de la sauvegarde en proposant une plateforme intégrée qui vient remplacer des solutions multiples souvent utilisées aujourd'hui, une fenêtre de sauvegarde réduite, une gestion facilitée et accélérée des données à travers une définition des données à sauvegarder, archiver ou supprimer, des snapshots unifiés et surtout une unification des sauvegardes entre environnements physiques et virtuels avec une meilleure visibilité grâce à la technologie VRay.

Enfin, chez EMC, on confirme aussi que le stockage en mode cloud concerne essentiellement, aujourd'hui, le stockage secondaire pour des opérations de sauvegarde et de déduplication des données. À ce titre, EMC met en avant ses solutions Data Domain, sa solution de sauvegarde à la cible et Avamar pour la duplication à la source qui implique moins de ressources réseau contrairement à une sauvegarde à la cible. Dans la même tendance, Serge Heitzmann, gérant de la société Kiwi Backup met en avant sa solution Kiwi Backup Pro en insistant sur le coût du Go sauvegardé, environ 60 centimes d'euros...

 

Vers un stockage hybride ?

Ce parti pris de la réplication et de la continuité de service mérite que l'on se pose cette question. Peut-on aller plus loin et, faut-il migrer toute son infrastructure de stockage dans le cloud ? Pour Vincent Videlaine, directeur technique alliances stratégiques chez Symantec, on le peut, et c'est même souhaitable et souhaité. «Selon une enquête sur l'évolution de la virtualisation et du cloud menée par Symantec, en moyenne, en France, seulement 26 % des applications stratégiques (ERP, comptabilité et CRM, par exemple) fonctionnent dans des environnements de cloud hybride et privé contre 33% dans le monde » souligne Vincent Videlaine. Du côté des entreprises européennes et françaises, elles sont très prudentes sur ce que l'on peut mettre dans le cloud. Il y a bien sûr des contraintes juridiques, des exigences de performances et des restrictions de sécurité qui impliquent que les entreprises ne peuvent pas externaliser toutes leurs données. L'installation locale est incontournable. Hormis ces obligations, les entreprises hésitent malgré tout à confier une partie de leurs données primaires dans le cloud car elles estiment, peut-être à tort, que ces dites données (qui concernent des informations critiques et sensibles) doivent rester en entreprise.  

«Il est tout à fait compréhensible qu'une entreprise comme Thales ne mettra pas des données critiques concernant les sous-marins nucléaires ou même Airbus avec ses plans d'avions, toutefois les données comme les RH, la gestion de la relation client, etc. qui représentent 90% des données, le cloud a toute sa place. C'est à l'entreprise de définir le critère de sensibilité de ses données...sans tomber dans un excès de peur déraisonnée» résume Patrice Gommy. « Quel que soit le degré de sensibilité des données, il faut bien comprendre que les grandes entreprises ont massivement investi dans leur système d'information depuis des années. Ce qui explique aussi leur volonté d'aller plus vers des solutions de cloud privé. En revanche, pour les PME et les sociétés nouvelles, le fait de transférer leur infrastructure de stockage dans un cloud public a du sens, car ils n'ont pas forcément un héritage aussi important sur le système d'information » souligne pour sa part Eric Chiquet, San/Disk product leader chez IBM System & Technologie Group.

En outre, les entreprises font de plus en plus appel à des solutions de stockage dans un environnement de « cloud hybride ». C'est en quelque sorte le phénomène du « stockage as a service ». Le meilleur exemple est celui de Salesforce.com, un service Saas que de nombreuses entreprises exploitent en traitant des données critiques puisque ces dernières concernent des informations clientes...

Autre exemple, certaines entreprises manifestent leur intérêt pour une vraie stratégie cloud public pour des événements ponctuels auxquels les infrastructures de stockage locales ne peuvent pas répondre. On peut citer une agence de communication qui a besoin pour l'organisation de son évènement d'une infrastructure temporaire ou, autre exemple, la gestion des pics du e-commerce lors des soldes. Dans ces cas, le cloud peut être un bon moyen pour répondre aux besoins de stockage des entreprises.

 

Le manque d'interopérabilité toujours présent

«Ces offres de stockage hybride peuvent effectivement répondre à des besoins, mais elles posent aussi des problèmes d'interopérabilité et d'interconnexion entre les datacenters privés et les datacenters publics » admet Pascal Danet, responsable des équipes System Engineer chez Brocade qui met en avant la réflexion des standards d'interconnexion que tente de résoudre la plateforme Fabric de Brocade. Effectivement, les infrastructures actuelles montées en silo sont très fermées, il y a un réel manque de standardisation entre les différents Cloud qu'ils soient privés ou publics. On revient, en quelque sorte, à la topologie des mainframes. Un avis que partage David Thomas qui indique que, hormis les interconnexions, le fait de prendre une simple image VMware et la coller dans un Cloud HyperV (Microsoft), ça ne marche pas à tous les coups... même si VMware, avec ses 80% de parts de marché s'impose comme un standard de fait.

Ce manque d'interopérabilité est aussi valable au niveau des Paas (Platform as a service), il est difficile, aujourd'hui, de migrer des données du Cloud Computing d'Amazon vers une plateforme Azure. Au-delà des offres des fournisseurs, ces problèmes de standardisation s'expliquent aussi par un modèle économique différent, des problèmes d'interfaçages et des niveaux de garanties de SLA qui ne sont aussi pas les mêmes. Toutefois, il faut remettre le Cloud dans son contexte, le Cloud est encore considéré, à juste titre, comme un marché nouveau, chaque acteur peaufine et défend sa stratégie. Enfin, Pierre Hoffer insiste sur le fait qu'une hiérarchisation se met petit à petit en place dans le vaste choix des fournisseurs de services Cloud, d'un côté le « low cost » avec les risques que l'on connait pour les entreprises, de l'autre les fournisseurs d'Iaas plus prompts à apporter de la valeur aux engagements (niveau de SLA, sécurité, etc.).

 

Des accès réseau pas toujours fiables et garantis

Pour faire de « l'hybride », du public ou même du « privé outsourcé », de nombreux acteurs avancent aussi que les accès doivent être performants et conséquents. « Il faut garantir les accès entre les différents cloud » reconnaît David Thomas. «Je connais un concessionnaire automobile qui a fait appel à un cloud public pour son activité et l'accès s'est effondré en 24 heures ! » renchérit Pascal Danet. D'ailleurs, de plus en plus d'entreprises citent, selon les études réalisées par les cabinets IDC, Gartner ou Forrester, deux freins supplémentaires à l'adoption du Cloud. C'est la fiabilité du réseau et la qualité de la bande passante offerte. Or, comme chacun peut l'expérimenter, il arrive que le réseau Internet soit indisponible. Un accès réseau non garanti peut s'avérer catastrophique pour l'entreprise. Il faut le savoir, certains fournisseurs de services cloud sont dans l'impossibilité de proposer aux entreprises utilisatrices des débits suffisants, un accès fiable et une maîtrise de la qualité de service de bout en bout. Ils maîtrisent, bien sûr leur périmètre de responsabilité à ce qu'ils contrôlent, c'est-à-dire leur propre réseau, et en excluent le réseau public. Il faut le dire, les opérateurs comme Orange ou SFR disposent, dans ce cas précis, de plus d'armes et de légitimité. De ce fait, l'entreprise cliente de ces fournisseurs devra bien établir les recours dans le contrat qu'elle pourra avoir en cas de défaillance du réseau ou de performances insuffisantes.

Enfin, on ne peut pas traiter le stockage dans un environnement cloud sans aborder la question du lieu où sont stockées les données. En effet, les entreprises insistent de plus en plus dans les contrats de spécifier le lieu où seront stockées les données. Par exemple, si une entreprise choisit un prestataire américain, elle peut voir ses données consultées à tout moment, car le Patriot Act (une loi anti-terroriste votée après les attentats du 11 septembre 2001) permet à une agence fédérale américaine d'accéder aux données d'un hébergeur d'origine américaine. Cela peut également entraîner des litiges relatifs à la propriété des données et compliquer ainsi la tâche lorsqu'on veut récupérer ses données pour les confier à un autre fournisseur. On le voit bien, le choix du cloud peut être une bonne solution, mais les données dépendent aussi de la garantie offerte par le fournisseur et du lieu où elles se trouvent.

 

 

Le stockage en ligne, une passerelle vers un cloud généralisé

« La démocratisation du cloud passera d'abord par le stockage en ligne », c'est la prédiction du cabinet d'études Gartner qui a récemment publié une étude sur le sujet. En effet, Gartner indique que de plus en plus d'utilisateurs stockeront leurs données en ligne au détriment de leur disque dur. D'ici 2014, l'espace personnel dématérialisé pourrait remplacer le simple disque dur du PC dans le quotidien des internautes selon Gartner. La virtualisation (capacité à basculer d'un système d'exploitation à un autre), la déclinaison des applications sur plusieurs environnements, la disponibilité 24h/24 des services de stockage en ligne et leur mobilité sont les principaux facteurs au succès du stockage en ligne. Déjà un certain nombre d'acteurs comme DropBox, Box.net et Google Drive proposent des services de stockage en ligne. Si auparavant, ces offres étaient limitées en terme de capacité proposée (de 5 Go pour un service gratuit à quelques dizaines de Go pour un service payant), aujourd'hui, les capacités sont bien plus importantes, plusieurs milliers de gigaoctets par utilisateur. En effet, le prix du Go continuera à baisser et les capacités des datacenters vont s'accroître de façon exponentielle pour faire face à la demande.