Étude annuelle DataCore : les tendances en matière de stockage

Prévisions de tendances du Software Defined Storage et de l’hyperconvergence pour 2019

DataCore a publié une étude dont les résultats sont intéressants et que vous pouvez consulter ici. Mais quelques domaines ont plus particulièrement attiré l’attention….

La continuité d’activité n’a rien de facile

L’étude a montré que le souci principal en matière d’infrastructure de stockage, quel que soit son type, était de limiter les perturbations et de garantir la continuité d’activité, sur site comme dans le cloud. Ce qui étonne, c’est qu’il s’agit d’un problème que l’informatique tente de résoudre depuis des dizaines d’années. Pourquoi ?

La réponse est que la continuité d’activité est une chose complexe. Il existe une différence entre haute disponibilité et reprise après sinistre. En dépit de ce que peuvent affirmer certains fournisseurs, une sauvegarde, ou même une copie miroir des données, ne résoudra pas le problème. La continuité d’activité est la garantie qu’en cas de sinistre, l’entreprise pourra récupérer ses données à temps et continuer de fonctionner.

Un grand nombre de facteurs et de décisions sont à prendre en compte : mise en miroir ou réplication, copie synchrone ou asynchrone, locale ou distante, nombre de copies des données, etc. Un système doit pouvoir répondre aux besoins de l’entreprise (RTO et RPO).

Ce qui est très souvent laissé de côté, c’est le processus réel utilisé pour le basculement, le rebasculement et la restauration du système à son état d’origine, si possible sans perturbation et sans intervention manuelle. Des manuels pratiques et des tests doivent être mis en place.

En conclusion, la continuité d’activité restera indéniablement difficile en 2019, mais il existe un certain nombre de technologies qui peuvent nettement la faciliter.

Le cloud arrive à maturité

Le cloud apparaît aujourd’hui comme un composant standard de l’informatique. La plupart des spécialistes technologiques savent quand et comment il peut présenter un intérêt. Lew Moorman, ancien président de Rackspace, a confié ceci : « Le cloud est pour tout le monde, mais pas pour n’importe quoi ». C’est parfaitement exact. Notre étude a montré que 42 % des personnes interrogées ne pensaient pas au stockage sur le cloud public.

Il y a environ 8 ans, l’informatique voyait dans le cloud un moyen de réduire les coûts. Aujourd’hui, le secteur se rend compte que l’intérêt essentiel de cette technologie réside plutôt dans la souplesse qu’elle apporte. Un grand nombre d’entreprises ont d’ailleurs eu un choc devant le prix du cloud face à l’augmentation incessante des chiffres d’utilisation, au recours à des services supérieurs (par exemple, des instances de niveau supérieur dotées de davantage de ressources, des IOPS provisionnées, etc.) et à l’apparition de coûts supplémentaires (bande passante, appels d’API, etc.), le tout venant alourdir la facture.

L’étude a montré que 36 % des utilisateurs avaient compris que le cloud coûtait plus cher que les solutions sur site. Du strict point de vue du modèle économique, on peut souvent le comparer à la location de voiture : pratique et peu coûteux sur quelques jours, mais en aucun cas économique sur le long terme, surtout à l’échelle nécessaire.

Dans le même temps, le cloud a tendance à déteindre sur tout : ce que nous appelons stockage classique sur site est en général une infrastructure virtualisée, contrôlée par logiciel et à évolution dynamique dans un environnement de colocalisation.

Tandis que le cloud prend une importance croissante pour l’informatique et poursuit son expansion, les centres de données classiques n’évoluent plus. Les dépenses informatiques sur site continuent d’augmenter.

Éviter le piège du fournisseur unique

Notre étude a montré que 42 % des personnes interrogées avaient surtout peur de se retrouver piégées par un fournisseur de stockage. Pourquoi ? Par crainte de perdre leur liberté, de devoir payer des coûts élevés et d’être privées de toute flexibilité. Les fournisseurs de matériel de stockage offrent des programmes pluriannuels imaginatifs qui exigent des engagements à long terme.

Cela prend une importance particulière si nous tenons compte des diverses vagues de technologies de stockage. On dirait qu’avec chaque nouvelle technologie, de nouveaux fournisseurs apparaissent. Les services informatiques migrent alors vers les systèmes de stockage proposés par ces nouveaux arrivants. On peut donc s’attendre à ce que de nouvelles technologies, de nouveaux fournisseurs et de nouveaux leaders du marché émergent dans les prochaines années. Dans ces conditions, pourquoi limiter ses possibilités à ce qui sera bientôt un fournisseur dépassé ?

À l’heure où le matériel de stockage est devenu un bien de consommation courante, il est logique que les responsables informatiques tentent d’éviter de se retrouver pieds et poings liés. L’intérêt des systèmes de stockage réside de plus en plus dans les services offerts par les logiciels : mise en miroir, hiérarchisation automatique, thin provisioning, etc.

Le software-defined storage peut offrir les mêmes services dans des environnements hétérogènes, souvent avec des fonctionnalités plus évoluées que celles offertes par les fabricants de matériel. L’installation de cette couche de virtualisation intelligente par-dessus la couche logicielle comporte également d’autres avantages, comparables à ceux offerts par la virtualisation du calcul : diminution des coûts grâce à l’automatisation, simplification de la gestion, diminution du nombre de migrations et possibilité de profiter d’un jeu de services cohérent sur l’ensemble des systèmes de stockage.

Il n’y a donc rien d’étonnant à ce que d’après notre étude, 57 % des services informatiques songent sérieusement à opter pour le Software-Defined Storage dans les 12 prochains mois, ou même qu’ils l’aient déjà prévu. L’intention d’adopter le SDS est d’ailleurs deux fois supérieure à celle d’adopter une infrastructure hyperconvergée (respectivement 37 % contre 20 %).  Avec la liberté qu’offre le SDS, vous n’avez plus d’excuse pour laisser votre fournisseur de matériel vous piéger.

La lente adoption du NVMe

L’une de ces nouvelles vagues technologiques est le NVMe, qui augmentera encore les performances du flash en offrant des connexions parallèles au stockage haut débit. Bien sûr, il n’est jamais facile d’adopter de nouvelles technologies. L’une des raisons de cette difficulté est le coût de remplacement du matériel existant par des modèles dernier cri. Notre étude montre que seuls 6,5 % des responsables interrogés avaient installé du NVMe dans 50 % de leur environnement.

La complexité de la migration du matériel et de la création d’un système complet capable de bénéficier des performances du stockage sur NVMe est une autre raison. L’étude a montré qu’environ la moitié des responsables interrogés n’avaient pas adopté le NVMe dans leur environnement. Les services informatiques qui souhaitent bénéficier des performances du NVMe disposent pourtant de quelques options, dont les suivantes :

  • La technologie Parallel I/O, qui peut offrir au matériel non-NVMe des avantages de traitement parallèle comparables. Il est relativement courant de voir les performances de stockage multipliées par 5, puisque le goulot d’étranglement des E/S créé par l’utilisation de threads uniques disparaît et que des algorithmes intelligents de mise en cache supplémentaires sont introduits.
  • L’utilisation du Software Defined Storage et de la hiérarchisation automatique dynamique au niveau des blocs, grâce à laquelle une petite quantité de stockage NVMe directement connecté peut offrir de nettes améliorations de performances à toutes les applications qui l’exigent.
  • Le Software-defined storage, qui peut également rendre particulièrement efficace le recours au NVMe sur un NAS en cas d’utilisation d’une technologie Fiber Channel gén. 6, qui accepte jusqu’à 1,6 million d’IOPS sur un même port. Le SDS libère tout le potentiel du système en termes de performances et supprime les besoins de migration.
  • Le NVMe sur des fabrics, qui représente un modèle d’avenir pour l’optimisation des performances, mais qui n’a pas encore atteint un niveau de maturité suffisant pour justifier un déploiement généralisé.

 

Toutes les applications n’ont pas besoin des performances du NVMe, pas même le flash. Toutefois, comme avec la plupart des nouvelles technologies, une majorité de nouveaux systèmes de stockage pourraient l’utiliser dans un avenir proche.

L’évolution de l’infrastructure hyperconvergée

L’infrastructure hyperconvergée (HCI) a permis aux centres de données de développer des systèmes pleinement intégrés pouvant être déployés très facilement. Cela ne va pourtant pas sans quelques inconvénients.

Près de 40 % des responsables interrogés lors de l’enquête déclarent éliminer l’option HCI parce qu’elle ne s’intègre pas dans les systèmes existants (elle crée des silos), qu’elle est trop chère, qu’elle entraîne une dépendance vis-à-vis du fournisseur et qu’elle ne peut pas faire évoluer indépendamment les ressources de calcul et de stockage.

Comme l’on peut s’y attendre, la technologie évolue. Une approche logicielle permet de créer un système hyperconvergé capable d’accéder à du stockage externe et de présenter le stockage à des hôtes externes. Les silos sont ainsi décloisonnés et les ressources de stockage et de calcul peuvent évoluer de façon indépendante. En outre, puisqu’il s’agit de l’un des modèles de développement du SDS, un centre de données peut librement migrer vers une HCI ou une infrastructure convergée hybride, voire revenir à un modèle classique, en fonction des besoins.