Communiqué de presse

Les technologies Flash et la virtualisation des applications stratégiques bouleversent le monde de l’entreprise.

Par George Teixeira, président et CEO, DataCore Software

Au cours de l’année dernière, nous avons vu les premières étapes d’une évolution vers des architectures à base logicielle. Ce phénomène a favorisé  plusieurs tendances majeures qui redéfinissent ou influent sensiblement le  monde du stockage d’entreprise, préparant la voie, afin que l’année 2013  devienne l’année où le stockage à base logicielle transforme le datacenter.

L’évolution d’un modèle de virtualisation à base matérielle vers un autre à base logicielle prenant en charge les applications métier stratégiques a modifié les fondements des architectures au niveau serveurs, réseau et stockage en rendant dynamique ce qui était statique. La dimension logicielle définit le cadre pour l’agilité, les interactions utilisateur et la création d’une infrastructure virtuelle pérenne qui s’adapte au changement. Le but ultime est d’accroître la productivité des utilisateurs et d’améliorer l’expérience  applicative.

Tendance 1 : les applications stratégiques seront virtualisées et la performance cruciale

Les efforts pour virtualiser davantage le datacenter se poursuivent et nous  allons même observer un phénomène renforcé avec la migration des  applications stratégiques (ERP, bases de données, systèmes de messagerie,  OLTP, etc.) vers des plates-formes de virtualisation. Le principal facteur  qui l’explique réside dans des gains de rentabilité et de productivité.

Toutefois, les obstacles majeurs à la virtualisation de ces applications  sont en grande partie liés au stockage.

La migration de charges de travail intensives en termes de stockage sur des  machines virtuelles (VM) peut agir considérablement sur la performance et la disponibilité. Il faut donc surprovisionner et surdimensionner le stockage.  En outre, au fil de la consolidation sur des plates-formes virtuelles, les  entreprises doivent, d’une part investir plus pour obtenir des niveaux  supérieurs de redondance afin de garantir l’absence d’interruptions et la continuité d’activité, d’autre part se préoccuper des problèmes de  performances.

Les coûts élevés et la complexité du surdimensionnement annihilent l’essentiel  des avantages. De ce fait, les entreprises et les DSI recherchent des solutions plus efficaces et rentables (de type logiciel intelligent),  réalisant que la stratégie classique d’ajout de matériel n’offre plus une  réponse viable au problème.

Tendance 2 : les technologies de mémoire Flash SSD seront utilisées  universellement, le stockage ne se limitant pas aux disques durs

Une autre tendance majeure relative à la virtualisation des applications  stratégiques consiste en la prolifération des technologies de mémoire Flash  SSD. La raison est simple : les disques durs sont des périphériques à  rotation mécanique, moins rapides que ceux utilisant une mémoire  électronique ultra-rapide.

La mémoire Flash n’est pas une nouveauté, mais son coût s’avérait auparavant bien trop élevé pour une large adoption. Bien que restant plus coûteuse qu’un  disque dur mécanique, son utilisation dans des tablettes et des téléphones  cellulaires fait baisser son prix. Toutefois, elle se détériore, et les  applications intensives en écritures peuvent réduire sa durée de vie.

Les périphériques Flash offrent néanmoins une solution d’avenir  incontournable et il faut les intégrer à la conception architecturale. Les  facteurs économiques incitent déjà à utiliser différentes couches de  stockage (disques SSD rapides et disques durs plus lents et bon marché). Ce  fait renforce, à son tour, la demande en logiciel de hiérarchisation automatique pour l’entreprise capable d’optimiser le rapport  coût-performance en plaçant et transférant les données sur la couche la plus rentable qui peut assurer une efficacité acceptable.

Tendance 3 : plus de stockage va entraîner une automatisation accrue

Il existe un besoin constant et insatiable en capacité de stockage, avec une croissance continue dépassant 50 % par an. Toutefois, il ne se limite pas à  plus de matériel pour fournir un volume brut. Les utilisateurs souhaitent  plutôt une solution alliant automatisation, autogestion, évolutivité,  provisionnement rapide, performance et continuité d’activité optimale.

De nouveau, seul un logiciel intelligent peut simplifier et automatiser la gestion du stockage.

Tendance 4 : une architecture de stockage à base logicielle va primer sur le materiel

Ces tendances, et le fait de permettre aux DSI de rendre interchangeable le  matériel de stockage dans des infrastructures virtuelles, va profondément  modifier notre manière de concevoir, acheter et utiliser ce matériel.

En 2013 et au-delà, les DSI vont devoir adopter le stockage à base  logicielle comme un élément essentiel des datacenters.

Les utilisateurs, devant faire face à la nouvelle dynamique et au rythme  accéléré du marché actuel, ne peuvent s’enfermer dans les anciennes  architectures physiques rigides. L’infrastructure repose sur trois piliers (serveurs, réseau et stockage) et, à chaque niveau, les décisions en termes  de matériel vont dépendre d’un monde dominé par le logiciel et axé sur les applications.

Incontestablement, la grande réussite de VMware et de Microsoft Hyper-V  démontre les avantages clés qu’offre la virtualisation des serveurs. De  même, l’hyperviseur de stockage et la virtualisation du stockage sont cruciaux pour libérer les freins matériels qui entravent l’évolution des datacenters.

Tendance 5 : le stockage à base logicielle rend nécessaire un hyperviseur de stockage

La même réflexion qui a changé nos visions du serveur s’impose pour gérer le stockage, le catalyseur résidant dans un logiciel intelligent. En effet, le  rôle premier d’un hyperviseur de stockage est de virtualiser les ressources de stockage pour obtenir les mêmes avantages (agilité, efficacité et  flexibilité) que pour les ressources de serveur (processeurs et mémoire).

Le logiciel va donc prendre tout son sens et commencer à transformer notre mode de conception du stockage.

Le but ultime : une meilleure expérience applicative grâce à un stockage à  base logicielle

La virtualisation a transformé l’informatique et les applications dont l’entreprise  dépend. Le stockage en entreprise et dans le cloud reste néanmoins dominé  par la dimension physique et matérielle. Nous devons modifier notre approche et considérer de quelle manière le stockage influe sur l’expérience  applicative en le concevant comme à base logicielle, les services et  fonctions de stockage devenant disponibles dans toute l’entreprise et pas uniquement intégrés à un périphérique propriétaire.

Pourquoi acheter un matériel spécifique pour n’obtenir qu’une fonction  logicielle ? Pourquoi limiter une fonction à une seule plate-forme au lieu  de l’utiliser dans toute l’entreprise ? Cette approche est dépassée et,  avant la virtualisation, ainsi fonctionnait le monde des serveurs. À présent, grâce à VMware ou Hyper-V, nous considérons la manière de déployer  des VM et non la question de savoir si elles s’exécutent sur un système Dell, HP, Intel ou IBM.

Le stockage subit une transformation similaire et, dans l’année qui vient,  un logiciel intelligent va permettre d’offrir une meilleure solution.