Recherche
Langues
15 min de lecture

Les bases de la redondance des données : protéger vos données contre les imprévus

Se repérer dans le monde de la redondance : outils, techniques et compromis
Dc Dataredundancy Blogpost Hero Image

Dans cette ère numérique au rythme effréné, les données représentent la plus précieuse des ressources. Les protéger contre les menaces potentielles est donc devenue l’une des préoccupations majeures des entreprises du monde entier. L’augmentation des cyberattaques, des suppressions accidentelles de données, des catastrophes naturelles et des dysfonctionnements matériels ne fait que souligner la fragilité de nos référentiels numériques. Ces difficultés ont forcé les organisations à affronter la dure réalité des pertes de données, qui se traduisent non seulement par des déboires financiers, mais également par des dommages irrévocables causés à leur réputation, la perte de confiance de leurs clients et des répercussions réglementaires.

Même de petites perturbations peuvent devenir d’énormes problèmes, entraînant un arrêt brutal des opérations et entamant les résultats de votre entreprise. Dans un tel scénario, il ne s’agit plus seulement de stocker des données ; il s’agit de les protéger solidement à l’aide d’outils de redondance.

Qu’est-ce que la redondance des données ?

Fondamentalement, la redondance des données consiste à créer et à stocker des copies de données. Vous savez ainsi que si les données principales se heurtent à un problème de compromission, une solution de secours vous attend juste après. Cette réplication volontaire sert de filet de sécurité, détectant les anomalies avant qu’elles ne se transforment en catastrophes. C’est comme avoir une roue de secours dans votre voiture ; même si vous espérez ne jamais avoir à subir de crevaison, le fait d’avoir une roue en double vous garantit que vous ne resterez jamais bloqué.

En tant que stratégie, la redondance des données ne se résume pas à la simple création d’une copie. Il s’agit d’une combinaison d’outils, de techniques et de planification de l’infrastructure qui visent à garantir que vos données restent toujours accessibles et intactes. La redondance peut être réalisée à plusieurs niveaux, du matériel aux logiciels et des environnements locaux aux environnements dispersés géographiquement. Dans ce blog, nous énumérerons et présenterons les différentes méthodologies permettant de mettre en place la redondance des données, et nous analyserons les avantages et les inconvénients de chacune.

What is Data Redundancy?

1. Mise en miroir synchrone

automatic failover protection

La mise en miroir synchrone, pierre angulaire des architectures haute disponibilité, garantit la disponibilité des données en temps réel sur plusieurs systèmes de stockage (en général deux, parfois trois), habituellement sur un même site ou sur plusieurs clusters métropolitains. Lorsqu’une opération d’écriture a lieu, le système diffuse les données non seulement au périphérique de stockage principal, mais également (et en même temps) à un périphérique de stockage miroir (ou secondaire). La redondance des données est ainsi conservée en permanence, ce qui assure une correspondance individuelle des données sur les deux systèmes de stockage.

L’opération d’écriture n’est considérée comme terminée qu’une fois que les données ont été correctement stockées dans les systèmes de stockage à la fois principal et miroir. L’état des données est donc cohérent sur tous les appareils,

ce qui assure un objectif de point de récupération (RPO) et un objectif de temps de récupération (RTO) de zéro. Sous cette fonctionnalité se cache une série de protocoles et de méthodologies de communication qui garantissent le transfert des données en temps réel, les contrôles de synchronisation et les opérations de basculement et de restauration. Cela nécessite également des infrastructures réseau performantes, souvent sous Fibre Channel ou Ethernet haut débit, pour atténuer la latence.

2. Réplication asynchrone

Asynchronous Replication IconDans les cas de réplication asynchrone, la redondance est atteinte en copiant régulièrement les données depuis l’emplacement principal vers un emplacement secondaire, généralement sur de longues distances via une connexion WAN. Une application clé de cette méthode est la reprise après sinistre. Alors que le stockage principal accuse en premier réception de l’opération d’écriture, la réplication des données vers le stockage secondaire peut se faire avec un léger retard. Elle est donc asynchrone par nature. Cependant, au fil du temps, le stockage secondaire se synchronise avec le stockage principal, garantissant ainsi la disponibilité d’une copie redondante (même si celle-ci peut être légèrement obsolète par rapport à la copie principale).

La réplication asynchrone utilise un système de file d’attente ou de tampon. Lorsque le stockage principal a accusé réception de l’écriture, les données sont mises en file d’attente pour la réplication. Des systèmes avancés peuvent mettre en œuvre des algorithmes pour regrouper les données, minimiser les dialogues au sein du réseau ou hiérarchiser les séquences de données. Des journaux de modifications peuvent être utilisés pour suivre l’état des données à des intervalles spécifiques, ce qui permet d’assurer une synchronisation périodique avec le stockage secondaire. Cette approche est particulièrement courante dans les architectures de reprise après sinistre géographiquement dispersées, où les données sont répliquées de manière asynchrone sur des sites distants.

3. Code d’effacement

erasure

Le code d’effacement représente un changement de modèle par rapport aux méthodes classiques de redondance des données. Au lieu de répliquer l’ensemble des données plusieurs fois, le code d’effacement divise les données en blocs plus petits et génère des blocs de parité supplémentaires. Si les données d’origine sont stockées sur des nœuds ou des appareils différents, elles peuvent toujours être reconstituées à l’aide des données restantes, même si certains de ces fragments sont perdus ou corrompus. Cette méthode s’applique tout particulièrement aux systèmes de stockage distribué, comme les plateformes de stockage objet ou les systèmes de fichiers distribués, pour lesquels la résilience des données entre les nœuds ou même entre les data centers est primordiale.

Quand utiliser le code d’effacement ou la réplication

On privilégiera le code d’effacement dans les cas suivants :

  • Lorsque l’efficacité du stockage est cruciale
  • Si le nombre de nœuds de stockage est généralement élevé
  • Si on s’attend à ce que les données soient lues plus rapidement

On préférera généralement utiliser la réplication dans les cas suivants :

  • Lorsqu’une faible latence est une priorité
  • Si le nombre de nœuds de stockage est comparativement faible
  • Si la surcharge de calcul doit être minime

4. RAID

Raid IconRAID signifie Redundant Array of Independent Disks. Cette technologie sert à combiner plusieurs composants de lecteurs de disque en une seule unité logique à des fins de redondance des données. En exploitant plusieurs disques, le RAID peut distribuer les opérations d’I/O, mettant ainsi les données en miroir pour les protéger contre les pannes de disque.

Techniquement, le RAID fonctionne selon des principes d’agrégation par bandes, de mise en miroir et de parité.

  • L’agrégation par bandes (comme dans la norme RAID 0) disperse les données sur plusieurs disques, augmentant ainsi le parallélisme des I/O.
  • La mise en miroir (RAID 1), elle, réplique les données à l’identique sur deux disques, réalisant donc une sauvegarde directe.
  • La parité (RAID 5 et 6) introduit une méthode dans laquelle les données sont réparties sur les disques avec des informations de parité supplémentaires. Cette parité permet de les reconstituer si un disque tombe en panne.

5. Sauvegarde

Les sauvegardes sont un élément fondamental pour la redondance des données. Elles garantissent qu’une copie indépendante des données est stockée loin du stockage principal, en général sur un support différent, voire sur un autre emplacement géographique. Les sauvegardes sont des copies ponctuelles des données qui peuvent être rétablies en cas de corruption, de suppression ou autre événement catastrophique.

Une sauvegarde complète enregistre l’intégralité du jeu de données désigné. Les sauvegardes ultérieures pourront être soit différentielles, en n’enregistrant que les modifications intervenues depuis la dernière sauvegarde complète, soit incrémentielle, en enregistrant toutes les modifications effectuées depuis la dernière sauvegarde, quelle que soit leur nature. À la base de ces processus, les systèmes de sauvegarde utilisent des algorithmes de comparaison de données, des sommes de contrôle et des mécanismes d’indexation.

Comparaison entre les sauvegardes différentielles ou incrémentielles

Une sauvegarde différentielle enregistre toutes les modifications apportées aux données depuis la dernière sauvegarde complète. Il s’agira donc des différences entre la dernière sauvegarde complète et l’état actuel des données. Une telle sauvegarde peut se révéler plus volumineuse qu’une sauvegarde incrémentielle, mais elle offre un processus de restauration plus rapide, car elle ne nécessite que la dernière sauvegarde complète et la dernière sauvegarde différentielle.

Les sauvegardes incrémentielles, elles, n’enregistrent que les modifications apportées depuis la dernière sauvegarde, qu’il s’agisse d’une sauvegarde complète ou d’une précédente sauvegarde incrémentielle. Elles tendent à être moins volumineuses que les sauvegardes différentielles, mais une restauration complète peut en nécessiter un plus grand nombre, puisqu’il faudra toutes les appliquer dans l’ordre, en commençant par la dernière sauvegarde complète.

6. Snapshot

Snapshot IconLes snapshots assurent la redondance des données en enregistrant leur état à des moments précis. Au lieu de copier tout le jeu de données, un snapshot commence par enregistrer son état complet et n’enregistre ensuite que les modifications relatives à cet état. Même si les données principales subissent de nombreuses modifications ou sont corrompues, le snapshot pourra servir de copie ponctuelle redondante pour ramener les données à l’état qu’elles présentaient lorsqu’il a été pris.

Les snapshots utilisent un mécanisme de copie sur écriture ou de redirection sur écriture.

  • Dans un snapshot de copie sur écriture, lorsque les données sont modifiées, le bloc de données d’origine est copié et conservé avant que la modification ne se produise.
  • Dans un snapshot de redirection sur écriture, les nouvelles données sont écrites dans un nouveau bloc tandis que le bloc d’origine reste intact.

Tout comme les sauvegardes, les snapshots peuvent être différentiels ou incrémentiels. Les snapshots complets enregistrent l’intégralité du jeu de données à un moment précis. Ils offrent des sauvegardes complètes et indépendantes, mais consomment davantage de stockage. Les snapshots différentiels enregistrent les modifications par rapport à un snapshot complet. Ils fournissent ainsi des sauvegardes peu encombrantes en n’enregistrant que les modifications effectuées depuis ce dernier snapshot complet.

7. Continuous Data Protection (CDP)

Continuous Data Protection offre une approche granulaire de la sécurité des données. Contrairement aux sauvegardes et snapshots classiques réalisés à intervalles spécifiques, CDP garantit la redondance en enregistrant sans cesse chaque modification apportée aux données. Cette surveillance continue signifie qu’il existe toujours un journal redondant des modifications de données. Lorsqu’il est nécessaire de restaurer ou de récupérer des données, CDP permet de revenir en arrière avec une grande précision (un peu comme un bouton d’annulation). Même si des données importantes sont corrompues ou perdues dans le stockage principal, le journal complet du système CDP peut les restaurer à n’importe quel état précédent, fournissant ainsi des points de récupération redondants.

  • Dans CDP basé sur des blocs, les modifications au niveau des blocs de stockage sont surveillées et enregistrées.
  • CDP basé sur des fichiers, comme son nom l’indique, surveille les changements au niveau des fichiers.
  • CDP basé sur les applications se concentre sur l’enregistrement des modifications de données dans des applications spécifiques, garantissant des points de récupération cohérents avec les applications.

Le RPO pour CDP est généralement proche de 0 (en secondes) et le RTO sera de l’ordre de quelques minutes.

Analyser les avantages et les inconvénients des mesures de redondance des données

Technique Avantages Inconvénients
Mise en miroir synchrone Cohérence des données : garantit la synchronisation permanente des systèmes de stockage source et cible

Possibilité de basculement transparent : transition transparente et immédiate en cas de panne

Forte consommation de ressources : peut nécessiter un réseau performant et une capacité de stockage suffisante pour conserver des copies de données entièrement redondantes et gérer des écritures simultanées, ce qui augmente également les coûts.
Réplication asynchrone Performances : les performances du périphérique source ne sont pas affectées

Flexibilité géographique : convient aux emplacements de sauvegarde distants.

Risque de perte de données : perte potentielle entre les intervalles de réplication en cas de panne du site.

Consommation de capacité : les emplacements source et cible doivent disposer de la même quantité d’espace de stockage

Code d’effacement Redondance efficace : plus économe en espace que la mise en miroir ou la réplication

Tolérance aux pannes : tolère plusieurs pannes simultanées (dépend du mode de code d’effacement défini)

Intensité de calcul : surcharge d’encodage et de décodage

Complexité : la mise en œuvre peut être complexe et nécessite une grande maîtrise

RAID Basculement intégré : tolère les pannes au sein du système RAID (RAID 1, 5, 6)

Échange à chaud : certaines configurations RAID permettent de remplacer les disques défectueux sans éteindre le système ni interrompre les opérations.

Performances : offre d’excellentes performances lorsqu’il est mis en œuvre à l’aide d’un contrôleur RAID matériel

Temps de reconstruction : risque de délais de reconstruction longs, en particulier pour les disques volumineux.

Variabilité des performances : certains niveaux RAID (par exemple RAID 5), tout en offrant une tolérance aux pannes, peuvent subir des pénalités d’écriture en raison des calculs de parité.

Mise à l’échelle limitée : ne permet souvent qu’une mise à l’échelle limitée (par exemple, connectivité du contrôleur RAID matériel)

Sauvegarde Possibilité d’isolation : les sauvegardes peuvent être isolées pour protéger davantage les données contre les modifications indésirables ; agit comme la dernière ligne de défense

Permet de se protéger contre les ransomwares : disposer d’une sauvegarde récente peut aider à restaurer les systèmes sans céder aux demandes de rançon

Temps de restauration : prend beaucoup de temps pour les jeux de données volumineux ; dépend également du support de sauvegarde (stockage sur bande ou en ligne)

Coûts de stockage : les besoins d’espace élevés (lorsqu’il existe plusieurs versions, par exemple) augmentent les coûts

Snapshot Gain d’espace grâce aux copies incrémentielles : n’enregistre que les modifications ; réduit les besoins de stockage

Création rapide : puisqu’il s’agit d’une copie à un instant donné, elle est plus rapide que les sauvegardes et peut facilement être utilisée à des fins de test.

Ce n’est pas une sauvegarde complète : les snapshots ne remplacent pas les sauvegardes. Si le stockage sous-jacent est compromis, tous les snapshots peuvent être perdus.

Dégradation des performances : l’accumulation de snapshots peut nuire aux performances et compliquer la gestion

Continuous Data Protection (CDP) Granularité : enregistre chaque changement et permet de restaurer les données à un moment spécifique. La perte de données est donc minimale

RPO et RTO améliorés : en se chargeant des sauvegardes et des snapshots, CDP permet de récupérer les données plus rapidement

Forte consommation de ressources : lorsque les données reçoivent de nombreuses modifications, les besoins en ressources de calcul et de stockage sont importants

Période de restauration limitée : en général de quelques jours seulement pour éviter la sur-utilisation de l’espace de stockage

À mesure que nous avons découvert les subtilités de la redondance des données, il est apparu clairement que la protection de vos données n’était pas un luxe, mais un impératif. L’imprévu peut frapper à tout moment. En mettant en œuvre des mesures fortes de redondance des données, vous pouvez vous armer contre ces événements imprévus et faire en sorte que les données restent accessibles et intactes, même en cas de problème grave.

DataCore propose des solutions software-defined pour les environnements de stockage bloc et objet, avec de nombreuses mesures intégrées de redondance des données. Contactez-nous pour en savoir plus sur la redondance des données et les meilleures pratiques afin de les mettre en œuvre dans votre infrastructure informatique.

Solutions de stockage de données adaptées à tous vos besoins informatiques

Discutez avec un conseiller en solutions pour savoir comment la solution DataCore Software-Defined Storage peut rendre votre infrastructure de stockage plus moderne, performante et flexible.

Version d'essai

Publications associées
 
Décodage du processeur d’intégrité : le cœur battant du stockage objet DataCore Swarm
Vinod Mohan
Décodage du processeur d’intégrité : le cœur battant du stockage objet DataCore Swarm
 
Se repérer dans la tempête : l’acquisition de VMware par Broadcom et ses répercussions
Vinod Mohan
Se repérer dans la tempête : l’acquisition de VMware par Broadcom et ses répercussions
 
L’AIOps à l’œuvre : révolutionner les opérations informatiques à l’ère numérique | DataCore
Vinod Mohan
L’AIOps à l’œuvre : révolutionner les opérations informatiques à l’ère numérique | DataCore