Pourquoi NVMe-oF est important : faible latence, évolutivité et efficacité
La latence a toujours été le talon d’Achille du stockage réseau. Avec les disques mécaniques, quelques millisecondes de retard n’avaient pas vraiment d’impact, car le média physique était lui-même lent. Mais avec l’arrivée du flash et des SSD, le goulot d’étranglement s’est déplacé du périphérique vers la pile protocolaire et le réseau. Même avec des SSD NVMe en attachement local, les applications peuvent réaliser des opérations d’E/S en quelques dizaines de microsecondes. À l’inverse, les protocoles SAN traditionnels comme iSCSI ou FCP ajoutent souvent des centaines de microsecondes de surcharge logicielle et réseau. C’est précisément cet écart que NVMe-oF comble.
Techniquement, NVMe-oF étend l’ensemble de commandes NVMe à travers un réseau avec un minimum de traduction. Il évite la couche d’émulation SCSI, source majeure de surcharge dans iSCSI ou Fibre Channel. À la place, NVMe-oF prend en charge les files de soumission et de complétion directement à travers les fabrics, permettant aux requêtes d’E/S de circuler entre l’application et le SSD avec très peu d’intermédiation. Le résultat : des latences de l’ordre de 20 à 30 microsecondes sur le réseau, proches de celles du NVMe local.
L’évolutivité est tout aussi importante. NVMe a été conçu pour gérer un parallélisme massif, avec des milliers de files de soumission et de complétion. NVMe-oF préserve cette capacité sur le réseau. Au lieu d’une file de commandes unique saturée comme dans les protocoles hérités, les applications et hôtes peuvent ouvrir des files dédiées mappées directement à des cœurs CPU. Cette architecture permet de gérer des millions d’IOPS par hôte sans inefficacités dues aux changements de contexte ou au verrouillage de files. Pour les serveurs multi-cœurs exécutant des dizaines de conteneurs ou de VM, cela est essentiel pour maintenir une performance stable à grande échelle.
L’efficacité complète le tableau. Dans les piles traditionnelles, un nombre élevé d’IOPS signifie une forte consommation CPU ; la surcharge protocolaire consomme des cycles qui devraient être réservés aux applications. NVMe-oF réduit drastiquement cette pénalité. Les benchmarks montrent souvent que NVMe-oF peut offrir 3 à 4 fois plus d’IOPS par cœur CPU qu’iSCSI, permettant aux data centers de consolider leur infrastructure sans sacrifier la performance. C’est pourquoi les hyperscalers et les fournisseurs cloud considèrent NVMe-oF non seulement comme un accélérateur de performance, mais aussi comme une optimisation du TCO.
C’est crucial dans des environnements où chaque microseconde compte :
- Bases de données nécessitant des temps de réponse sous la milliseconde et des taux de transaction élevés.
- Pipelines d’entraînement IA/ML, où les GPU restent inactifs si le stockage ne suit pas.
- Charges en périphérie (edge), où les applications sensibles à la latence (systèmes autonomes, 5G, IoT) ne tolèrent pas des chemins de stockage lents.
- Analytique en temps réel, où les flux de données doivent être traités sans goulots d’étranglement.

Dans tous ces scénarios, NVMe-oF garantit que le stockage ne devient pas le facteur limitant. Il permet aux entreprises de concevoir des infrastructures où le réseau se comporte presque comme du flash en attachement direct, mais avec la flexibilité et l’évolutivité du stockage partagé.
Choisir le bon fabric : RDMA, Fibre Channel ou TCP ?
NVMe-oF n’est pas un protocole unique, mais un cadre : il définit comment les commandes NVMe peuvent être transportées sur différents types de réseaux. Chaque transport a ses forces, limites et cas d’usage privilégiés. Comprendre ces compromis est essentiel pour maximiser les performances sans complexifier inutilement l’exploitation.
Lorsque des commandes NVMe traversent un fabric, elles ne voyagent pas à l’état brut. Elles sont encapsulées dans de petits conteneurs appelés capsules. Une capsule peut contenir uniquement la commande ou, dans certains cas, la commande et ses données associées. Cette encapsulation permet d’étendre proprement le modèle de files NVMe à divers transports comme Fibre Channel, RDMA ou TCP. Elle apporte très peu de surcharge tout en préservant l’efficacité des files de soumission et de complétion NVMe, ce qui explique les latences proches du NVMe local.
RDMA (RoCE et iWARP)
RDMA (Remote Direct Memory Access) est la référence absolue en matière de faible latence pour NVMe-oF. Par conception, RDMA contourne le CPU et le noyau pour les transferts de données, en déplaçant directement les données entre mémoires hôte à hôte. Résultat : des latences de 10–20 microsecondes sur le fabric.
- RoCE (RDMA over Converged Ethernet) est le plus utilisé, mais nécessite un réseau Ethernet sans perte (via DCB ou PFC), ce qui complexifie la conception et le dépannage réseau.
- iWARP fonctionne sur TCP et ne nécessite pas de réseau sans perte, mais l’écosystème est limité ; la plupart des fournisseurs privilégient RoCE.
- InfiniBand implémente nativement RDMA, courant dans le HPC où ultra-faible latence et très haut débit sont essentiels.
Cas d’usage idéal : clusters haute performance, pipelines IA/ML, services financiers, ou toute charge où la latence la plus faible possible est indispensable.
Inconvénients :
- NICs spécialisées nécessaires.
- Configuration et dépannage complexes (surtout avec RoCE).
- Interopérabilité limitée dans les environnements multi-fournisseurs.
Fibre Channel (FC-NVMe)
Fibre Channel est un pilier du stockage d’entreprise. Avec FC-NVMe, les organisations peuvent exécuter NVMe sur les fabrics FC existants sans tout remplacer. Parfait pour les entreprises ayant déjà un SAN FC.
La maturité, la stabilité et les outils FC en font un choix sûr. Les latences typiques sont de 50 à 100 microsecondes, moins rapides que RDMA mais bien meilleures que SCSI sur FC.
Cas d’usage idéal : entreprises avec SAN FC existants souhaitant moderniser sans refaire leur réseau.
Inconvénients :
- Nécessite des HBA et switches FC.
- Écosystème plus restreint que l’Ethernet.
- Compétences FC spécialisées, souvent en silo.
TCP (NVMe/TCP)
Le plus récent, NVMe/TCP, adopte une approche pragmatique : transporter NVMe sur des réseaux TCP/IP standard, sans NIC spécialisées ni exigences de réseau sans perte.
Bien que TCP ajoute plus de surcharge que RDMA, les CPU modernes et les fonctions d’offload des NIC ont réduit l’écart. La latence est généralement de 100 à 200 microsecondes : plus élevée que RDMA, mais bien plus rapide qu’iSCSI.
Cas d’usage idéal : organisations voulant les bénéfices NVMe-oF sans matériel spécialisé. Idéal pour les environnements cloud, data centers existants et plateformes Kubernetes natives.
Inconvénients :
- Latence légèrement plus élevée.
- Dépend du CPU sous charge intense (mais DPUs et offloads évoluent).
- Écosystème encore en maturation.
Synthèse
Le choix du fabric ne dépend pas du “meilleur” transport en général, mais du meilleur pour votre environnement :
- Ultra-faible latence et expertise Ethernet sans perte : RDMA (RoCE).
- Infrastructure SAN FC existante : FC-NVMe.
- Simplicité, ubiquité et flexibilité : NVMe/TCP.
Dans la pratique, beaucoup d’entreprises adoptent une approche hybride.
NVMe-oF dans les architectures modernes
NVMe-oF transforme profondément la conception de l’infrastructure moderne, en éliminant l’un des derniers grands goulots d’étranglement du calcul axé sur les données : la performance du stockage partagé. Voici quatre domaines où NVMe-oF devient fondamental :
Hyperconvergence (HCI)
NVMe-oF permet aux nœuds de partager leurs SSD NVMe locaux avec un surcoût minimal, créant un pool de stockage unifié et performant. Les workloads sensibles à la latence peuvent alors fonctionner nativement sur l’HCI sans SAN séparé, et la performance évolue linéairement avec l’ajout de nœuds.
Stockage défini par logiciel (SDS)
Dans le SDS, le réseau a toujours limité la performance. NVMe-oF réduit la latence inter-nœuds à quelques dizaines de microsecondes, permettant au SDS de supporter des workloads sensibles à la latence. Le parallélisme NVMe minimise les effets “noisy neighbor”.
Systèmes de fichiers parallèles
Pour les environnements HPC ou analytique massive, NVMe-oF permet des accès directs à faible latence depuis les nœuds de calcul. Avec RDMA, les latences restent très faibles même à grande échelle ; avec TCP, les gains subsistent sur Ethernet standard.
Stockage natif pour conteneurs
Les workloads stateful dans Kubernetes bénéficient de volumes persistants presque aussi rapides que le NVMe local. Les pilotes peuvent exploiter NVMe-oF sans couches d’émulation supplémentaires, apportant agilité et performance.
Conclusion
L’importance de NVMe-oF ne tient pas seulement aux microsecondes gagnées : elle réside dans la manière dont les infrastructures évoluent lorsque le stockage n’est plus le frein.
NVMe-oF permet des architectures plus fluides, efficaces et alignées sur les besoins réels des applications.
À mesure que de nouveaux accélérateurs, DPUs et fabrics mémoires apparaissent, le rôle de NVMe-oF ne fera que croître. Sa mission restera cependant la même : supprimer la distance comme contrainte, pour que les données circulent aussi vite que les workloads modernes l’exigent.
Pour découvrir comment NVMe-oF s’intègre aux solutions DataCore et comment il peut accélérer vos environnements, contactez DataCore.