L’avanzata del software-defined spiegata da DataCore

La rivoluzione causata dalla virtualizzazione e dal cloud computing si riflette su molteplici settori tecnologici e, di conseguenza, su molteplici processi e attività di business. Con vantaggi e svantaggi, e annoverando fra questi ultimi questioni di complessità, costi, sicurezza. L’avanzata dell’approccio software-defined è una delle possibili risposte a questi problemi, e sempre più si imporrà nella costruzione e gestione dei data center, dello storage, delle reti. 

Ne è convinto George Teixeira, Ceo e  presidente di DataCore Software. La società, nata nel 1998 e oggi arrivata a contare oltre 10mila clienti, trova il suo core business nelle soluzioni per lo storage software-defined e virtualizzato.

Perché è importante il concetto di “definito dal software”?

Il cloud computing e la strategia di virtualizzare qualunque cosa hanno portato a una vera e propria rivoluzione. I data center virtuali e i nuovi modelli di erogazione dei servizi cloud hanno cambiato le aspettative aziendali relative ai livelli di servizio e ai sistemi per aumentare la produttività. Le infrastrutture si sono evolute, mettendoci a disposizione risorse in misura maggiore, ma gran parte dei miglioramenti è legata ai progressi della virtualizzazione a livello software. Questa evoluzione ci ha portato a tecnologie definite dal software di ogni tipo. La sfida è ora quella di comprendere le differenti componenti di questa nuova rivoluzione, e come queste lavorino e interagiscano tra loro.

Che cosa comporta lo spostamento verso approcci di questo tipo?


Gli argomenti che oggi tengono banco nell’It sono il networking definito dal software (Sdn), lo storage definito dal software (Sds) e i data center definiti dal software (Sddc). E tutti fanno parte di una tendenza più generale che il settore definisce come “tutto definito dal software”. Lo spostamento verso un’infrastruttura definita dal software consente di separare il livello software, pensato per la gestione e per offrire le diverse funzionalità dall’hardware sottostante. L’idea di fondo è che, separando l’intelligenza da computer, storage e reti, l’hardware possa diventare più economico (aumentando, cos’, il potere di acquisto delle aziende) e intercambiabile (evitando di dover rimanere legati a doppio filo a specifici fornitori), e che il software possa diventare più ricco di funzionalità e più flessibile.

Quali saranno i prossimi passi del mercato? 

I data center definiti dal software promettono di migliorare le prestazioni e di abbassare drasticamente i costi. La prima ondata di miglioramenti si è basata sulla rivoluzione innescata dalla virtualizzazione. Oggi viviamo già in un mondo di server virtuali: basta guardarsi intorno per vedere come le macchine virtuali e gli hypervisor server abbiano cambiato il nostro punto di vista sulla produttività, sul provisioning e sulla rapidità di installazione di nuovi sistemi e applicazioni. Ora che tutto questo è realtà, il prossimo passo è ovvio: faremo con storage e networking ciò che è già stato fatto a livello di server.

Quali sono le caratteristiche fondamentali dell’Sds?
Lo storage definito dal software può essere banalmente definito come l’astrazione e l’automazione dei servizi di storage dell’hardware fisico di storage. Il software è alla base della flessibilità e della virtualizzazione intelligente dello storage. Il software di gestione può migliorare l’utilizzo delle risorse di archiviazione in modo da ottimizzarle e dimensionarle correttamente per le proprie esigenze. Qualunque cosa sia definita dall’hardware è per definizione rigida e non flessibile, e il risultato è che spesso si è costretti ad acquistare più risorse del necessario per evitare di ritrovarsi in difficoltà. Il software permette anche di integrare facilmente nella propria infrastruttura le tecnologie più recenti, come le unità Ssd basate su memoria Flash, senza dover “gettare al vento” gli investimenti già realizzati in storage.

In altre parole, le soluzioni definite dall’hardware sono il mantra dei fornitori di hardware per lo storage, che vogliono che acquistiate più hardware replicando lo stesso processo ogni anno invece di lasciarvi ricavare il massimo valore dai vostri investimenti garantendovi che la vostra infrastruttura sia “a prova di futuro”. Avere una soluzione definita dal software significa ottimizzare l’esistente, mentre una definita dall’hardware significa provisioning eccessivo e sovradimensionamento.


Ragionare il base all’hardware è approccio antico?
Riflettete: perché per ottenere una funzionalità software che vi serve devono costringervi ad acquistare la soluzione hardware di ultima generazione o un dispositivo specifico? Questo modo di pensare è vecchio, anche se prima della virtualizzazione era la modalità con cui lavorava l’intera industria dei server. A definire l’architettura erano le scelte hardware. Grazie all’informatica definita dal software, di cui VMware o Hyper-V sono i due esempi più noti, oggi è possibile implementare macchine virtuali invece di avere dei sistemi Dell, HP, Intel o Ibm. Lo storage sta vivendo una trasformazione analoga e in un mondo definito dal software a fare la differenza sarà il software intelligente.

È interessante notare come le definizioni marketing siano cambiate nel tempo, mentre la visione e la passione che abbiamo messo nel concetto di “definito dal software” è ciò che ci ha portato a fondare DataCore Software già nel 1998. Da allora, ci siamo dedicati alla realizzazione di una vera soluzione di Storage Definito dal Software. Io e gli altri fondatori abbiamo capito che il software-defined sarebbe stata una strada inevitabile. Oggi che abbiamo oltre 25mila licenze software distribuite fra più di 10mila clienti di tutto il mondo possiamo dire che quella visione si è trasformata in realtà. E gli altri elementi di un mondo definito dal software stanno evolvendo nella stessa direzione.

Aziende leader come Cisco e VMware hanno già realizzato acquisizioni di importanti aziende impegnate nel networking definito dal software. Secondo Idc, questo mercato crescerà nel giro di tre anni dai 360 milioni di dollari del 2013 a 3,6 miliardi di dollari. Questo che cosa significa? Le architetture di rete stanno rapidamente evolvendo verso una realtà Sdn, e questo alla fine cambierà completamente il modo in cui pensiamo a una rete. Oggi realizzare reti, configurarle o riconfigurarle comporta la necessità di interagire manualmente con ciascuno switch, mentre grazie all’Sdn tutto questo diventerà automatico. Gli amministratori dei server potranno così gestire da remoto la rete.

Il motivo per cui l’Sdn è così importante è che consente di affrontare schemi di traffico basati su cloud pubblici e privati aggiungendo flessibilità alla gestione e accesso su richiesta. Le odierne reti complesse, invece, non sono in grado di scalare a sufficienza per far fronte all’esplosione del traffico e sono legate a doppio filo al produttore quando si tratta di far fronte a nuovi standard o interfacce e alla rapida innovazione con cui è necessario rimanere allineati.

Quali sono i principali ostacoli all’adozione dell’approccio “everything software-defined”?

Prima di tutto l’atteggiamento mentale: la maggior parte delle persone pensa più all’hardware e ai sistemi che a un’architettura abbastanza flessibile da rispondere alle future esigenze. I produttori di hardware insistono con la necessità di “acquistare un altro dispositivo” per risolvere i problemi, ma il costo e la complessità portano a grandi inefficienze. L’architettura è importante.

Detta in parole povere, definire tutto tramite software significa utilizzare il software non solo per colmare i divari tecnologici tra “isole separate” o silo che derivano dall’adozione di soluzioni di fornitori diversi e da specifiche funzionalità hardware da gestire, ma anche per creare un’infrastruttura sottostante, cioè un’architettura flessibile che possa soddisfare anche le esigenze future, che possa essere gestita olisticamente come parte dell’azienda. Invece che come singoli elementi (capacità di calcolo, storage e rete), l’infrastruttura verrà considerata come set di risorse necessarie per specifici carichi di lavoro. In questo scenario, l’applicazione, l’utente finale e auspicabilmente l’azienda sono i veri padroni.

Questi cambiamenti non sono solo tecnologici, ma anche organizzativi. Tradizionalmente i team lavorano in ambiti o reparti separati, con diverse organizzazioni funzionali: sono “isole separate”. Ma con l’arrivo della tecnologia le cose cambiano e per trarne il massimo vantaggio i team si trovano costretti a modificare il modo con cui lavorano insieme. Questo riguarda decisioni di acquisto, budget, struttura dei report, mentre le metriche dei livelli di servizio e i processi devono essere ripensati.

L’approccio software-defined condiziona, dunque, anche le scelte di acquisto di tecnologie?

Per fare un esempio, per comprare nuovo storage in passato era probabile che la decisione fosse presa dal gruppo che si occupava dello storage. E allo stesso modo i ragazzi dei sistemi prendevano le decisioni sui server. Ma se tutto questo deve lavorare insieme, è probabile che sia necessario coinvolgere persone che si occupano di settori diversi. In più, in un mondo definito dal software, l’hardware conta meno. Prima della virtualizzazione dei server il marchio era fondamentale, mentre oggi scegliendo un approccio definito dal software e adottando un hypervisor, come quelli di VMware o Microsoft, la scelta del fornitore diventa più una questione di prezzo o di preferenza personale piuttosto che una necessità di una specifica funzionalità hardware.


C’è o ci sarà un impatto anche sui sistemi di valutazione dei servizi?

In un mondo formato da “isole separate”, i livelli di servizio e le metriche prestazionali tendono a essere collegate più alla disponibilità dei servizi che all’esperienza utente. Per esempio, il lavoro dei team di rete può essere valutato in base al tempo totale di downtime in un determinato periodo. Ovviamente, però, questa metrica non ha un grande valore nel misurare la produttività, i tempi di risposta e l’esperienza utente. In un mondo definito dal software, invece, le metriche prestazionali devono essere riconsiderate e applicate più ampiamente ai diversi team.

L’It si sta muovendo verso un futuro definito dal software. Ci vogliono anni per trasformare un’organizzazione e l’atteggiamento mentale delle persone. Mettere persone e processi nelle condizioni di supportare questo cambiamento sarà fondamentale per qualunque azienda voglia trarre vantaggio da queste tecnologie di nuova generazione. Il definire tutto tramite software richiede un ripensamento non solo tecnologico, ma anche organizzativo, per ridisegnare i processi e raggiungere una produttività aziendale ottimale. Le tecnologie di software-defined data center possono chiaramente ottimizzare data center, cloud e le intere infrastrutture It, ma per farlo la tecnologia non basta: ci vogliono anche un’architettura, apertura mentale e una riorganizzazione operativa.

Get a Live Demo of SANsymphony

Talk with a solution advisor about how DataCore Software-Defined Storage can make your storage infrastructure modern, performant, and flexible.

Partecipa a una live demo