Il data center virtuale: cos’è? Quando conviene?

Tra i trend a maggiore impatto degli ultimi anni c’è sicuramente il processo di virtualizzazione delle funzioni di rete; un approccio che stravolge i paradigmi della comunicazione e impatta notevolmente sull’operatività di provider e network operator. Virtualizzare queste funzioni con tecnologie open source e cloud, come per esempio OpenStack, permette di offrire nuovi servizi scalabili più velocemente e di automatizzare la gestione di rete.

NFV separa le singole funzioni di rete da hardware specializzato affinché possano essere gestite come software su più convenienti server standard. Queste funzioni comprendono i sottosistemi IP multimediali che, per esempio, offrono servizi aggiuntivi per reti IP-based o servizi di lingua per reti LTE, o connettono servizi di presenza. La network function virtualization getta le basi per il software-defined networking (SDN) che segmenta la rete in strati separati per l’analisi e il controllo dei dati (control plane) e il trasporto degli stessi (data plane). Il primo può essere completamente virtualizzato. Anche se è possibile virtualizzare le funzioni di rete senza l’SDN, combinare le due cose ottimizza le prestazioni NFV e semplifica operatività e manutenzione.

Il data center virtuale: cos’è? Quando conviene?

Virtualized network function permettono agli operatori di creare nuovi servizi e applicazioni in modalità software più rapidamente. Questi servizi possono scalare come necessario e offrire la possibilità di aprire nuovi segmenti di mercato e cogliere nuove fonti di fatturato, offrendo al contempo agli utenti nuove esperienze e prodotti. Infine, anche i clienti business possono trarre vantaggio dalla virtualizzazione. Idealmente gli amministratori possono fornire un acceleratore WAN o un firewall in modalità self-service. La piattaforma NFV deve essere solida e sicura, deve garantire elevati tassi di data transfer e minima latenza nella trasmissione del segnale. Le funzioni e gli elementi di rete virtuali devono inoltre essere compatibili con l’hardware prodotto da diversi provider e con differenti hypervisor. Le piattaforme NFV devono essere in grado di automatizzare l’orchestrazione e il lifecycle management di numerose virtual network function al massimo.

Al fine di ottenere risultati ottimali in ambienti complessi come questi, molti operatori preferiscono piattaforme NFV aperte come per esempio Red Hat OpenStack Platform. OpenStack, framework open source, è diventato il principale ambiente cloud per NFV e una community molto attiva continua a sviluppare OpenStack e tecnologie NFV aperte, garantendo innovazione che aiuta i network operator.
In quest’ottica, molte aziende del settore ICT stanno lavorando alla creazione di NFV reference architecture coerenti e ad alte prestazione basati su OpenStack che soddisfino le esigenze degli operatori. Il mercato sta ad esempio realizzando soluzioni volte a incrementare le performance dei server standard attualmente impiegati in termini di network function quali deep packet inspection, media gateway, e session border controller per aumentare il throughput dei dati (nel data plane).

Per poter crescere anche in futuro, l’NFV dovrà essere basato su un ecosistema di tecnologie e partner che lavorano per ottimizzare l’interoperabilità con le piattaforme hardware e migliorare le prestazioni, oltre a offrire più funzioni per la virtualizzazione.