La mutazione del networking: tecnologie, architetture, prospettive

Il processo di mutazione delle reti è in atto da tempo, talvolta alimentato anche da pressioni social e stravolgimenti inaspettati.

La rete che cambia

La rete che cambia, da supporto passivo a elemento attivo e fondamentale dell’infrastruttura IT. Tecnologie, architetture, prospettive.

Il processo di mutazione delle reti è in atto ormai da tempo, per soddisfare le tendenze più recenti, ma anche paradigmi consolidati come il cloud.
Ma le reti cambiano anche in funzioni di pressioni social e stravolgimenti inaspettati. Si pensi alla pandemia in atto. Lavorare da casa è stata un’esigenza dettata dal lockdown ma, secondo uno studio Cisco, i lavoratori desiderano mantenere i molti aspetti positivi che sono emersi da questo nuovo modo di lavorare.
Dallo studio emerge che per i dipendenti quello che stiamo vivendo è un momento di svolta che sfida le consuetudini culturali relative al luogo di lavoro.

Sebbene solo il 10% degli intervistati in Italia (15% il dato EMEAR) lavorasse da casa stabilmente o parzialmente anche prima del lockdown, oggi la maggioranza spera di mantenere l’autonomia guadagnata. In ogni caso, l’87% (in linea con il dato EMEAR), vuole una maggiore autonomia nel definire come e quando lavorare in ufficio. In altre parole: un mix tra lavoro in presenza e lavoro a distanza.
Riflettendo sugli ultimi sei mesi, il 62% degli intervistati (66% il dato EMEAR) oggi apprezza maggiormente i vantaggi e le sfide del lavoro a distanza. I cambiamenti sono stati positivi, lo conferma il fatto che i responsabili aziendali hanno mostrato maggiore fiducia nei propri team (il 33% in Italia; il 39 il dato EMEAR).
Gli intervistati sono riusciti a conciliare meglio la vita lavorativa con quella personale, con il 61% (56% il dato EMEAR) che è riuscito a fare più esercizio fisico. Il 48% (58% il dato EMEAR) vuole continuare a non viaggiare e a utilizzare quel tempo per essere più produttivo.

SD-WAN

Una piattaforma che non conosce battute d’arresto è quella SD-WAN, vero abilitatore per reti dinamiche, scalabili e resilienti.
Secondo GTT Communications, nel 2020, il 96% dei decisori IT voleva modernizzare la rete aziendale nel 2020. Prima dello sconvolgimento causato dalla pandemia di Covid-19, le aziende erano fiduciose per il futuro.
Il 66% aveva intenzione di investire nell’aggiornamento delle proprie reti per supportare la costante innovazione nei servizi e nelle tecnologie. Il 30% pensava di sviluppare la propria infrastruttura di rete per soddisfare la crescente domanda di capacità.

Lo ricerca mette in luce come la tecnologia SD-WAN potrebbe ricoprire un ruolo da protagonista nel 2020. Il 68% delle organizzazioni, infatti, ha considerato la possibilità di implementare una WAN ibrida (con SD-WAN) o pianificato una strategia SD-WAN per il 2020.
L’obiettivo primario dei decisori interrogati, con il 31% delle preferenze, è quello di migliorare la sicurezza e proteggere le informazioni veicolate sulla rete pubblica con i parametri dei protocolli di sicurezza esistenti.
L’Italia ha l’approccio a SD-WAN più graduale tra tutti i paesi intervistati, con l’85% dei decisori IT che prevede di utilizzare in qualche modo la tecnologia SD-WAN nel 2020.

La rete che cambia

SD-WAN garantisce inoltre ulteriori vantaggi in termini di sicurezza. Le aziende hanno un controllo centralizzato delle policy, il che significa che i firewall possono essere aggiornati in una volta sola con il software più aggiornato, garantendo anche che le informazioni trasportate su Internet pubblico siano conformi ai parametri dei protocolli di sicurezza esistenti.

La tecnologia SD-WAN è relativamente nuova, quindi i tecnici con un’adeguata esperienza scarseggiano.
Per trarre vantaggio dalle opportunità offerte da SD-WAN, le aziende hanno bisogno di professionisti in grado di fornire consulenza su strategia SD-WAN.
Oltre a progettazione dell’architettura, implementazione e supporto continuo. I tecnici inoltre devono avere una buona conoscenza di servizi WAN, switching, routing, sviluppo delle normative e sicurezza.

Multi-cloud, SD-WAN e NFV

Come evidenzia Colt, grazie alle offerte multi-cloud SD-WAN oggi disponibili, le imprese possono beneficiare dei servizi di più Cloud Service Provider con una singola connessione su SD-WAN. Questo garantisce maggiore sicurezza, agilità e latenza rispetto alla connessione tramite la rete Internet pubblica.

È così possibile collegare migliaia di edifici on net e datacenter. La rete in fibra ottica consente alle aziende di beneficiare di una connessione continua ed end-to-end verso il cloud. Il peering pubblico e privato assicura l’ottimizzazione automatica del traffico delle applicazioni sul percorso migliore. Qualunque sia la combinazione di piattaforme cloud scelta da un’azienda.

Il prossimo decennio sarà decisivo per il cloud computing.

Così dimostra l’ultima ricerca di Colt che ha evidenziato come il 96% dei decision maker in ambito IT sia ora fiducioso di trasferire le funzioni aziendali cruciali nel cloud. Lo studio ha anche rilevato che l’86% delle aziende sta adottando un approccio multi-cloud, sottolineando come la maggior parte di esse si affidi ora ad ambienti cloud multipli per potenziare la portata della propria digital transformation.

Tra i trend a maggiore impatto degli ultimi anni c’è sicuramente il processo di virtualizzazione delle funzioni di rete; un approccio che stravolge i paradigmi della comunicazione e impatta notevolmente sull’operatività di provider e network operator. Virtualizzare queste funzioni con tecnologie open source e cloud, come per esempio OpenStack, permette di offrire nuovi servizi scalabili più velocemente e di automatizzare la gestione di rete.

NFV separa le singole funzioni di rete da hardware specializzato affinché possano essere gestite come software su più convenienti server standard. Queste funzioni comprendono i sottosistemi IP multimediali che, per esempio, offrono servizi aggiuntivi per reti IP-based o servizi di lingua per reti LTE, o connettono servizi di presenza.

La rete che cambia – SDN

La rete che cambia

La network function virtualization getta le basi per il software-defined networking (SDN) che segmenta la rete in strati separati per l’analisi e il controllo dei dati (control plane) e il trasporto degli stessi (data plane). Il primo può essere completamente virtualizzato. Anche se è possibile virtualizzare le funzioni di rete senza l’SDN, combinare le due cose ottimizza le prestazioni NFV e semplifica operatività e manutenzione.

Virtualized network function permettono agli operatori di creare nuovi servizi e applicazioni in modalità software più rapidamente. Questi servizi possono scalare come necessario e offrire la possibilità di aprire nuovi segmenti di mercato e cogliere nuove fonti di fatturato, offrendo al contempo agli utenti nuove esperienze e prodotti. Infine, anche i clienti business possono trarre vantaggio dalla virtualizzazione. Idealmente gli amministratori possono fornire un acceleratore WAN o un firewall in modalità self-service.

La piattaforma NFV deve essere solida e sicura, deve garantire elevati tassi di data transfer e minima latenza nella trasmissione del segnale. Le funzioni e gli elementi di rete virtuali devono inoltre essere compatibili con l’hardware prodotto da diversi provider e con differenti hypervisor. Le piattaforme NFV devono essere in grado di automatizzare l’orchestrazione e il lifecycle management di numerose virtual network function al massimo.

Virtualizzazione e OpenStack

Al fine di ottenere risultati ottimali in ambienti complessi come questi, molti operatori preferiscono piattaforme NFV aperte come per esempio Red Hat OpenStack Platform. OpenStack, framework open source, è diventato il principale ambiente cloud per NFV e una community molto attiva continua a sviluppare OpenStack e tecnologie NFV aperte, garantendo innovazione che aiuta i network operator.

In quest’ottica, molte aziende del settore ICT stanno lavorando alla creazione di NFV reference architecture coerenti e ad alte prestazione basati su OpenStack che soddisfino le esigenze degli operatori. Il mercato sta ad esempio realizzando soluzioni volte a incrementare le performance dei server standard attualmente impiegati in termini di network function quali deep packet inspection, media gateway, e session border controller per aumentare il throughput dei dati (nel data plane).

Per poter crescere anche in futuro, l’NFV dovrà essere basato su un ecosistema di tecnologie e partner che lavorano per ottimizzare l’interoperabilità con le piattaforme hardware e migliorare le prestazioni, oltre a offrire più funzioni per la virtualizzazione.

Il futuro dei data center e la rete che cambia

Come sottolinea WD, nell’ultimo decennio, l’Intelligenza Artificiale e l’apprendimento automatico hanno iniziato a trasformare il modo in cui le aziende gestiscono i dati in molti ambiti aziendali. Allo scorso anno, il 37% delle organizzazioni ha implementato l’IA in qualche forma; in termini percentuali si stima un aumento dei progetti di IA del 270% negli ultimi quattro anni. La capacità di produrre, raccogliere dati e poterli approfondire ha innescato una nuova rivoluzione digitale. E, più dati vengono creati, più i data center diventano vitali per la nostra economia e per l’intera società.

Per implementare efficacemente la raccolta e l’analisi dei dati su larga scala in un’intera azienda, le organizzazioni devono costruire un’infrastruttura unificata dedicata ai progetti di IA. Nei prossimi paragrafi proviamo a delineare alcune tendenze in atto, mentre l’IA sta già plasmando il data center.

Con i dispositivi sempre più connessi tra loro, ci stiamo muovendo verso la fase dell’intelligenza “embedded”. È quindi fondamentale che i dispositivi all’interno dello stesso ecosistema siano in grado di comunicare tra loro e di accedere ai dati nel cloud, nell’edge e nel core.

La rete che cambia: Un esempio di ciò è lo sviluppo di veicoli a guida autonoma che necessitano di un “linguaggio” comune per comunicare, indipendentemente dal produttore dell’auto. La sicurezza della guida autonoma dipende infatti da un ecosistema di segnali stradali intelligenti, coerenza delle unità di misura lungo le strade e avvisi per i pedoni, motivo per cui la standardizzazione e l’interoperabilità sono fondamentali. In definitiva, questo renderà un ecosistema AI/ ML molto più facile da integrare e distribuire a livello periferico.

Secondo IDC, quest’anno nel mondo verranno creati, catturati, copiati e consumati più di 59 Zettabyte di dati. L’automazione diventa quindi essenziale affinché i team IT possano non soccombere di fronte a questa esplosione di dati e alla complessità dei diversi carichi di lavoro.

La rete che cambia

La rete che cambia, automazione

Da un lato, l’automazione è un modo per non gravare completamente sul personale IT e dedicare tempo a progetti più importanti. Dall’altro, l’automazione è anche fondamentale per aiutare l’IA a coadiuvare più funzioni nel data center, intervenendo sulle attività che si basano su una stretta interazione umana. L’automazione aiuterà i data center a compiere il passaggio verso l’IA, nonché accelererà la possibilità di un comportamento finalmente davvero predittivo.

L’utilizzo di chip generici per processi di IA su larga scala può essere eccessivamente costoso. Poiché l’IA richiede una enorme potenza di calcolo, molte aziende optano per chip per IA specializzati. Dato che nella maggior parte dei casi oggi l’IA è utilizzata in ambiti molto ristretti, i chip potranno essere configurati per un’attività specifiche.

AI ed efficienza

Via via che la quantità di dati disponibili cresce, il data center è alla ricerca di un miglioramento della propria efficienza. Alcuni si spingono fino a dire che senza l’intelligenza artificiale molti data center non sarebbero economicamente sostenibili.
Prevediamo che alcune delle modalità in cui gli strumenti di intelligenza artificiale potranno sostenere il data center siano il miglioramento della fornitura di risorse e servizi, il raffreddamento e l’ottimizzazione dell’alimentazione e l’ulteriore rilevamento di minacce informatiche.

La tecnologia alla base dell’intelligenza artificiale dà vita ai dati, ed è fondamentale che i data center più grandi possano supportare questi processi in modo efficiente.
Mentre l’IA continua a svilupparsi e la crescita dei dati accelera, molte aziende stanno sfruttando l’”embedded” intelligence. I chip IA personalizzati e l’automazione continuano a migliorare il processo di analisi dei dati. I data center di maggior successo implementeranno le capacità di IA nella maggior parte delle operazioni, oltre a creare un’infrastruttura più intelligente e flessibile.

La rete che cambia: datacenter, serve flessibilità estrema

Per Cristina Rebolini, Commercial, Industrial and Enterprise Sales Director di Vertiv, occorre prestare attenzione alla scalabilità e alla flessibilità delle strutture.

Fino a poco tempo fa, non era raro visitare un sito con un carico di progettazione di 10 MVA che ne utilizzava magari 2. Ancora più comune era vedere l’utilizzo di server al di sotto del 10% e questo non solo su piccole applicazioni, ma anche su sistemi complessi.
Con l’evoluzione del tradizionale data center, l’utilizzo di un singolo server o processore dedicato a un’unica applicazione non è più attuale. Il passaggio a piattaforme software ha significato un crescente utilizzo delle virtual machine e dei grid-style system.

Uno dei motivi principali per cui si vedeva questo anomalo sottoutilizzo del carico era dato dal fatto che i sistemi erano stati progettati e realizzati per supportare il cosiddetto picco di esigenza, ossia il momento nel quale la infrastruttura dovesse dare la massima capacità disponibile. Anche la ridondanza, correttamente, veniva garantita, ma magari non ottimizzata.

Un esempio immediato: l’E-commerce, molto probabilmente riguardava solo grandi eventi di vendita come il Black Friday o il Cyber Monday. Questi clienti hanno dovuto pianificare il carico in previsione del picco anche se la maggior parte del tempo operavano ben lontani da quei livelli.
Questo scenario di sovracapacità/sottoutilizzo può anche essere paragonato a un’auto. La maggior parte delle automobili è progettata per andare a oltre 190 kmh, ma raramente supera i 130 kmh e per gran parte della vita utile viaggia da 0 a 65 kmh.

Gli Hyperscaler

Oggi i proprietari dei data center di grandi dimensioni, i cosiddetti hyperscaler, gestiscono essenzialmente parchi di autocarri con prestazioni da supercar. Sono gestiti al 100% da software. Utilizzano una piattaforma hardware quasi identica, una per l’elaborazione e una per l’archiviazione, in ogni data center che possiedono. Questo significa decine di migliaia di dispositivi di archiviazione e processori connessi alla rete che funzionano in modo efficace come se fossero uno solo dispositivo. La perdita di un singolo sito causa solo un calo delle prestazioni, non una perdita del servizio.

Ad esempio, sapevate che quando eseguite una ricerca di Google, il vostro dispositivo invia tale richiesta a tre diversi data center situati in diverse aree geografiche?
Il data center che vince la corsa ti offre il risultato. Le reti che utilizziamo per trasmettere tutti questi dati sono le stesse, ma con una capacità sempre più efficacemente integrata dal primo giorno e nel proseguo, in funzione della necessità specifica.
Far passare cavi nel terreno e sotto il mare è molto costoso, per questo i provider di rete di solito pianificano i percorsi almeno per i successivi 10 anni. Man mano che la domanda cresce, i provider devono semplicemente “attivare” una connessione in fibra inutilizzata per aggiungere enormi quantità di capacità istantanea.
In sostanza, le piattaforme software, i data center che li supportano e le reti che connettono tutto sono progettati per offrire livelli di capacità molto elevati con livelli ancora più elevati di ridondanza.

La rete che cambia

Le richieste a cui stiamo assistendo ora, con professionisti e studenti che lavorano da casa, sono senza precedenti, ma forse non in termini di capacità di picco totale. Quando i sistemi di altoparlanti per Spinal Tap sono arrivati fino a 11, la rete globale di data center è arrivata solo a 9. Questo livello di capacità non è insolito, tuttavia, lo è sostenerlo per un periodo di tempo così prolungato.
In un recente annuncio stampa, il direttore dei sistemi informativi di BT ha dichiarato che la rete britannica, sebbene estremamente occupata, non è vicina alla capacità massima. Il picco di traffico di solito avveniva la domenica sera e durava alcune ore. Ora, il picco è costante e più alto che mai.
Naturalmente ci sono alcuni colli di bottiglia, la necessità di regolare determinati servizi e alcune persone nella parte finale dell’edge delle reti causeranno scarse prestazioni. Fortunatamente, ciò non è indicativo dell’ecosistema nel suo complesso.

La flessibilità dell’intero ecosistema è in grado di svolgere la funzione richiesta in quel momento. So per esperienza personale che ognuno sta esaminando molto da vicino i colli di bottiglia e sta lavorando per risolverli rapidamente. La maggior parte di questa espansione necessaria, consiste nel mettere online l’apparecchiatura esistente o ridestinare l’hardware ridondante.
Dove è richiesta una nuova capacità, questa viene fornita in pochi giorni. A causa dell’evoluzione sopraindicata delle strutture aziendali, è disponibile fin da subito un’enorme quantità di spazio nei data center.