L’acume e la profondità di visione del nostro interlocutore Joy Marino, presidente di MIX, aprono a un futuro della rete e della civiltà sempre più connesso.
– Trasformazione digitale, come osservatore privilegiato, quali considerazioni può fare? A che punto sono le imprese oggi?
Non mi considero un osservatore privilegiato; tutt’al più, avendo i capelli più che grigi e avendo nuotato in questo mare digitale per almeno trent’anni, spero di essere scusato se sproloquio di trasformazione digitale o di Cloud, o addirittura di IoT o di 5G.
Per quanto riguarda la trasformazione digitale nel nostro Paese, vale una considerazione che ho già fatto innumerevoli volte e che prima o poi mi piacerebbe venisse superata dalla realtà: il nostro è un Paese strano, dove convivono fianco a fianco, molto di più che negli altri paesi europei, eccellenze da fare invidia alla Silicon Valley con arretratezze da far cadere le braccia.
Il punto di arrivo della trasformazione digitale dovrà essere qualcosa di simile a uno switch-off: quando non vedremo più girare documenti cartacei, carte di identità fisiche, lettere raccomandate, fotocopie, biglietti da visita e scontrini fiscali, SIM fisiche, forse potremo dire di aver completato l’opera. Ricordiamo che il successo di una tecnologia non si misura sugli “early adopters”, ma sui “laggards”!
– Il 5G è realtà, se ne parla da tanto. Quali sono i più importanti vantaggi per le attività professionali? Quali settori beneficeranno più di altri? Perché?
Mi sembra un concetto paradossale: “il 5G è ormai realtà perché se ne parla da tanto”. A me sembra invece che sia ancora tutto da fare, e ancora tutto da capire. Quando sarà finalmente reale, e sarà davvero presente ovunque, potremo capire se può essere davvero un “paradigm shift” come viene sostenuto. Finché ci sarà solo “un po’ di 5G” spruzzato qua e là, ne beneficeranno solo gli “early adapters” di ogni specie; questi avranno sì servizi migliori, ma non aspettiamoci nessun cambiamento epocale.
– Disponibilità continua e pervasiva dei dati e dei servizi: oggi è una aspettativa in forte crescita per le imprese. Come cambia il modo di fare impresa grazie alle nuove tecnologie? Quali le problematiche da valicare per rendere più fluida l’infrastruttura IT?
Grazie al Cloud l’infrastruttura IT è già “fluida” come l’acqua che esce dal rubinetto; se qualcuno la trova ancora viscosa forse è perché non ha ancora adottato appieno il modello Cloud.
La disponibilità di dati e servizi è arrivata a livelli mai immaginati prima, ma di pari passo è cresciuta la nostra dipendenza dal ICT, per cui anche 5 minuti di interruzione di un servizio all’anno (sto parlando di 99,999% di affidabilità, il mitico “five 9”), possono avere un costo altissimo.
Vorrei ricordare che il matrimonio tra le tecnologie delle [tele]comunicazioni e dell’informatica (ICT, appunto), non è stato facile: la continuità di servizio, l’affidabilità, la ridondanza sono nel DNA degli ingegneri delle reti da sempre; per l’informatica questo è meno vero, l’affidabilità a 5 cifre ha iniziato ad avere senso solo con la nascita dei grandi Data Center.
Il ruolo del Internet Exchange Point (IXP), come MIX, ad esempio, rappresenta proprio il culmine di questo “matrimonio”: il meglio delle tecnologie delle reti, sia in ambito geografico metropolitano e regionale che in ambito geografico long-distance da una parte, e il meglio delle tecnologie delle tecnologie ambientali e informatiche per i data center, carrier-neutral e interconnessi in Rete, dall’altra. Bisogna sottolineare che un IXP funziona da catalizzatore in questo sistema, ed è grazie alla competizione/collaborazione dei tanti operatori TLC e dei tanti gestori di DC fra loro che si riesce a rendere così affidabile e fruibile l’intera infrastruttura globale.
– Le reti ad alta velocità, come tutte le tecnologie moderne, devono essere progettate secondo la logica “security-by-design” e rispondere a criteri di sicurezza elevati per soddisfare le odierne esigenze di business. Cosa è possibile fare per garantire il più elevato tasso di sicurezza possibile?
La “security”, intesa come sicurezza da attacchi informatici, è una delle caratteristiche che un’infrastruttura deve possedere perché possiamo farne uso con garanzie di servizio, ma non è l’unica. La resilienza ai guasti che si verificano inevitabilmente nel mondo fisico è altrettanto importante.
Mi è difficile mescolare gli aspetti di “infosecurity” a quelli di “affidabilità strutturale”, soprattutto facendo riferimento alle reti. Laddove è molto alta la quantità e la complessità del software presente, la sicurezza informatica è maggiormente a rischio e può avere effetti catastrofici.
Nelle reti geografiche, dove gli elementi materiali che possono rompersi in modo imprevedibile sono tanti (e il software poco e confinato), la qualità di servizio viene garantita prima di tutto dalla ridondanza delle infrastrutture e dalla maniacale espunzione di qualsiasi potenziale singolo punto di rottura. Esattamente il contrario avviene nei sistemi informatici del Cloud: la virtualizzazione delle risorse hardware consente di avere affidabilità molto elevata a costo marginale a partire da componenti tutt’altro che affidabili, mentre la complessità delle architetture informatiche e dei modi non prevedibili con cui interagiscono tra loro rende la sicurezza informatica un problema che non ha soluzioni “assolute”.
Nessuna progettazione che sia “security by design” mette al riparo da qualsiasi possibile attacco (anche la linea Maginot era progettata secondo i criteri di “security by design”). Ci sono sempre fattori imprevedibili che inficiano le assunzioni di progetto e, quel che è peggio, i costi di un assunto incompleto possono essere sproporzionatamente grandi.
Che fare per ottenere sicurezza? Intanto considerare il problema come un processo, da attivare e mantenere attivo per sempre e non come un prodotto da acquistare una tantum. Poi riconoscere che non esiste una sicurezza assoluta, ma che si tratta di un continuum, che parte da un livello di “good enough” (che comunque non è banale raggiungere), e diventa sempre più stringente in proporzione con il valore di quello che deve proteggere, sia esso un ricavo potenziale per un e-commerce, la privacy dei dati dei propri utenti, la reputazione dell’azienda, i segreti industriali del core business, etc.
– Il cloud è oggi un paradigma consolidato e in continua ascesa: come cambia l’approccio delle imprese considerando l’aumento esponenziale dei confini della rete? Come evitare che la complessità di alcune infrastrutture cloud ne vanifichi gli enormi vantaggi?
Mi spiace deludere, ma una volta che abbiamo superato il 50% della popolazione mondiale connessa in Rete, la crescita non è più esponenziale, è una questione aritmetica… E man mano che le persone non connesse saranno una minoranza sempre più piccola, anche il “confine della rete” andrà restringendosi sempre più, fino a delimitare il perimetro di poche popolazioni che vivono in Amazzonia…
A parte le battute, è vero che il Cloud si è ormai affermato ed è inevitabile, cioè non se ne può più fare a meno; non è tanto la complessità della singola applicazione a condizionarci, quanto la presenza di una ragnatela di servizi e applicazioni tutti interconnessi e interdipendenti a essere inevitabile e irrinunciabile.
Sulla complessità delle infrastrutture ho una mia opinione personale. Le passate “rivoluzioni industriali” hanno dato vita a sistemi di grandissima complessità e di dimensioni monumentali, penso all’intero sistema di generazione e distribuzione dell’energia elettrica, o al sistema globale delle ferrovie o al sistema aeroportuale.
Fino a poco tempo fa l’ICT era la cenerentola delle ingegnerie, e noi stessi, addetti ai lavori, specie se abbiamo esperienza diretta di che cosa significhi usare un singolo calcolatore personale, ci possiamo stupire di fronte alla grandiosità e complessità dei moderni Data Center, anche se non sono più grandi o complicati degli opifici della prima rivoluzione industriale. Però la complessità rimane comunque tutta “sotto il cofano” e non riguarda l’utilizzatore del Cloud, così come l’energia elettrica “arriva” nelle case e non ci dobbiamo preoccupare di turbine, generatori elettrici, elettrodotti, etc. etc.
– IoT: spesso gli apparati “intelligenti” e i sensori “smart” presentano lacune in fase progettuale o software e possono costituire un punto di accesso non presidiato per i cybercriminali. Come integrare al meglio questi dispositivi per trarne il massimo vantaggio, minimizzando i possibili rischi?
Qui sì che è importante parlare di “security by design”, perché mi sembra proprio che siamo partiti con il piede sbagliato. Ho la sensazione che la maggior parte dei dispositivi IoT che circolano attualmente siano soprattutto un grosso esperimento fatto sulla nostra pelle, con livelli di sicurezza assolutamente inadeguati. Temo che si tratti di una fase di Far West, in cui ogni produttore sta cercando di occupare più spazio possibile, a scapito della sicurezza e magari cercando di utilizzare l’arma della incompatibilità degli standard per monopolizzare il mercato nascente.
Eppure la tecnologia opportuna per partire con il piede giusto è possibile: la crittografia, che ha già risolto, sulla carta, la maggior parte dei problemi che possono sorgere in una IoT.
Non so come noi, utilizzatori di sistemi di IoT, possiamo influire su uno sviluppo sano del settore, ma certamente scegliere prodotti che siano “future-proof”, che utilizzino sistemi crittografici di provata sicurezza è il minimo che possiamo fare.