Chiara Ornigotti, Senior Sales Manager Sud Europa di Paessler, ci racconta come la tecnologia e la trasformazione digitale stiano cambiando la vita dei sysadmin.
Guardando agli ultimi dieci anni dell’information technology, sembra che questo periodo sia stato per molti versi un momento di consolidamento e realizzazione di tutte le nuove entusiasmanti tecnologie promesse nei primi anni del millennio. Tecnologie che apparivano improbabili e/o assurdamente costose sono diventate accessibili praticamente a tutti. Maggiori velocità di calcolo, aumenti folli della velocità di rete, minicomputer economici hanno portato profondi cambiamenti nel mondo IT. E, ovviamente, questi cambiamenti hanno modificato drasticamente la vita degli amministratori di sistema. Vediamo come.
L’ampiezza di banda apre le porte a tutto il resto
Uno dei fattori che hanno avuto più impatto (se non il più alto in assoluto) è stato l’aumento dell’ampiezza di banda. Quasi tutti i punti che seguono in questa lista sono stati intensificati, resi accessibili o addirittura resi possibili dall’aumento della velocità di comunicazione dei dati. E l’aumento è stato notevole.
Negli Usa, agli inizi del 2010 la velocità di download media su rete fissa era di 7 Mbps. Meno di dieci anni dopo la velocità media si aggira intorno ai 124 Mbps.
L’aumento di velocità ha reso possibili moltissime tecnologie negli ultimi 10 anni. Il cloud computing non avrebbe senso se i dati non potessero essere trasmessi abbastanza rapidamente da e verso i server remoti. L’IoT non avrebbe potuto fare breccia nelle case dei consumatori se le connessioni fossero state lente. Quando si accede a servizi web online vogliamo che i tempi di reazione siano gli stessi che avremmo per un’applicazione usata in locale. Possiamo tranquillamente affermare che una rete più veloce e affidabile ha introdotto importanti cambiamenti nelle vite degli amministratori di sistemi a causa di tutte le tecnologie che sono state abilitate.
Tutto nel cloud
L’adozione del cloud computing è effettivamente iniziata quando Amazon ha lanciato Amazon Web Services, ma solo negli ultimi dieci anni si è davvero sviluppata. Ancora nel 2010 si sprecavano le promesse intorno al cloud e non era del tutto chiaro quale fosse il modo migliore per usarlo. Con il passare degli anni, l’immagine si è fatta più chiara e sempre più aziende hanno spostato almeno parte della loro infrastruttura nel cloud.
Per i professionisti IT ciò ha significato dover gestire meno infrastrutture fisiche on premise e più servizi nel cloud. A metà del decennio, anche i data warehouse erano stati spostati nel cloud (usando servizi come AWS Redshift). Anziché dovere installare hardware, caricare software, allacciare cavi, gli amministratori hanno dovuto familiarizzare con concetti come istanze online, storage elastico e altre tecnologie specifiche del cloud.
Chi avesse creduto agli “hype” intorno al 2013, era probabilmente convinto che nel giro di pochi anni tutto sarebbe stato nel cloud. La realtà, invece, con l’ingresso del cloud nella Slope of Enlightenment (salita dell’illuminazione) secondo il modello Hype Lifecycle di Gartner, è che i professionisti IT hanno sempre più spesso a che fare con ambienti ibridi che comprendono di tutto: hardware fisico, servizi cloud, container. Riuscire a tenere insieme questi elementi è di per sé una grande sfida.
Come l’IoT cambia l’infrastruttura
Un’altra tecnologia che in dieci anni è passata da fantasia a realtà è l’Internet delle Cose. Qualcuno potrebbe argomentare che l’IoT è ancora saldamente nella fase di hype, ma è pur vero che ha già dimostrato la sua validità in diversi ambiti, dalle smart city all’industria 4.0.
La crescita dell’IoT è dovuta alla convergenza di vari fattori: protocolli di comunicazione come MQTT (divenuto standard ISO nel 2016) erano efficaci per connettere dispositivi diversi e facili da usare. Nel frattempo, la tecnologia ha permesso di racchiudere più potenza in chip sempre più piccoli e di aumentare la durata delle batterie. Per finire, l’avvento dei microcomputer, col rilascio del primo Raspberry Pi nel 2011, ha reso possibile lo sviluppo di applicazioni di logica e controllo su piccoli dispositivi.
Per gli amministratori di sistemi il risultato è che ora hanno tutta una serie di nuovi dispositivi e applicazioni da tenere d’occhio “calati” sui tradizionali elementi IT. Pensiamo alle aziende che hanno sensori dedicati al monitoraggio di temperatura e umidità, o a monitorare la posizione di una flotta di veicoli usando la geolocalizzazione. Questi dispositivi, la loro implementazione e integrazione negli ambienti esistenti, i relativi protocolli hanno introdotto una nuova dimensione che gli amministratori hanno dovuto imparare a conoscere. Senza considerare i potenziali problemi di sicurezza introdotti da questi dispositivi.
La sicurezza diventa fondamentale
In questo decennio, la sicurezza è diventata un aspetto importante di qualsiasi sistema e parte del lavoro quotidiano degli amministratori. E’ vero che malware e altre minacce sono in circolazione dagli anni ‘90 ma il fenomeno è esploso nel nuovo millennio. Nel 2007 si calcolava che ogni anno venissero prodotti 5 milioni di nuovi malware all’anno. Nel 2015 erano 500.000 al giorno.
Ciò significa che gli amministratori di sistema erano costretti a dedicare una fetta importante del proprio tempo a blindare i sistemi, proteggere i dati e aggiornare in continuazione firmware e software per avere sempre gli ultimi update di sicurezza.
Questo è anche il decennio caratterizzato da grossi problemi di sicurezza che hanno costretto gli amministratori a spendere giorni (a volte settimane) a rimettere in sesto gli ambienti. Heartbleed, le vulnerabilità Meltdown e Spectre, per citarne solo alcune, sono entrate di prepotenza nella lista delle cose da fare di ogni amministratore.
Virtualizzazione e SaaS trasformano il lavoro quotidiano degli amministratori
Nella prima decade del millennio, la virtualizzazione ha fatto la sua parte per cambiare le vite degli amministratori: Le macchine virtuali potevano essere usate come workstation, ambienti di training, di test, di tutto. Il trend è proseguito nel decennio successivo, ma con una differenza: i sistemi virtuali erano hosted. Prima questi giravano su hardware on premise, ora sono nel cloud. Ancora meno hardware e software di cui gli amministratori dovevano prendersi cura.
Ma non è solo la virtualizzazione che ha cambiato il modo di lavorare con hardware e software. Con l’attivo del Software as a Service (SaaS) molte attività amministrative tradizionali sono diventate ridondanti. Prendiamo ad esempio Office 365, lanciato nel 2013: prima di questa data, ogni computer doveva avere la propria copia di Office installata. Ora il software risiede altrove e tutto ciò che serve all’utente è un buon browser e la connessione a Internet. Ormai quasi tutti i software, dai CRM ai sistemi di asset management, sono ospitati in remoto e utilizzati ‘as a service’. Ciò ha comportato anche il passaggio da un modello di licenza del software a un modello su abbonamento.
I dispositivi mobili sono la normalità
Dopo lo straordinario successo del primo iPhone nel 2007 e il lancio dell’iPad nel 2011, i dispositivi mobili sono nelle mani di tutti. Questa rivoluzione mobile ha avuto un forte impatto sugli amministratori di sistema. Molti devono gestire la presenza di questi dispositivi sulla rete aziendale, come conseguenza dell’esplosione del BYOD (bring your own device). E, come molti commentatori hanno osservato, ciò ha provocato problemi sia di sicurezza sia di ampiezza di banda.
La fine dell’admin mobile
Nei bei vecchi tempi dell’amministrazione di sistema, i professionisti IT dovevano essere ovunque. Se un computer era lento, dovevano recarsi fisicamente sul posto e dare un’occhiata. Se era necessario installare un aggiornamento in un’altra sede, dovevano andarci e fare il lavoro. Oggi è cambiato tutto. Buona parte del lavoro può essere fatta mediante una connessione remota a quel computer (anche se si trova nello stesso edificio) e poiché molto del software che gli utenti usano oggi è fornito dal cloud o da server esterni, gli amministratori non hanno più molte cose da installare.
Il risultato è che, come una volta, gli amministratori devono essere ovunque, ma possono farlo senza staccarsi dalla propria workstation. Le sessioni remote hanno sostanzialmente sostituito l’amministrazione remota.
Il monitoraggio delle infrastrutture è cambiato, ma è ancora importante
Molti cambiamenti sono avvenuti nell’ultimo decennio, ma c’è una cosa che è rimasta costante: la necessità di monitorare l’infrastruttura. Semmai, oggi è ancora più importante, anche perché tutti gli altri cambiamenti hanno portato nuove sfide al monitoraggio dell’IT moderno.
Come già detto, molti ambienti oggi sono ibridi, con una combinazione di infrastrutture on premise e servizi cloud. Nello stesso ambiente si trovano molti hardware e protocolli diversi: un mix di dispositivi IT “tradizionali” (router, workstation, server, switch, ecc.) e apparati più recenti come i dispositivi IoT o macchine specializzate, come certi sistemi in uso negli impianti manifatturieri o nella sanità, tutto nella stessa infrastruttura. La sfida è monitorare tutti questi diversi servizi, hardware e protocolli in modo centralizzato.