Antonio Capobianco, CEO di Fata Informatica, evidenzia modalità e peculiarità delle piattaforme di monitoraggio dei datacenter moderni, fortemente orientati al cloud.
L’adozione del cloud da parte delle aziende sta crescendo a ritmi esponenziali. Stando ai dati recentemente forniti dalla società d’analisi IDC, si stima che il mercato globale del cloud chiuderà il 2015 raggiungendo i 32 miliardi di dollari, in salita del 28% rispetto ai 26 miliardi di dollari del 2014.
Ma, al di là dei numeri e delle statistiche, siamo sicuri che il mercato abbia accettato in toto il cloud? A ben vedere, risulta che il graduale passaggio alla “nuvola” si stia verificando principalmente nella modalità ibrida, con un gran numero di aziende che sceglie quali applicazioni tenere on premise, ovvero in casa, e quali portare nel cloud pubblico.
In molti casi, infatti, anche le aziende che hanno accettato di passare al cloud pubblico, continuano a disporre di un ambiente di cloud computing che rimane completamente all’interno del datacenter, e che consente di mantenere i dati dentro la propria struttura operativa, bypassando le note preoccupazioni inerenti la privacy e la sicurezza. Ad esempio, se il front-end di un’azienda è sempre più spostato verso il cloud pubblico, i sistemi legacy (es. i sistemi di fatturazione) restano, ad oggi, ancora ancorati all’on premise.
Questo spostamento di una quota parte del parco applicativo in cloud – sebbene in modalità ibrida – ha però una ripercussione diretta sui costi aziendali. Consapevoli che il proprio portfolio applicativo abbraccerà il cloud pubblico e l’ambiente on premise per i prossimi dieci anni, molte aziende devono fare i conti con una sostanziale riduzione degli investimenti nella propria infrastruttura.
In questo panorama caratterizzato da una generale riduzione della spesa aziendale, approntare un’efficace strategia di prevenzione del rischio dei propri apparati – in primis i datacenter – diventa essenziale per qualsiasi azienda.
Questo è tanto più vero se si considera che garantire la ridondanza degli impianti per assicurare la continuità di servizio dei datacenter risulta particolarmente oneroso per un’azienda di piccole e medie dimensioni. Un approccio del tipo “ridondanza N+1”, secondo cui ci si affiderebbe ad un apparato IT in più rispetto al necessario, si trasforma, infatti, in un approccio “N” se uno degli elementi si danneggia e, contemporaneamente, un secondo elemento si rompe. Certo si potrebbe optare per un approccio N+2 o N+3, N+4 e così via, ma cosa significherebbe questo da un punto di vista dei costi aziendali?
La domanda è più che lecita se si pensa che le aziende si trovano oggi a dover fronteggiare un duplice problema: da una parte devono garantire una reattività immediata alle criticità nel momento stesso in cui si manifestano, dall’altra devono tagliare drasticamente i costi finanziari e ambientali dei propri datacenter. Se l’adozione di nuove architetture, come container, strutture modulari ed economizzatori può certamente aumentare l’efficienza in termini di costi, risulterebbe più strategico risparmiare massimizzando le efficienze operative.
In questo contesto, un “approccio predittivo” che favorisca azioni di monitoraggio e prevenzione sembrerebbe essere una strada obbligata, per quanto non priva di insidie. Secondo quanto emerso dallo studio Fall Survey of Data Center Users, condotto da Emerson Network Power lo scorso novembre, il monitoraggio del funzionamento dei datacenter è, infatti, al centro delle preoccupazioni dei top manager. In particolare, il 35% degli intervistati – tutti membri del Data Center Users’ Group® (DCUG), un’associazione che riunisce i più influenti manager nel settore data center, IT e facility per il Nord America – sostiene che garantire un adeguato monitoraggio delle capacità e funzionalità dei datacenter rappresenta una delle tre principali preoccupazioni per la loro azienda.
Effettivamente i parametri da controllare per garantire un buono stato di salute dei propri dispositivi non sono pochi. Temperatura, umidità, presenza di acqua, fumi, sono solo alcuni dei parametri ambientali da monitorare con cura per evitare gravi danni a datacenter e server aziendali. Ma oggi la maggior parte delle grandi aziende non monitora adeguatamente neppure i consumi energetici legati al voltaggio, alla potenza e al consumo elettrico dei propri apparati, con un danno non indifferente in termini di costi sostenuti: generalmente si stima da 10 a 30 volte di più di quanto dovrebbe essere il consumo energetico per metro quadro.
Un’analisi puntuale di tali parametri dovrebbe essere un punto fondamentale per tutti i manager IT che vogliano adottare una politica di riduzione dei consumi e ottimizzazione delle prestazioni. Ma le aziende non dovrebbero solo poter monitorare il corretto funzionamento dei datacenter, ma anche essere in grado di intervenire in tempo reale in caso di anomalie nelle prestazioni degli apparati in uso.
Oggi, grazie ad adeguati sistemi di monitoraggio ambientale è possibile tenere sotto controllo ciò che succede all’interno delle mission critical facilities quali singoli rack, server room e datacenter al fine di prevenire failure, downtime e conseguente perdita di revenue e reputation.
Alcuni dei sistemi di monitoraggio ambientale presenti sul mercato permettono di operare controlli in maniera rapida e a costi contenuti, offrendo un quadro completo e sempre aggiornato dello stato di salute dei datacenter anche da remoto. Grazie a questi sistemi è, infatti, possibile ricevere una tempestiva segnalazione – tramite un sms o una e-mail – nel caso in cui ci fosse un degrado delle prestazioni dei dispositivi, così da intervenire e assicurare sempre la continuità di servizio. Ma c’è di più. Alcuni sistemi di monitoraggio permettono anche di eseguire azioni automatiche al verificarsi di eventi disastrosi come ad esempio accendere un condizionatore secondario quando la temperatura della sala server raggiunge delle particolari soglie critiche.
Tra gli strumenti di monitoraggio ambientale a disposizione delle aziende, SentiNet³® si è affermato in poco tempo come l’unico prodotto italiano in grado di competere con le maggiori aziende internazionali operanti sul mercato grazie alla sua facilità di utilizzo, velocità di messa in esercizio ed utilizzo di sensori wireless che permettono di controllare centinaia di parametri contemporaneamente.
Una gestione ottimale degli apparati aziendali rappresenta il primo passo verso una più moderna strategia di business che massimizzi l’efficienza operativa delle infrastrutture aziendali esistenti così da liberare risorse da investire in quella innovazione tecnologica e digitale che ha per leva strategica proprio il cloud.