Gary Kaiser, Expert in Network Performance Analytics di Dynatrace, analizza gli strumenti di monitoraggio delle prestazioni, oggi focalizzati sull’analisi dell’esperienza dell’utente.
Molti di noi sono alle prese con le tante incalzanti esigenze del business digitale: sviluppare nuove applicazioni mobile, valutare la sicurezza di fronte all’Internet of Things, gestire il passaggio al cloud ibrido, testare nuovi approcci per passare al network software-defined.
Sono tutti elementi di un trend in costante crescita che vede l’IT sempre più orientato ai servizi, con l’obiettivo primario di offrire all’utente finale un’esperienza di qualità elevata, per tutti gli utenti – interni all’azienda, partner e clienti – con la velocità, la qualità e l’agilità che il business oggi richiede.
Come soddisfare aspettative così elevate? Mentre i data center moderni si evolvono rapidamente verso ambienti più agili, le architetture di rete e le applicazioni diventano sempre più complesse, ostacolando gli sforzi per comprendere la qualità del servizio a partire dal semplice monitoraggio delle infrastrutture e delle applicazioni. La virtualizzazione, ad esempio, può oscurare la visibilità sulle prestazioni critiche e le dipendenze complesse dei servizi mettono alla prova anche i migliori analisti delle prestazioni. Questa potrebbe essere la premessa di un vero disastro nel mondo del monitoraggio e gestione delle prestazioni ma, in realtà, racchiude al suo interno la chiave per raggiungere il successo.
La qualità del servizio è negli occhi di chi lo utilizza – Per capire se un servizio à veramente di qualità, dobbiamo misurare l’esperienza che di esso ha l’utente finale (EUE). Ricordate il detto “la bellezza è negli occhi di chi guarda?” Vale anche nel modo delle applicazioni dove la qualità del servizio non è qualcosa che può definirsi a priori ma è negli occhi dell’utente. Tale visibilità è oggi più che mai fondamentale per l’eccellenza dei servizi IT, perché fornisce un contesto importante per interpretare in modo più efficace le metriche delle prestazioni delle infrastrutture.
Oggi, i team delle IT operation si concentrano spesso sul monitoraggio delle infrastrutture più accessibili – dispositivi, rete, server, applicazioni, storage – a partire dalla considerazione che il tutto è uguale alla somma delle parti. La teoria prevedeva (e per molti ancora prevede) che, raccogliendo e valutando le metriche delle prestazioni rispetto a tutti questi componenti, si possa mettere insieme una conoscenza ragionevole della qualità del servizio. I più ambiziosi combinano le metriche provenienti dalle tante e diverse soluzioni di monitoraggio in una singola console, magari con una correlazione temporale, o un’analisi programmata di causa ed effetto.
Questo approccio, a cui spesso ci si riferisce come Business Service Management, comporta però la necessità di alimentare in modo continuativo le soluzioni con nuovi dati e controllarne il funzionamento. Anche se molti lo hanno già abbandonato, questo approccio ci ha insegnato qualcosa: l’esperienza dell’utente è fondamentale per l’efficienza dell’IT perché è l’unico modo per sapere se ci sono problemi che si ripercuotono sugli utenti, definire le priorità di risposta ai problemi in base all’impatto sul business, evitare di dare la caccia a problemi che non esistono e affrontare il troubleshooting giungendo a una soluzione con la certezza di sapere se e quando il problema è stato veramente risolto.
La complessità guida l’evoluzione dell’APM – Fornitori e aziende operano insieme per fare crescere le capacità di monitoraggio delle prestazioni; passando dal monitoraggio in tempo reale e dal reporting sullo storico verso un isolamento più sofisticato del dominio di errore e all’analisi delle cause principali, utilizzano analitiche sempre più complesse per prevedere, prevenire e intervenire nel correggere i problemi.
Uno dei driver più interessanti del settore è proprio la crescita della complessità – delle reti di data center, della catena di distribuzione delle applicazioni e delle architetture applicative – e, di conseguenza, il volume crescente di dati che mettono alla prova gli attuali approcci al monitoraggio delle prestazioni delle IT operation. Fondamentalmente si tratta di un problema di big data!
La risposta sono le soluzioni di IT operations analytics (ITOA), giunte sul mercato come un approccio che consente ricavare intuizioni sui comportamenti del sistema IT (tra cui, ma non solo, le prestazioni) analizzano grandi volumi di dati provenienti dalle fonti più disparate. La visione di Gartner del mercato ITOA è molto interessante: la spesa è raddoppiata dal 2013 al2014, raggiungendo i 1,6 miliardi di dollari, con una stima che vede oggi solo il 10% delle imprese utilizzare queste soluzioni e quindi un potenziale di crescita enorme!
Non entrerò maggiormente nei dettagli delle soluzioni ITOA ma vorrei sottolineare come il loro valore vada oltre alla questione della gestione dei problemi e degli incidenti.
Ad esempio, possono offrire vantaggi importanti nella gestione dei cambiamenti e delle configurazioni. Dal punto di vista delle prestazioni, le fonti di dati possono includere i log di sistema, informazioni sulla topologia, le metriche prestazionali, gli eventi e altro, a partire dai server, dagli agent e dalle sonde. Le informazioni sono memorizzate, indicizzate e analizzate per raggiungere obiettivi importanti, come l’identificazione dei trend, il rilevamento delle anomalie, l’isolamento dei domini di errore, la definizione della causa principale, e la capacità di prevedere i comportamenti. C’è una certa somiglianza con gli sforzi precedenti del BSM nel combinare i diversi dati di monitoraggio, ma le tante capacità e le promesse che queste analitiche comportano – come ad esempio l’apprendimento automatico – rendono questo approccio notevolmente differente e, infatti, si parla spesso dello ITOA come il futuro dell’APM.
L’esperienza dell’utente finale come chiave per un servizio efficiente – Tornado al tema delle prestazioni delle applicazioni, anche i sistemi ITOA più solidi potranno dire ben poco se non includono le metriche sull’esperienza dell’utente finale. Certo, sarà possibile venire a conoscenza di anomalie di cui non si sapeva l’esistenza e acquisire una conoscenza diretta dei problemi imminenti ma una reale efficienza dell’IT e l’allineamento al business sono fondamentali per l’orientamento efficace del servizio e richiedono il contesto dell’esperienza dell’utente finale; ignorare questo significherebbe non cogliere un passaggio fondamentale verso la maturità.
DynaTrace tramite Data Center Real User Monitoring (DC RUM) misura il tempo di risposta degli utenti finali, e può includere sia le metriche sull’utente reale sia la misurazione sintetica per un vasto numero di applicazioni .DC RUM sfrutta la visibilità sull’esperienza dell’utente finale, sulla rete e a livello della transazione per analizzare le prestazioni, guidare l’isolamento del dominio di errore e determinare l’impatto sul business.