Un aspetto che domina le attività basate sulla gestione e sull’elaborazione dei dati è il rischio operativo. “Non lo si può eliminare, ma lo si può mitigare”, ha affermato in un recente incontro Leonardo Antonelli, Cloud Systems Master Principal Solution Engineer di Oracle. Non si può eliminare perché anche quando si sono prese tutte le possibili precauzioni può verificarsi un evento imprevisto (un allagamento, un incendio o anche un semplice blackout) il quale può causare ingenti danni.
Tuttavia, il rischio operativo si può mitigare. Come? “Il rischio è la probabilità che possa avvenire un determinato evento e che questo evento causi un danno – ha precisato Antonelli –. Perciò, più aumenta la probabilità che tale evento accada o più aumenta il valore del danno che potrebbe causare, più aumenta il rischio. Il rischio può essere, quindi, mitigato trovando un compromesso agendo su uno dei due fattori: o si riduce la probabilità o si limita il danno. Meglio ancora se li si abbassa entrambi”.
Ridurre la probabilità
Tutti i sistemi usati per gestire i dati hanno caratteristiche intrinseche, date da una parte operativa (il software) e una fisica (l’hardware). Per diminuire la probabilità che si verifichi un danno si deve agire su una di tali parti. “Sul versante software, un database come il nostro può offrire adeguate feature di resilienza – ha sottolineato Antonelli –. È chiaro che man mano l’hardware diventa integrato, come è per esempio il caso dei sistemi Exadata, si associano anche caratteristiche di resilienza hardware. In questo modo si riesce ad arrivare al 99,99% di probabilità che non si abbiano mai problemi. In pratica, viene mitigato il rischio”.
Limitare il danno
Allo stesso modo delle probabilità, si può agire per ridurre il danno. “In tal senso – ha suggerito Antonelli – si può implementare la MAA, Maximum Availability Architecture. Si tratta di una serie di linee guida che consentono di agire su due fronti. Anzitutto, nel caso di un danno a un data center permettono di ripristinarlo in un’altra location secondo una priorità di urgenze: business critical, mission critical, sistemiche e così via. In secondo luogo, ci può sempre essere, anche nell’Exadata più resiliente, un problema che porta alla perdita dei dati. Per esempio, un comando sbagliato. Quindi il secondo livello sta nell’avere sempre il dato consistente cioè di essere certi che nel momento in cui sorga la necessità, si può tornare indietro a un momento preciso e recuperare il dato. Queste sono le due linee principali per ridurre il danno se c’è un rischio”.
I rischi più rilevanti per il 2023
Il rischio operativo e più in generale il rischio legato all’IT sono considerati a livello globale fra i rischi più rilevanti per il 2023.
Il rischio operativo può portare sostanzialmente a tre categorie di danni: finanziario cioè si ha una perdita economica; di immagine con una conseguente perdita di clienti; un sanzionamento da un ente regolatorio perché non si sono seguite le regole per ridurre il rischio.
Per assicurare la continuità operativa e ridurre la probabilità di danno a fronte di un rischio, oltre alla citata Maxima Availability Architecture, Antonelli ha indicato alcune soluzioni best practice per il backup/restore e la diversificazione con soluzioni ibride.
“Tra le best practice – ha precisato Antonelli –, la più diffusa è sicuramente quella del twin data center ovvero di avere una replica sincrona dei dati in locale e una replica asincrona in remoto. Le due repliche garantiscono arrivare a disporre della transazione più recente e quindi nessun dato viene perso. Ovviamente è necessario che il backup non sia corrotto. Può essere perciò utile una time machine che permetta di avere un dato che ‘parla il linguaggio del database’ così si è certi che tale dato sia sempre consistente”.
Il cloud on premise
Un’altra possibilità per avere una riduzione del rischio è la diversificazione con soluzioni che siano on-prem o in cloud. Dove per cloud si intende sia il cloud pubblico sia il private cloud, che nella dizione di Oracle si chiama cloud@customer. “Molto spesso è cloud@customer – ha dichiarato Antonelli – ovvero l’equivalente di un Exadata gestito esattamente come se fosse in cloud, ma installato presso il cliente. Può infatti accadere che, per una serie di motivi legati alle normative o alla latenza, i dati debbano rimanere on premise. Ed Exadata offre una sicurezza che parte dal dato stesso e si estende a una serie di componenti aggiuntivi, comprese la parte computazionale, l’infrastruttura di networking e della macchina, inclusa la gestione e la parte OCI tenant. In pratica, c’è una sicurezza end to end che va del dato fino al cloud”.
La gestione dell’hardware è a carico di Oracle
In questo tipo di configurazione cloud@customer, sostanzialmente, Oracle si fa carico di tutto quanto serve per gestire e manutenere l’hardware, compreso il patching. Il cliente ha a disposizione delle VM all’interno delle quali può implementare i database che ritiene più opportuno e che saranno criptati. Uno dei vantaggi che comporta questa soluzione è il costo, perché si paga solamente il consumo effettivo dell’hardware.
Nel cloud@customer esiste una modalità aggiuntiva, l’autonomous database (per altro disponibile anche nel cloud puro). In tale modalità, Oracle amplia il suo ambito di gestione (dal provisioning alla sicurezza, dall’hardening della macchina alla maintenance, dalla protezione in caso di errori allo scale-in scale-out) a tutto l’hardware, fino al database. “Di tutte queste attività si occupa un motore di intelligenza artificiale creato ad hoc – ha aggiunto Antonelli –. L’utente si deve preoccupare solo di gestire il database. Diversificare oggi vuol dire anche che sulla stessa macchina si può avere un database gestito in parte in modalità tradizionale e in parte in modalità autonomous. In passato questo non si poteva fare”.
IntesaSanpaolo: una tecnologia stabile che funziona
Presente all’evento di Oracle, un rappresentante della direzione sistemi informativi di IntesaSanPaolo ha voluto portare la testimonianza della sua esperienza con Exadata cloud@customer, che è iniziata nel novembre 2022. “Per quanto mi riguarda, Exadata cloud@customer non è nient’altro che un Exadata con delle VM che contengono dati criptati. Nulla di così spaventoso. Noi abbiamo portato all’interno di due Exadata, che sono nella nostra sede, 100 database di varie versioni per un totale di circa 130 applicazioni: la tecnologia è stabile e funziona. Abbiamo capito i pro e i contro e abbiamo deciso di trasferire tutti gli ambienti di disaster recovery della divisione finanza, perché spesso le macchine attualmente disponibili sono ferme. Riteniamo così di poter avere anche dei risparmi sui costi in quanto con Exadata cloud@customer si paga solo quello che si consuma e il provisioning e la manutenzione delle macchine non sono più problemi in capo al dipartimento IT ma le gestisce Oracle”.
Dati sempre al sicuro
Nel suo intervento, Guido Guidi, Cloud Systems Principal Solution Engineer di Oracle, ha focalizzato l’attenzione sull’aspetto sicurezza. “Assistiamo a un una dicotomia – ha detto Guidi –. Gli investimenti delle aziende, fino a 60-70% del budget, sono oggi orientati a migliorare la sicurezza di rete. È un aspetto che va sicuramente considerato, ma il 90% degli attacchi oggi sfrutta le vulnerabilità dei sistemi operativi, dei database e delle applicazioni”.
Così come nel caso della MAA, Oracle ha una propria vision anche per la sicurezza: si chiama MSA (Maximum Security Architecture) ed è una best practice per la messa in sicurezza dell’environment a partire dal database.
MSA è composta da diverse feature come la Transparent Database Application che permette di avere la cifratura del dato. “Le chiavi tale cifratura sono gestite tramite l’Oracle Key Vault ha sottolineato Guidi –, strumento realizzato proprio per dare scalabilità e prestazioni nell’accesso alle chiavi quando sono utilizzate in ambito transazionale”.
Database Vault e Label Security permettono poi di legare l’accesso ai dati al database administrator arrivando anche a dare una serie di grant riga per riga e quindi specificare quali utenti possono vedere e cosa all’interno, per esempio, di una tabella.
Sicurezza SIEM
Un’opzione di mascheramento cautela nei confronti di una visualizzazione accidentale di dati (come quando del numero di carta di credito vengono visualizzate solo le ultime cifre). Mentre l’Audit Vault, che è sostanzialmente un SIEM, colleziona i dati di log a livello di sistema operativo, di database e di auditing per consentire di eseguire le attività di reportistica e di alerting. Infatti, permette di “visualizzare, capire e intercettare comportamenti da parte di utenti, quindi di credenziali autenticate che stanno facendo attività inconsuete”, ha spiegato Guidi.
Un database firewall consente poi di disaccoppiare le applicazioni dal database e quindi intercettare e analizzare gli statement SQL per capire se c’è qualche cosa di anomalo.
Guidi ha messo in particolar rilievo l’Oracle Zero Data Loss Recovery Appliance. “Basata su un’incremental forever strategy – ha precisato Guidi – crea continuativamente virtual full backup, verificando integrità fisica e logica dei dati, per consentire un rapido recovery potendo risalire a un instante qualsiasi nel tempo. Opzionalmente, si può attivare un processo ulteriore che esegue una copia del ReDo Log corrente di tutti i database configurati”.
La migrazione al cloud dell’Università La Sapienza
Tra le testimonianze dell’evento c’è stata anche quella di Massimo Russo, Responsabile settore IT dell’Università La Sapienza di Roma, che ha raccontato la sfida di passare al cloud velocemente – come da direttiva AGID per tutte le Pubbliche Amministrazioni – inizialmente con il sistema di gestione degli studenti, un carico di lavoro IT decisamente mission-critical per l’Ateneo e che richiedeva un livello di sicurezza e controllo sui dati non facilmente ottenibile.
“Con circa 120.000 iscritti e oltre 6.000 dipendenti, La Sapienza è l’Università più grande d’Europa: un disservizio per anche solo una minima percentuale degli studenti può avere ricadute negative di efficienza e anche di immagine su tutto il nostro sistema didattico – ha commentato Russo –. Per questo la scelta di utilizzare Oracle Exadata Cloud@Customer è stata fondamentale per permetterci una transizione più possibile ‘indolore’ al cloud, pur mantenendo il controllo dei dati e dei processi dentro il nostro datacenter”.