Trasformazione ed evoluzione della crittografia secondo Innovaway

Nel suo intervento prende in esame vantaggi e rischi delle nuove metodologie crittografiche.

crittografia

Sergio Ajani, Services & Solutions Design Director di Innovaway, illustra come le normative europee e nazionali stanno cambiando i modelli di crittografia più tradizionali.

L’ecosistema normativo europeo ha subito una trasformazione radicale negli ultimi anni. GDPR, DORA, NIS2 e AI Act non rappresentano semplicemente un incremento dei requisiti di compliance, ma configurano un nuovo scenario. In esso la protezione crittografica dei dati non è più una best practice opzionale, bensì un prerequisito legale vincolante. Questa evoluzione sta rendendo però sempre più evidente che i modelli crittografici tradizionali, per quanto sofisticati, presentano limiti strutturali che non possono essere risolti attraverso ottimizzazioni incrementali, ma richiedono una revisione più profonda. Anche in relazione all’evoluzione computazionale alle porte.

Il paradosso operativo della validazione

Le metodologie classiche come controlli di accesso basati su ruoli, crittografia a riposo e in transito, pseudonimizzazione, segregazione dei database e audit trail, si scontrano con un problema: per validare i dati personali è necessario esporli in chiaro. Ogni verifica KYC, ogni controllo di conformità, ogni processo di onboarding implica l’esposizione di dati.

I quali, se compromessi, generano responsabilità che vanno oltre il danno economico diretto. Questo paradosso ha un duplice impatto. Dal punto di vista economico, la gestione della compliance assorbe risorse per implementazione tecnica, audit continui, consulenze legali e formazione del personale. Il rischio di sanzioni può raggiungere il 4% del fatturato globale, accompagnato da un danno reputazionale spesso più pesante dell’ammenda stessa.

I rischi concretoidi intrusione nei sistemi

Il report ‘Cost of a Data Breach 2024’ di IBM evidenzia che il costo medio globale di una violazione dei dati ha raggiunto il record storico di 4,88 milioni di dollari. Con un’impennata nei settori sanitario e finanziario, dove l’esposizione di dati in chiaro rappresenta uno dei vettori di costo più onerosi. Il limite più critico è tuttavia un altro: queste metodologie aprono la porta a un rischio concreto di intrusione nei sistemi. Essere conformi, infatti, non significa essere al sicuro, il personale autorizzato rimane un potenziale vettore di attacco e ogni accesso costituisce un possibile punto di compromissione. La compliance procedurale, in altre parole, non garantisce la sicurezza.

Compliance

ZKP e crittografia: verificare senza leggere

I protocolli crittografati Zero Knowledge Proofs (ZKP) promettono di eliminare questa debolezza permettendo di dimostrare di possedere un requisito senza rivelare dati. Prendiamo l’esempio di una finanziaria che deve verificare che il reddito di un cliente superi i 30.000 euro per concedere un prestito. Tradizionalmente, il cliente fornisce buste paga e CUD – che rivelano stipendio esatto, datore di lavoro, dettagli patrimoniali – esposti a chiunque li gestisca.

Con le ZKP, il datore di lavoro firma digitalmente il reddito del cliente e, tramite un’applicazione, il cliente genera una prova crittografica che il reddito supera i 30.000 euro da fornire alla banca. In questo modo, nessun dato sensibile transita, nessun database lo acquisisce, nessun operatore vi accede. La verifica avviene, ma il pericolo di compromissione scompare alla radice.

Meno dati sensibili in chiaro per ridurre i rischi

I progetti pilota nel settore bancario mostrano riduzioni significative dei tempi di onboarding e contenimento dei costi di compliance. E questo grazie alla riduzione del personale necessario per gestire dati sensibili, dei costi di storage sicuro e di quelli assicurativi. Ma il valore più rilevante è la riduzione del rischio: meno dati sensibili in chiaro significano minore superficie di attacco e minore responsabilità in caso di incidente. I progressi nello sviluppo delle ZKP sono reali e rapidi. Microsoft, Google e istituzioni accademiche investono attivamente in questi protocolli per trasformarli da strumento accademico a tecnologia di uso comune per settori come banking, PA e sanità.

Gli algoritmi di crittografia

Mentre l’attenzione si concentra sulle vulnerabilità immediate, un’ulteriore minaccia sta prendendo forma. Gli attori ostili applicano già la tattica ‘Harvest now, decrypt later’. Ovvero raccolgono oggi dati crittografati con l’intenzione di decifrarli quando i computer quantistici raggiungeranno la capacità necessaria. Per infrastrutture con cicli di vita di 15-20 anni, come le reti 5G, o per dati che mantengono valore nel tempo (sanitari, finanziari, governativi), questa non è una minaccia teorica e di poco conto. Gli algoritmi di crittografia a chiave pubblica attualmente in uso – RSA, ECC e varianti – sono vulnerabili agli algoritmi quantistici.

Il pericolo reale della decrittazione quantistica

La domanda non è più se questi sistemi diventeranno obsoleti, ma quando: la comunità scientifica colloca l’orizzonte più probabile tra i 10 e i 15 anni. Secondo il World Economic Forum, oltre 20 trilioni di dollari di valore economico globale all’interno delle infrastrutture digitali sono attualmente esposti al rischio di decrittazione quantistica. Per le organizzazioni che gestiscono dati con sensibilità pluridecennale, aspettare la maturità del quantum computing significa essere già un bersaglio vulnerabile oggi.

La compromissione di dati crittografati

Per un istituto finanziario di medie dimensioni, la compromissione di dati crittografati si traduce in esposizioni stimate tra 50 e 250 milioni di euro. Per settori come energy provider o telco, significa mettere a rischio infrastrutture core del valore di decine di miliardi. Per aziende il cui capitale è prevalentemente costituito da progetti riservati, dati di ricerca, design industriale mission critical l’esposizione diventa non solo economica ma può compromettere la sicurezza di interi comparti industriali o paesi.

La crittografia post-quantistica

Il National Institute of Standards and Technology americano ha pubblicato nel 2024 i primi standard di crittografia post-quantistici: non più prototipi di laboratorio, ma algoritmi pronti per l’implementazione. Le organizzazioni non hanno più l’alibi della tecnologia. Infatti questa migrazione è già tecnicamente possibile e la finestra temporale per gestirla in modo ordinato si accorcia mese dopo mese. Questa migrazione richiede un inventario completo di dove viene utilizzata la crittografia, quali algoritmi, quali dipendenze. Richiede anche una valutazione del rischio specifica per ciascun asset: quali dati hanno valore a lungo termine, quali sistemi hanno cicli di vita estesi, quali compromissioni avrebbero impatto critico.

Un’opzione rischiosa

Passi indispensabili anche perché le organizzazioni molto raramente hanno visibilità di quest’ambito. Le indagini di mercato sulla ‘Crypto-Agility’ confermano questa lacuna: meno del 25% delle Big Company ha una lista e quindi visione dei propri asset crittografici. In questo contesto una migrazione last minute o d’emergenza, o pianificata solo quando inevitabile, è un’opzione rischiosa. Oltre che con costi e margini di errore elevati.