L’idea è seducente: un assistente virtuale disponibile 24 ore su 24 che traduce il linguaggio della giustizia in istruzioni semplici e aiuta chi non ha un avvocato. Tuttavia, quando un chatbot entra nel perimetro del sistema-giustizia, l’innovazione deve affiancarsi all’affidabilità. Il parere dell’avvocato Giuseppe Vaciago, partner di 42 Law Firm.
Chatbot – Il caso dell’Alaska Virtual Assistant (AVA)
In Alaska la Corte statale ha sviluppato un chatbot generativo, l’Alaska Virtual Assistant (AVA), per supportare i cittadini nella gestione di questioni successorie: il percorso – spesso complesso e pieno di moduli – con cui si gestisce il trasferimento dei beni dopo un decesso. Il progetto, sviluppato con il supporto del National Center for State Courts e di LawDroid, era nato come pilota “veloce”. In fase di test, però, sono emersi i limiti tipici dei modelli linguistici del chatbot: allucinazioni (risposte sicure ma false) e anche numerosi bias. Un progetto pensato per durare tre mesi è diventato un percorso lungo oltre un anno. A quel punto la Corte ha ridimensionato le aspettative: AVA non dovrà replicare un facilitatore umano, ma offrire informazioni di base, con un lancio pubblico previsto per fine gennaio 2026.
Durante le prove, per esempio, alla domanda “dove trovo assistenza legale?”, il sistema avrebbe suggerito di rivolgersi alla rete di ex studenti di una “law school in Alaska” che, in realtà, non esiste. E non era solo un problema di contenuto: utenti già provati da un lutto hanno rifiutato un tono troppo “empatico” (“mi dispiace per la tua perdita”), percepito come artificiale. Il team di progetto ha quindi eliminato i convenevoli e spinto verso risposte più essenziali e verificabili.

In materia successoria basta un’informazione incompleta per far perdere termini, presentare l’istanza sbagliata, aggravare costi e contenzioso. C’è poi un effetto psicologico che in tribunale conosciamo bene: se una risposta è formulata con sicurezza, l’utente tende a fidarsi (automation bias), soprattutto quando non ha strumenti per verificarla. Nei servizi pubblici legali, quindi, il paradigma “rilascio rapido e poi correggiamo” è spesso incompatibile con l’aspettativa (e il dovere) di accuratezza del servizio giustizia.
Il contesto italiano: i primi campanelli d’allarme
Anche in Italia gli output generativi stanno entrando maldestramente negli atti giudiziari. Nel 2025, il Tribunale di Firenze (Sezione Imprese) ha riscontrato in una memoria difensiva riferimenti a presunte sentenze della Cassazione rivelatesi inesistenti o non pertinenti, ricondotti a una ricerca effettuata con ChatGPT e non verificata prima del deposito. Non mancano altri segnali: nel 2025 il TAR Lazio si è confrontato, in un contenzioso su una gara pubblica, con l’uso dichiarato di ChatGPT nella redazione dell’offerta tecnica. Anche quando l’IA non è “decisiva”, il fatto che entri nella strategia processuale cambia il perimetro del rischio. Il messaggio è chiaro: nel processo, le fonti si controllano sempre e la plausibilità non è garanzia di verità.
Il quadro regolatorio europeo e nazionale sta già alzando l’asticella. Accanto all’accuratezza c’è il tema dei dati: un assistente che tratta pratiche successorie maneggia informazioni personali e familiari, e l’uso di modelli esterni impone scelte chiare su conservazione, log, trasferimenti e accountability. L’AI Act europeo include tra i sistemi “ad alto rischio” quelli destinati ad assistere l’autorità giudiziaria nella ricerca/interpretazione di fatti e diritto o nell’applicazione della legge al caso concreto, imponendo logiche di gestione del rischio, tracciabilità e supervisione umana. In Italia, la legge 23 settembre 2025, n. 132 si innesta su questo percorso. Sul piano professionale, le indicazioni degli ordini professionali nazionali ed europei insistono su riservatezza e competenza: niente dati del cliente su strumenti non governati e niente depositi senza verifica, anche quando l’output “sembra” corretto.
Chatbot “in tribunale”: il caso Alaska e la lezione per l’Italia
A livello operativo, la risposta è sempre la stessa: dobbiamo prepararci a questa innovazione attraverso la formazione. L’AI Act prevede all’articolo 4 un preciso obbligo per tutti coloro che vogliono usare l’intelligenza artificiale in modo professionale di intraprendere un percorso di alfabetizzazione, anche se un recente regolamento volto a semplificare le normative europee (“Digital Omnibus”) potrebbe ridurre tale obbligo.
Ciò non toglie che è necessario affidarsi a risposte ancorate a fonti ufficiali, con citazioni e link e soprattutto al controllo umano che è fondamentale per garantire la certezza dell’informazione. Allo stesso modo è necessario avere nel contesto degli studi professionali e della magistratura delle chiare policy che prevedano il divieto di upload di dati riservati, il controllo della giurisprudenza citata prima del deposito e impongano di informare utente/cliente quando l’IA viene usata e con quali limiti. Serve, infine, anche un procurement pubblico “AI-aware”: capitolati che pretendano auditabilità, dataset di test realistici, obblighi di aggiornamento e un modello chiaro di responsabilità in caso di errore.
Il caso Alaska, più che una storia di “IA che sbaglia”, è una lezione di metodo: la giustizia può innovare, ma deve farlo come si gestiscono le prove in tribunale – con rigore, tracciabilità e responsabilità.






