No all’anonimizzazione delle sentenze senza controllo umano (G. Lo Sapio; O. Pollicino) - Repost Il Sole 24 Ore

IA e diritto

Articolo originale qui.


Il Tar Lazio boccia l’utilizzo dei sistemi automatici: c’è il rischio che l’algoritmo si trasformi da strumento di trasparenza a meccanismo di opacità.


Tra le applicazioni più pervasivamente introdotte dell’intelligenza artificiale nei sistemi giudiziari, l’anonimizzazione delle decisioni rappresenta, almeno in apparenza, un intervento virtuoso: finalizzato a tutelare la riservatezza delle parti in causa, senza compromettere il principio di pubblicità delle decisioni giudiziarie. Tuttavia, il caso italiano recentemente affrontato dal Tar del Lazio (sentenza n. 7625 del 17 aprile 2025) mostra come, in assenza di un bilanciamento attento e consapevole tra diritti, l’algoritmo può trasformarsi da strumento di trasparenza a meccanismo di opacità.

Il caso
La vicenda è, nei fatti, emblematica. Con la sostituzione dell’Archivio giurisprudenziale nazionale (Agn) con una nuova banca dati pubblica (Bdp), il ministero della Giustizia ha inteso rendere più accessibile il patrimonio delle sentenze italiane. Ma all’apertura del nuovo portale, gli operatori del diritto - avvocati e studiosi - si sono trovati davanti a documenti svuotati del loro contenuto informativo: rimossi non solo i nomi delle parti, ma anche le date, i riferimenti normativi e giurisprudenziali, persino le coordinate fattuali essenziali.

Una radicale automatizzazione del processo di anonimizzazione, priva di controllo umano e svincolata dal contesto, ha prodotto l’effetto paradossale di annientare la funzione conoscitiva, orientativa e garantista della giurisprudenza. In nome della privacy si è finito per negare il diritto alla conoscenza della legge vivente, mettendo in discussione la stessa intelligibilità dell’ordinamento.

La decisione del Tar
Il Tar, con una decisione destinata a fare scuola, ha chiarito che l’anonimizzazione non può essere ridotta a mera operazione tecnica, né appiattita su un automatismo cieco. Al contrario, essa incide sulla qualità della giustizia e sull’effettività del diritto di difesa. Tradisce il principio fondativo del diritto – da mihi factum, dabo tibi ius – ogni prassi che cancella i fatti, rendendo impossibile l’applicazione coerente della norma al caso concreto.

La pronuncia mette inoltre in risalto come l’anonimizzazione generalizzata e indiscriminata confligga con principi costituzionali e sovranazionali. L’articolo 6 della Convenzione europea dei diritti dell’uomo e l’articolo 47 della Carta dei diritti fondamentali dell’Unione europea – oltre che l’articolo 111 della Costituzione italiana – sanciscono non solo la pubblicità delle udienze, ma anche la conoscibilità delle decisioni. Pubblicità che non si esaurisce nella visibilità formale del testo, ma richiede che la sentenza sia comprensibile, nella sua logica, nel suo percorso motivazionale, che non puoi prescindere dal caso concreto, e nelle sue implicazioni sistemiche.

AI governance
Il punto critico, tuttavia, va oltre il caso specifico. È strutturale. L’AI Act europeo, nella sua formulazione attuale, esclude espressamente i sistemi di anonimizzazione automatica delle decisioni giudiziarie dalla categoria dei sistemi «ad alto rischio». Una scelta che, alla luce di quanto accaduto, si rivela discutibile. Se il Considerando 61 qualifica queste applicazioni come mere «attività amministrative ausiliarie», prive di impatto diretto sull’amministrazione della giustizia, il caso italiano dimostra che l’esito della loro adozione può essere tutt’altro che neutro.

Non si tratta di invocare un proibizionismo tecnologico, quanto piuttosto di introdurre – come avviene in altri ambiti dell’AI governance – forme effettive di accountability algoritmica. La supervisione umana, il diritto alla spiegabilità, la tracciabilità delle modifiche, l’analisi d’impatto sui diritti fondamentali devono costituire elementi imprescindibili, anche per le soluzioni apparentemente “tecniche” come l’anonimizzazione.

Il rischio che corriamo è quello di una giustizia senza volto, senza memoria e senza orientamento. Una giustizia “chiusa”, più simile a una black box che a un servizio pubblico fondato sulla trasparenza e sulla fiducia. E se è vero che ogni diritto fondamentale esige un bilanciamento – e la privacy non fa eccezione – è altrettanto vero che tale operazione non può avvenire in modo automatico, impersonale e irriflessivo. Perché la giustizia, in una democrazia costituzionale, non può essere solo resa: deve essere anche visibile, comprensibile e controllabile da chiunque.

Alla fine, come ammonisce la sentenza, non è la tecnologia a dover essere demonizzata, ma il suo uso acritico. Se lasciamo che siano solo gli algoritmi a decidere cosa può essere conosciuto e cosa deve essere nascosto, il rischio non è quello di proteggere troppo la riservatezza. È quello, ben più grave, di cancellare la giustizia.

Submitted on Wed, 06/04/2025 - 13:53