
🔒 Intelligenza artificiale e amministrazione della giustizia:
le raccomandazioni del CSM sull’utilizzo dell’AI e la sovranità dei dati e delle informazioni
L’obiettivo primario del CSM è quello di garantire un utilizzo dell’AI che sia compatibile con la funzione giurisdizionale ed i principi fondamentali del diritto processuale
Con la delibera plenaria dell’8 ottobre 2025, il Consiglio Superiore della Magistratura (CSM) ha adottato un documento recante “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia“. Il testo, frutto di un’approfondita istruttoria e di un confronto con esperti del settore, si inserisce nel quadro normativo europeo delineato dall’AI Act (Regolamento UE n. 2024/1689) e mira a garantire un impiego responsabile, trasparente e conforme ai principi del giusto processo.
Il CSM, nella delibera adottata, pur affermando la consapevolezza che l’impiego di sistemi di AI (in particolare quelli generativi e predittivi) introduce nuove opportunità per attività di studio, analisi, gestione documentale e organizzazione dei flussi informativi, sottolinea che lo stesso solleva questioni complesse in materia di protezione dei dati personali, trasparenza algoritmica e responsabilità decisionale.
L’obiettivo primario del CSM è quello di garantire un utilizzo dell’AI che sia compatibile con la funzione giurisdizionale e i principi fondamentali del diritto processuale, assicurando in particolare la trasparenza dell’elaborazione algoritmica, la possibilità di verifica e contestazione degli output, la subordinazione all’autonomia valutativa del giudice e la parità informativa tra le parti.
Il documento evidenzia rischi significativi legati all’uso dell’intelligenza artificiale, tra cui:
- la trasmissione automatica dei dati a server esteri e la possibilità di riutilizzo non previsto;
- la generazione di informazioni sensibili e il rischio di profilazione degli utenti;
- le cd. allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva), o le cd. sycophancies (generazioni di contenuti compiacenti);
- la variabilità probabilistica delle risposte, influenzata dalla formulazione del quesito e dal contesto implicito.
Il Consiglio Superiore della Magistratura sottolinea che l’output dell’AI non può mai assumere valore probatorio o decisionale senza un controllo umano e che l’utente deve sempre verificarne accuratezza, pertinenza e coerenza.
Il Regolamento UE n. 2024/1689 (AI Act) rappresenta il pilastro normativo per l’uso dell’intelligenza artificiale nell’Unione Europea. L’amministrazione della giustizia è esplicitamente inclusa tra i settori ad alto rischio, con particolare attenzione ai sistemi utilizzati per assistere l’autorità giudiziaria nella ricerca e interpretazione dei fatti e del diritto. Il regolamento impone ai fornitori di sistemi di IA ad alto rischio:
- la gestione iterativa dei rischi;
- la qualità dei dati di addestramento;
- la trasparenza algoritmica e la tracciabilità;
- la sorveglianza umana e la cybersicurezza.
Inoltre, è prevista una banca dati europea per la registrazione obbligatoria dei sistemi ad alto rischio, e un sistema di governance multilivello con autorità nazionali e sovranazionali. In Italia, le autorità competenti sono state individuate nell’AgID e nell’ACN.
Nella delibera viene evidenziato che l’entrata in vigore dell’intero impianto regolamentare UE è stato previsto per l’agosto del 2026, data dalla quale gli unici sistemi di intelligenza artificiale che potranno essere utilizzati dai magistrati nell’esercizio dell’attività giudiziaria (ovvero “nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge ad una serie concreta di fatti”), conformemente al diritto UE, saranno solo quelli a marcatura CE, ovvero quelli che avranno ottenuto una positiva valutazione di conformità e saranno iscritti nella relativa banca dati dell’Unione Europea. La certificazione di tali sistemi “ad alto rischio” trasferisce il controllo della conformità sistemi di AI a un livello centralizzato, esentando i magistrati da controlli di fatto impraticabili e non accessibili al singolo giudice (riguardo, ad esempio, alla affidabilità dei sistemi, al livello di cybersicurezza e al livello tutela della privacy relativa ai dati immessi).
Il Parlamento italiano ha adottato il primo dei provvedimenti attuativi delle prescrizioni europee. Coerentemente con le coordinate dettate dal Regolamento UE in merito all’amministrazione della giustizia, e con le competenze previste dal nostro ordinamento costituzionale, la Legge 23 settembre 2025, n. 132 (“Disposizioni e deleghe al Governo in materia di intelligenza artificiale“), all’art. 15, comma 2, assegna al Ministero della Giustizia la disciplina degli “impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie”. Il comma 1 dello stesso articolo riserva invece al magistrato “ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti“, nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria.
Alla luce dell’assetto ordinamentale così delineato, le raccomandazioni adottate dal CSM intendono offrire un orientamento per rispondere a tre quesiti:
- quale uso può essere fatto dell’AI da parte dei magistrati italiani, in attesa dell’entrata in vigore delle disposizioni europee previste per agosto 2026;
- se esistano attività, nell’ambito della giustizia, che non comportano un rischio significativo di danno e non influenzano materialmente l’esito del processo decisionale, per le quali possa trovare applicazione la deroga prevista dall’art. 6, par. 3, dell’AI Act;
- quale sia la prospettiva di utilizzo dei sistemi di AI dopo l’agosto del 2026.
Il Consiglio Superiore della Magistratura afferma che in presenza di una disciplina nazionale ancora in corso di formazione, la regola comunitaria delinea il limite all’utilizzo dei sistemi di AI nel campo della giustizia al quale il CSM raccomanda di uniformarsi dal momento di adozione della delibera in esame.
In questa fase, e fino all’introduzione di sistemi conformi al regolamento europeo, deve essere escluso l’utilizzo non autorizzato di sistemi di intelligenza artificiale nell’attività giudiziaria in senso stretto; resta però ferma la possibilità di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero e del Consiglio, applicazioni anche in ambiti giudiziari, purché previa anonimizzazione e tracciabilità dei dati (come sta avvenendo, tra gli altri, nei tribunali di Bologna,Catania, Milano).
In particolare, il CSM raccomanda quanto segue:
“È necessario che la fase transitoria venga utilizzata come occasione di sperimentazione controllata e di crescita culturale, evitando che un divieto assoluto si traduca in un vuoto operativo e strategico: ciò esporrebbe la magistratura al rischio di trovarsi impreparata, priva delle necessarie competenze e dipendente da soluzioni esterne nel momento in cui entreranno in vigore le regole europee.
Permane, inoltre, la possibilità di utilizzo per attività amministrative ed organizzative strumentali all’attività giudiziaria come indicato nel precedente paragrafo 4 esclusivamente attraverso strumenti forniti dal Ministero della Giustizia che garantiscano la riservatezza e la non utilizzazione dei dati del singolo magistrato, pur presenti nel dominio giustizia, per l’addestramento dei sistemi.
Si deve, inoltre, escludere il rischio che con la tecnica del retrieval augmented generation (RAG) su archivi digitali della giustizia possa tradursi nella creazione di repository idonei a consentire forme di invasiva profilazione dell’attività giudiziaria e dei singoli magistrati.
Pertanto, pur dovendosi escludere l’immissione di dati sensibili di atti processuali su dispositivi di IA generalista occorre fornire per tempo un’alternativa: progettare un sistema interno di AI che possa essere gradualmente utilizzato a partire da agosto 2026. L’adozione di misure contrattuali ritenute idonee a garantire la riservatezza dei dati con operatori commerciali non appare soluzione soddisfacente.
Occorre, infatti, garantire la sicurezza della rete, valutando l’utilizzo di modelli residenti su server sotto il controllo del ministero o l’uso di modelli (anche) open source in locale su hardware in dotazione ai magistrati, previo adeguamento tecnologico delle macchine, tenendo anche presente che i nuovi applicativi ministeriali (Desk Cassazione, APP) sono concepiti per lavorare on line (ulteriore ragione per cui la soluzione più efficace appare la costruzione di un sistema di IA interno al sistema giustizia che possa essere integrato con tali strumenti di lavoro, destinati ad operare on line).
Sarebbe poi auspicabile che il Ministero potesse estendere la sperimentazione della versione avanzata di Copilot ai magistrati che ne facciano richiesta per diffondere una sempre maggiore consapevolezza sulle potenzialità dello strumento, anche ai fini della costruzione del sistema interno.
Per un uso corretto dell’AI, è quindi necessario allo stato adottare una serie di cautele operative:
- la sovranità dei dati e delle informazioni: i dati e le informazioni generate non devono mai essere accessibili a terzi non autorizzati;
- la protezione dei dati: nei sistemi AI non vanno immessi dati sensibili, riservati o soggetti a segreto investigativo, anche in forma indiretta. È importante, in particolare, considerare il rischio di reidentificazione dei dati, ancorché anonimizzati o pseudonimizzati, ad opera dell’AI attraverso l’incrocio di dataset. Occorre, in ogni caso, immettere nei sistemi di AI solo le informazioni necessarie;
- la qualità dei dati: i risultati delle applicazioni di intelligenza artificiale devono essere vagliati per garantire che soddisfino adeguati standard in termini di equità ed è, pertanto, essenziale garantire l’affidabilità e la rappresentatività dei dati di input al fine di evitare output con risultati affetti da cd. Bias ovvero da discriminazioni alle persone in base a razza, religione, sesso, origine nazionale, età, disabilità, stato civile, affiliazione politica o orientamento sessuale;
- la supervisione: ogni utilizzo dell’AI deve essere supervisionato dall’ utente per verificare il rispetto delle normative sui diritti fondamentali dell’uomo, sul trattamento dei dati, del copyright e della sicurezza, oltre che per verificare la correttezza ed affidabilità dell’output. La supervisione/sorveglianza umana dovrà correggere eventuali risultati inattendibili, reinterpretarli o modificarli. Occorre sempre verificare di poter replicare autonomamente le conclusioni fornite dall’AI;
- la responsabilità individuale: il magistrato è tenuto all’utilizzo consapevole e conforme degli strumenti AI a partire dall’obbligo di informazione e partecipazione alla formazione che sul tema sarà erogata”.