La Cassazione penale, Sezione III, sentenza 22 ottobre 2025, n. 34481 è stata richiamata con insistenza nel dibattito su IA e giustizia perché contiene un passaggio di principio: l’uso di strumenti informatici (incluse soluzioni riconducibili a IA generativa) può agevolare la redazione, ma non può sostituire l’elaborazione critica e autonoma del giudice, né diventare la fonte “esterna” da cui attingere gli argomenti del decidere (“aliunde”).
Sul piano processuale la decisione nasce in un contesto penale (sequestro preventivo/riesame), ma la “portata mediatica” deriva soprattutto dall’affermazione di metodo: motivazione e responsabilità decisionale restano irriducibilmente umane.
Nota operativa (per addetti ai lavori): il tema non è “vietare l’IA”, ma evitare che l’atto giudiziario presenti un nucleo motivazionale frutto di un output non controllato (o controllato solo formalmente), con rischi di errori, bias e opacità.
Il cuore del ragionamento: motivazione, autonomia e rischio di “motivazioni importate”
Dalle fonti secondarie emergono tre messaggi-cardine:
- Supporto sì, delega no: strumenti digitali possono essere impiegati per attività materiali (organizzazione testi, formattazione, sintesi), ma non per “mettere al posto” il giudice nel ragionamento.
- Rischio aliunde: il pericolo è che il giudice finisca per attingere dall’esterno (cioè dall’algoritmo) gli argomenti decisivi, indebolendo l’autenticità della valutazione.
- Responsabilità non trasferibile: se la motivazione è difettosa, non esiste “scarico” sulla tecnologia; l’atto è del giudice, e il controllo deve essere sostanziale, non cosmetico.
Questo approccio si innesta su principi classici: la motivazione come garanzia del contraddittorio, della controllabilità della decisione e, in ultima analisi, della legittimazione dell’esercizio della giurisdizione.
Confronto con altri ordinamenti: convergenze sorprendenti, differenze importanti
A) Regno Unito (Inghilterra e Galles): guida per i giudici e “fake citations” davanti all’High Court
Nel Regno Unito il tema è esploso soprattutto per un rischio “speculare” a quello temuto dalla Cassazione: testi e citazioni inventate in atti difensivi (anche per uso maldestro di IA generativa).
- AI Judicial Guidance (dicembre 2023): la Judiciary di Inghilterra e Galles ha pubblicato linee guida per i magistrati: approccio prudente, consapevolezza dei limiti dell’IA, e soprattutto responsabilità del giudice rispetto a ciò che viene prodotto e utilizzato.
- Ayinde v London Borough of Haringey & Al-Haroun v Qatar National Bank [2025] EWHC 1383 (Admin): decisione del 2025 (Divisional Court) richiamatissima perché affronta la questione delle autorità fittizie e dell’uso improprio di contenuti non verificati. È un punto di svolta: il tribunale ribadisce che l’IA può essere “potente”, ma in giudizio serve verifica rigorosa e attenzione alle duties to the court.
- La vicenda è stata anche oggetto di ampia cronaca, con avvertimenti severi ai legali sul rischio per la fiducia nella giustizia.
Convergenza con Cass. 34481/2025: centralità della responsabilità umana e del controllo critico.
Differenza: nel Regno Unito l’episodio “bandiera” riguarda soprattutto avvocati e qualità delle fonti; in Cassazione la lente è sull’uso (anche solo potenziale) dell’IA nella motivazione giudiziaria.
B) Stati Uniti: sanzioni per “giurisprudenza inventata” (Mata v. Avianca)
Negli USA il caso simbolo è Mata v. Avianca (S.D.N.Y., 2023): avvocati sanzionati per aver depositato un atto con precedenti inesistenti generati da ChatGPT e non verificati. Qui il punto non è l’uso dell’IA in sé, ma la diligenza professionale: se citi un caso, deve esistere.
Convergenza con Cass. 34481/2025: l’IA non è un alibi; l’errore resta umano.
Differenza: negli USA la risposta è fortemente “disciplinare/sanzionatoria” sul comportamento processuale, più che un discorso sulla legittimazione costituzionale della funzione giudicante.
C) Singapore: costi personali e doveri di verifica (SGHCR 33) + linee guida per gli utenti
Singapore è un ordinamento molto attento alla “tenuta” del sistema e alla reputazione dell’amministrazione della giustizia (tanto che già da almeno 2 anni e mezzo la Law School si sta occupando di formazione specifica nel campo):
- La Supreme Court of Singapore ha diffuso una guida sull’uso di strumenti di IA generativa da parte degli utenti (2024), con un’idea molto chiara: se usi IA, devi essere in grado di indicare cosa è stato generato e come lo hai verificato.
- In giurisprudenza, è stata riportata la decisione Tajudin bin Gulam Rasul & Anor v Suriaya bte Haja Mohideen [2025] SGHCR 33, con misure (anche economiche) contro citazioni fittizie e condotte negligenti.
Convergenza con Cass. 34481/2025: l’IA impone protocolli di verifica e presidio umano.
Differenza: Singapore formalizza molto l’approccio “compliance-oriented” (spiegare, tracciare, verificare), mentre la Cassazione – per quanto ricostruibile – insiste sul rischio di compromissione della formazione del convincimento.
D) Canada: policy di Corte e dibattito su disclosure/ban (con approccio pragmatico)
In Canada è interessante la combinazione tra atti “di sistema” e dibattito professionale:
- La Federal Court ha pubblicato una pagina dedicata all’IA: il passaggio chiave è la “massima vigilanza” affinché l’uso dell’IA non invada la funzione decisionale.
- Nel dibattito canadese (anche con ricognizioni di studio), emergono proposte che oscillano tra obblighi di disclosure e cautele rafforzate, contro una logica di divieto assoluto.
Convergenza con Cass. 34481/2025: presidio della decisione come atto umano e controllabile.
Differenza: in Canada la risposta passa spesso da “policy di tribunale” e regole pratiche, più che da affermazioni di principio dentro una singola sentenza penale.
Che cosa significa, in concreto, per magistrati e avvocati (anche in Italia)
Per la magistratura (profilo metodologico):
- l’IA può aiutare su compiti meccanici;
- ma se entra (anche indirettamente) nel cuore argomentativo, serve un controllo “forte”: verificabilità delle fonti, coerenza interna, assenza di scarti logici e soprattutto certezza che la decisione sia frutto di un percorso umano.
Per la difesa (profilo strategico):
- cresce l’importanza di leggere le motivazioni con occhio “tecnico”: citazioni, precedenti, passaggi standardizzati, eventuali incongruenze;
- in casi estremi, si può profilare un tema di motivazione apparente o comunque di insufficiente controllo critico (da valutare caso per caso, senza automatismi).
Esiste anche una posizione più “aperta” che sostiene che:
- l’IA, se certificata, addestrata su fonti ufficiali e inserita in workflow controllati, potrebbe aumentare uniformità e qualità redazionale;
- la vera variabile non è l’IA, ma la governance: audit, logging, fonti verificabili, divieto di input sensibili, e formazione.
Su questa posizione riteniamo però di dover controreplicare (coerentemente con l’impostazione che si ricava dalla Cassazione e con la tendenza comparata): anche in un assetto ideale, resta un punto non negoziabile: la responsabilità e la formazione del convincimento non sono “automatizzabili” senza intaccare la legittimazione della giurisdizione. E i casi comparati (USA/UK/Singapore) mostrano che l’errore tipico dell’IA generativa — l’“allucinazione” di fonti — non è episodico ma strutturale, quindi va governato con presidi forti.
Pur con strumenti diversi, Italia, Regno Unito, USA, Singapore e Canada stanno convergendo su un punto:
l’IA può entrare nel sistema giustizia come strumento, ma non può diventare la fonte incontrollata del ragionamento giuridico, né per chi decide (giudice) né per chi argomenta (avvocato).
Se dovessimo condensare il “messaggio” della Cassazione n. 34481/2025 sarebbe questo:
la motivazione non è un testo da produrre, ma un percorso da dimostrare. E quel percorso deve restare umano, verificabile e responsabile.
