Verità giudiziaria e intelligenza artificiale. Dalla prova baconiana alla meta-prova algoritmica
Archivio Penale
© dell'autore 2025
Ricevuto: 30 October 2025
| Accettato: 14 November 2025
| Pubblicato: 17 November 2025
L’intero articolo è disponibile
Riassunto
Questo saggio indaga il rapporto tra epistemologia giudiziaria e intelligenza artificiale, concentrandosi sulla quaestio facti e sulla trasformazione della prova legale nell’era digitale. A partire dall’opposizione tra probabilità bayesiana e plausibilità baconiana, valuta criticamente i limiti del formalismo statistico nel ragionamento giudiziario e il ruolo marginale della regola di Bayes nei contesti processuali. Lo studio esamina l’IA – in particolare il deep learning – come sistema inferenziale non narrativo e opaco, capace di classificare, correlare e prevedere, ma privo di spiegabilità in senso giuridico. Viene tracciata la frizione epistemica tra giudici umani e algoritmi, esplorando ipotesi relative a bias, ragionamento causale e accountability delle macchine. Particolare attenzione è riservata all’algoritmo come «prova della prova», alla sfida delle tracce digitali come evidenze e alla domanda di trasparenza, contestabilità e interpretabilità. Il lavoro si conclude proponendo un quadro di digisprudenza responsabile, capace di integrare la potenza inferenziale della macchina entro procedure giudiziarie epistemicamente solide.
Judicial Truth and Artificial Intelligence: From Baconian Evidence to Algorithmic Meta-Evidence
This paper investigates the relationship between judicial epistemology and artificial intelligence, focusing on the quaestio facti and the transformation of legal evidence in the digital age. Drawing from the opposition between Bayesian probability and Baconian plausibility, it critically assesses the limitations of statistical formalism in judicial reasoning and the marginal role of Bayes’ rule in court settings. The study examines AI—especially deep learning—as a non-narrative, opaque inferential system capable of classifying, correlating, and predicting, yet lacking explainability in the legal sense. It maps the epistemic friction between human judges and algorithms, exploring hypotheses around bias, causal reasoning, and machine accountability. Particular attention is paid to the algorithm as «evidence of evidence», the challenge of evidentiary digital traces, and the demand for transparency, contestability, and interpretability. The work concludes by proposing a framework of responsible digisprudence capable of integrating machine inferential power within epistemically robust judicial procedures.
Percorso di valutazione
Peer reviewed. Certificazione della qualità









