Informativa sul trattamento dei dati personali (ai sensi dell’art. 13 Regolamento UE 2016/679)
La vigente normativa in materia di trattamento dei dati personali definita in conformità alle previsioni contenute nel Regolamento UE 2016/679 del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (Regolamento generale sulla protezione dei dati, di seguito “Regolamento Privacy UE”) contiene disposizioni dirette a garantire che il trattamento dei dati personali si svolga nel rispetto dei diritti e delle libertà fondamentali delle persone fisiche, con particolare riguardo al diritto alla protezione dei dati personali.
Finalità del Trattamento e base giuridica
Il trattamento dei dati personali è finalizzato a:
– fornire il servizio e/o prodotto richiesto dall’utente, per rispondere ad una richiesta dell’utente, e per assicurare e gestire la partecipazione a manifestazioni e/o promozioni a cui l’utente ha scelto di aderire (richiesta e acquisto abbonamento periodici; richiesta e acquisto libri; servizio di fatturazione; invio periodici in abbonamento postale, invio newsletter rivolte a studiosi e professionisti).
– inviare newsletter promozionale di pubblicazioni a chi ne ha fatto richiesta; ferma restando la possibilità per l’utente di opporsi all’invio di tali invii in qualsiasi momento.
– inviare all’utente informazioni promozionali riguardanti servizi e/o prodotti della Società di specifico interesse professionale ed a mandare inviti ad eventi della Società e/o di terzi; resta ferma la possibilità per l’utente di opporsi all’invio di tali comunicazioni in qualsiasi momento.
– gestire dati indispensabili per espletare l’attività della società: clienti, fornitori, dipendenti, autori. Pacini Editore srl tratta i dati personali dell’utente per adempiere a obblighi derivanti da legge, regolamenti e/o normativa comunitaria.
– gestire i siti web e le segreterie scientifiche per le pubblicazioni periodiche in ambito medico-giuridico rivolte a studiosi e professionisti;
Conservazione dei dati
Tutti i dati di cui al successivo punto 2 verranno conservati per il tempo necessario al fine di fornire servizi e comunque per il raggiungimento delle finalità per le quali i dati sono stati raccolti, e in ottemperanza a obblighi di legge. L’eventuale trattamento di dati sensibili da parte del Titolare si fonda sui presupposti di cui all’art. 9.2 lett. a) del GDPR.
Il consenso dell’utente potrà essere revocato in ogni momento senza pregiudicare la liceità dei trattamenti effettuati prima della revoca.
Tipologie di dati personali trattati
La Società può raccogliere i seguenti dati personali forniti volontariamente dall’utente:
nome e cognome dell’utente,
il suo indirizzo di domicilio o residenza,
il suo indirizzo email, il numero di telefono,
la sua data di nascita,
i dettagli dei servizi e/o prodotti acquistati.
La raccolta può avvenire quando l’utente acquista un nostro prodotto o servizio, quando l’utente contatta la Società per informazioni su servizi e/o prodotti, crea un account, partecipa ad un sondaggio/indagine. Qualora l’utente fornisse dati personali di terzi, l’utente dovrà fare quanto necessario perchè la comunicazione dei dati a Pacini Editore srl e il successivo trattamento per le finalità specificate nella presente Privacy Policy avvengano nel rispetto della normativa applicabile, (l’utente prima di dare i dati personali deve informare i terzi e deve ottenere il consenso al trattamento).
La Società può utilizzare i dati di navigazione, ovvero i dati raccolti automaticamente tramite i Siti della Società. Pacini editore srl può registrare l’indirizzo IP (indirizzo che identifica il dispositivo dell’utente su internet), che viene automaticamente riconosciuto dal nostro server, pe tali dati di navigazione sono utilizzati al solo fine di ottenere informazioni statistiche anonime sull’utilizzo del Sito .
La società utilizza i dati resi pubblici (ad esempio albi professionali) solo ed esclusivamente per informare e promuovere attività e prodotti/servizi strettamente inerenti ed attinenti alla professione degli utenti, garantendo sempre una forte affinità tra il messaggio e l’interesse dell’utente.
Trattamento dei dati
A fini di trasparenza e nel rispetto dei principi enucleati dall’art. 12 del GDPR, si ricorda che per “trattamento di dati personali” si intende qualsiasi operazione o insieme di operazioni, compiute con o senza l’ausilio di processi automatizzati e applicate a dati personali o insiemi di dati personali, come la raccolta, la registrazione, l’organizzazione, la strutturazione, la conservazione, l’adattamento o la modifica, l’estrazione, la consultazione, l’uso, la comunicazione mediante trasmissione, diffusione o qualsiasi altra forma di messa a disposizione, il raffronto o l’interconnessione, la limitazione, la cancellazione o la distruzione. Il trattamento dei dati personali potrà effettuarsi con o senza l’ausilio di mezzi elettronici o comunque automatizzati e comprenderà, nel rispetto dei limiti e delle condizioni posti dal GDPR, anche la comunicazione nei confronti dei soggetti di cui al successivo punto 7.
Modalità del trattamento dei dati: I dati personali oggetto di trattamento sono:
trattati in modo lecito e secondo correttezza da soggetti autorizzati all’assolvimento di tali compiti, soggetti identificati e resi edotti dei vincoli imposti dal GDPR;
raccolti e registrati per scopi determinati, espliciti e legittimi, e utilizzati in altre operazioni del trattamento in termini compatibili con tali scopi;
esatti e, se necessario, aggiornati;
pertinenti, completi e non eccedenti rispetto alle finalità per le quali sono stati raccolti o successivamente trattati;
conservati in una forma che consenta l’identificazione dell’interessato per un periodo di tempo non superiore a quello necessario agli scopi per i quali essi sono stati raccolti o successivamente trattati;
trattati con il supporto di mezzi cartacei, informatici o telematici e con l’impiego di misure di sicurezza atte a garantire la riservatezza del soggetto interessato cui i dati si riferiscono e ad evitare l’indebito accesso a soggetti terzi o a personale non autorizzato.
Natura del conferimento
Il conferimento di alcuni dati personali è necessario. In caso di mancato conferimento dei dati personali richiesti o in caso di opposizione al trattamento dei dati personali conferiti, potrebbe non essere possibile dar corso alla richiesta e/o alla gestione del servizio richiesto e/o alla la gestione del relativo contratto.
Comunicazione dei dati
I dati personali raccolti sono trattati dal personale incaricato che abbia necessità di averne conoscenza nell’espletamento delle proprie attività. I dati non verranno diffusi.
Diritti dell’interessato.
Ai sensi degli articoli 15-20 del GDPR l’utente potrà esercitare specifici diritti, tra cui quello di ottenere l’accesso ai dati personali in forma intelligibile, la rettifica, l’aggiornamento o la cancellazione degli stessi. L’utente avrà inoltre diritto ad ottenere dalla Società la limitazione del trattamento, potrà inoltre opporsi per motivi legittimi al trattamento dei dati. Nel caso in cui ritenga che i trattamenti che Lo riguardano violino le norme del GDPR, ha diritto a proporre reclamo all’Autorità Garante per la Protezione dei Dati Personali ai sensi dell’art. 77 del GDPR.
Titolare e Responsabile per la protezione dei dati personali (DPO)
Titolare del trattamento dei dati, ai sensi dell’art. 4.1.7 del GDPR è Pacini Editore Srl., con sede legale in 56121 Pisa, Via A Gherardesca n. 1.
Per esercitare i diritti ai sensi del GDPR di cui al punto 6 della presente informativa l’utente potrà contattare il Titolare e potrà effettuare ogni richiesta di informazione in merito all’individuazione dei Responsabili del trattamento, Incaricati del trattamento agenti per conto del Titolare al seguente indirizzo di posta elettronica: privacy@pacinieditore.it. L’elenco completo dei Responsabili e le categorie di incaricati del trattamento sono disponibili su richiesta.
Ai sensi dell’art. 13 Decreto Legislativo 196/03 (di seguito D.Lgs.), si informano gli utenti del nostro sito in materia di trattamento dei dati personali.
Quanto sotto non è valido per altri siti web eventualmente consultabili attraverso i link presenti sul nostro sito.
Il Titolare del trattamento
Il Titolare del trattamento dei dati personali, relativi a persone identificate o identificabili trattati a seguito della consultazione del nostro sito, è Pacini Editore Srl, che ha sede legale in via Gherardesca 1, 56121 Pisa.
Luogo e finalità di trattamento dei dati
I trattamenti connessi ai servizi web di questo sito hanno luogo prevalentemente presso la predetta sede della Società e sono curati solo da dipendenti e collaboratori di Pacini Editore Srl nominati incaricati del trattamento al fine di espletare i servizi richiesti (fornitura di volumi, riviste, abbonamenti, ebook, ecc.).
I dati personali forniti dagli utenti che inoltrano richieste di servizi sono utilizzati al solo fine di eseguire il servizio o la prestazione richiesta.
L’inserimento dei dati personali dell’utente all’interno di eventuali maling list, al fine di invio di messaggi promozionali occasionali o periodici, avviene soltanto dietro esplicita accettazione e autorizzazione dell’utente stesso.
Comunicazione dei dati
I dati forniti dagli utenti non saranno comunicati a soggetti terzi salvo che la comunicazione sia imposta da obblighi di legge o sia strettamente necessario per l’adempimento delle richieste e di eventuali obblighi contrattuali.
Gli incaricati del trattamento che si occupano della gestione delle richieste, potranno venire a conoscenza dei suoi dati personali esclusivamente per le finalità sopra menzionate.
Nessun dato raccolto sul sito è oggetto di diffusione.
Tipi di dati trattati
Dati forniti volontariamente dagli utenti
L’invio facoltativo, esplicito e volontario di posta elettronica agli indirizzi indicati su questo sito comporta la successiva acquisizione dell’indirizzo del mittente, necessario per rispondere alle richieste, nonché degli eventuali altri dati personali inseriti nella missiva.
Facoltatività del conferimento dei dati
Salvo quanto specificato per i dati di navigazione, l’utente è libero di fornire i dati personali per richiedere i servizi offerti dalla società. Il loro mancato conferimento può comportare l’impossibilità di ottenere il servizio richiesto.
Modalità di trattamento dei dati
I dati personali sono trattati con strumenti manuali e automatizzati, per il tempo necessario a conseguire lo scopo per il quale sono stati raccolti e, comunque per il periodo imposto da eventuali obblighi contrattuali o di legge.
I dati personali oggetto di trattamento saranno custoditi in modo da ridurre al minimo, mediante l’adozione di idonee e preventive misure di sicurezza, i rischi di distruzione o perdita, anche accidentale, dei dati stessi, di accesso non autorizzato o di trattamento non consentito o non conforme alle finalità della raccolta.
Diritti degli interessati
Ai soggetti cui si riferiscono i dati spettano i diritti previsti dall’art. 7 del D.Lgs. 196/2003 che riportiamo di seguito:
1. L’interessato ha diritto di ottenere la conferma dell’esistenza o meno di dati personali che lo riguardano, anche se non ancora registrati, e la loro comunicazione in forma intelligibile.
2. L’interessato ha diritto di ottenere informazioni:
a) sull’origine dei dati personali;
b) sulle finalità e modalità del trattamento;
c) sulla logica applicata in caso di trattamento effettuato con l’ausilio di strumenti elettronici;
d) sugli estremi identificativi del titolare, dei responsabili e del rappresentante designato ai sensi dell’articolo 5, comma 2;
e) sui soggetti o delle categorie di soggetti ai quali i dati personali possono essere comunicati o che possono venirne a conoscenza in qualità di rappresentante designato nel territorio dello Stato, di responsabili o incaricati.
3. L’interessato ha diritto di ottenere:
a) l’aggiornamento, la rettificazione ovvero, quando vi ha interesse, l’integrazione dei dati;
b) la cancellazione, la trasformazione in forma anonima o il blocco dei dati trattati in violazione di legge, compresi quelli di cui non è necessaria la conservazione in relazione agli scopi per i quali i dati sono stati raccolti o successivamente trattati;
c) l’attestazione che le operazioni di cui alle lettere a) e b) sono state portate a conoscenza, anche per quanto riguarda il loro contenuto, di coloro ai quali i dati sono stati comunicati o diffusi, eccettuato il caso in cui tale adempimento si rivela impossibile o comporta un impiego di mezzi manifestamente sproporzionato rispetto al diritto tutelato.
4. L’interessato ha diritto di opporsi, in tutto o in parte:
a) per motivi legittimi al trattamento dei dati personali che lo riguardano, ancorché pertinenti allo scopo della raccolta;
b) al trattamento di dati personali che lo riguardano a fini di invio di materiale pubblicitario o di vendita diretta o per il compimento di ricerche di mercato o di comunicazione commerciale.
Dati degli abbonati
I dati relativi agli abbonati sono trattati nel rispetto delle disposizioni contenute nel D.Lgs. del 30 giugno 2003 n. 196 e adeguamenti al Regolamento UE GDPR 2016 (General Data Protection Regulation) a mezzo di elaboratori elettronici ad opera di soggetti appositamente incaricati. I dati sono utilizzati dall’editore per la spedizione della presente pubblicazione. Ai sensi dell’articolo 7 del D.Lgs. 196/2003, in qualsiasi momento è possibile consultare, modificare o cancellare i dati o opporsi al loro utilizzo scrivendo al Titolare del Trattamento: Pacini Editore Srl – Via A. Gherardesca 1 – 56121 Pisa. Per ulteriori approfondimenti fare riferimento al sito web http://www.pacinieditore.it/privacy/
Subscriber data
Subscriber data are treated according to Italian law in DLgs, 30 June 2003, n. 196 as updated with the UE General Data Protection Regulation 2016 – by means of computers operated by specifically responsible personnel. These data are used by the Publisher to mail this publication. In accordance with Art. 7 of the above mentioned DLgs, 30 June 2003, n. 196, subscribers can, at any time, view, change or delete their personal data or withdraw their use by writing to Pacini Editore S.r.L. – Via A. Gherardesca 1, 56121 Ospedaletto (Pisa), Italy. For further information refer to the website: http://www.pacinieditore.it/privacy/
Cookie
Che cos’è un cookie e a cosa serve?
Un cookie e una piccola stringa di testo che un sito invia al browser e salva sul tuo computer quando visiti dei siti internet. I cookie sono utilizzati per far funzionare i siti web in maniera più efficiente, per migliorarne le prestazioni, ma anche per fornire informazioni ai proprietari del sito.
Che tipo di cookie utilizza il nostro sito e a quale scopo? Il nostro sito utilizza diversi tipi di cookie ognuno dei quali ha una funzione specifica, come indicato di seguito:
TIPI DI COOKIE
Cookie di navigazione
Questi cookie permettono al sito di funzionare correttamente sono usati per raccogliere informazioni su come i visitatori usano il sito. Questa informazione viene usata per compilare report e aiutarci a migliorare il sito. I cookie raccolgono informazioni in maniera anonima, incluso il numero di visitatori del sito, da dove i visitatori sono arrivati e le pagine che hanno visitato.
Cookie Analitici
Questi cookie sono utilizzati ad esempio da Google Analytics per elaborare analisi statistiche sulle modalità di navigazione degli utenti sul sito attraverso i computer o le applicazioni mobile, sul numero di pagine visitate o il numero di click effettuati su una pagina durante la navigazione di un sito.
Questi cookie sono utilizzati da società terze. L’uso di questi cookie normalmente non implica il trattamento di dati personali. I cookie di terze parti derivano da annunci di altri siti, ad esempio messaggi pubblicitari, presenti nel sito Web visualizzato. Possono essere utilizzati per registrare l’utilizzo del sito Web a scopo di marketing.
Come posso disabilitare i cookie?
La maggior parte dei browser (Internet Explorer, Firefox, etc.) sono configurati per accettare i cookie. Tuttavia, la maggior parte dei browser permette di controllare e anche disabilitare i cookie attraverso le impostazioni del browser. Ti ricordiamo però che disabilitare i cookie di navigazione o quelli funzionali può causare il malfunzionamento del sito e/o limitare il servizio offerto.
Per avere maggiori informazioni
l titolare del trattamento è Pacini Editore Srl con sede in via della Gherardesca n 1 – Pisa.
Potete scrivere al responsabile del trattamento Responsabile Privacy, al seguente indirizzo email rlenzini@pacinieditore.it per avere maggiori informazioni e per esercitare i seguenti diritti stabiliti dall’art. 7, D. lgs 196/2003: (i) diritto di ottenere la conferma dell’esistenza o meno di dati personali riguardanti l’interessato e la loro comunicazione, l’aggiornamento, la rettificazione e l’integrazione dei dati, la cancellazione, la trasformazione in forma anonima o il blocco dei dati trattati in violazione di legge; (ii) diritto di ottenere gli estremi identificativi del titolare nonché l’elenco aggiornato dei responsabili e di tutti i soggetti cui i suoi dati sono comunicati; (iii) diritto di opporsi, in tutto o in parte, per motivi legittimi, al trattamento dei dati relativi all’interessato, a fini di invio di materiale pubblicitario o di vendita diretta o per il compimento di ricerche di mercato o di comunicazioni commerciali.
Per modificare le impostazioni, segui il procedimento indicato dai vari browser che trovi alle voci “Opzioni” o “Preferenze”.
Per saperne di più riguardo ai cookie leggi la normativa.
L’intelligenza artificiale nel processo penale nella fase di ammissione ed acquisizione della prova
Di Pasquale Raucci -
SOMMARIO:1. Premessa; 2. La fase di richiesta di ammissione della prova mediante intelligenza artificiale; 3. Il giudizio di ammissione della prova dell’I.A.; 4. L’acquisizione della “prova sintetica”: tra libero convincimento, prova peritale e necessità del controllo di attendibilità dell’output; 5. La prova delle massime di esperienza con l’I.A.; 6. Il problema della qualificazione dei mezzi ed elementi di prova; 7. Le recenti riforme normative: il controllo umano significativo; 8. Dubbi, prospettive de iure condendo e una nuova frontiera: l’ <<Intelligenza Estesa>>.
********************
Abstract: La possibilità di utilizzo dell’intelligenza artificiale nel processo penale pone nuovi problematiche applicative ed interpretative, in specie avuto riguardo alle scansioni dell’intero procedimento probatorio. Nella disamina qui proposta si passeranno in rassegna taluni aspetti che afferiscono al momento della richiesta, ammissione ed acquisizione della prova, da acquisirsi o già formata, mediante l’intelligenza artificiale. Il punto maggiormente critico, allora, sarà rappresentato dalla valutazione di attendibilità dell’elemento di prova raccolto, che si risolve nella possibilità (o meno) di accedere alla cd. explainability, ovvero la capacità di spiegare il funzionamento di un algoritmo AI in modo comprensibile agli esseri umani. Sarebbe possibile, allora, eseguire il vaglio di attendibilità di tale mezzo istruttorio mediante una perizia che consenta al Giudice, ma in primis alle parti che hanno proposto l’argomento probatorio, di risolvere i vari dubbi che l’utilizzo di tali nuove tecnologie pone all’interprete.
___________________________
Abstract:The possibility of using artificial intelligence in criminal proceedings raises new issues of application and interpretation, particularly with regard to the entire evidentiary process. This review will examine certain aspects relating to the request, admission and acquisition of evidence, whether to be acquired or already formed, through artificial intelligence. The most critical point, then, will be the assessment of the reliability of the evidence collected, which boils down to the possibility (or not) of accessing so-called explainability, i.e. the ability to explain the functioning of an AI algorithm in a way that is understandable to humans. It would then be possible to assess the reliability of this means of investigation by means of an expert report that would allow the judge, but first and foremost the parties who proposed the evidence, to resolve the various doubts that the use of these new technologies raises for the interpreter.
______________________________
1.PREMESSA
E’ un dato oramai pacifico che le nuove tecnologie guadagnano un terreno sempre maggiore nella dinamica processuale, e ciò non solo nella fase prettamente procedimentale – ove le attività info-investigative sono già da tempo, ed in larga parte, pervase dalle nuove strumentazioni – ma anche nel momento processuale[1]. L’ingresso delle nuove strumentazioni nel momento dinamico del giudizio, o comunque dei risultati delle stesse, è un fenomeno oramai acclarato ed altresì in rapida ascesa nella quotidianità delle aule giudiziarie, le cui ragioni sono da rinvenire, da un lato, nella proiezione sul processo delle modalità di svolgimento delle stesse attività investigative portate avanti dalla Procura e, dall’altro, nella necessità (o ritenuta opportunità) di formare la prova mediante siffatte strumentazioni al fine di meglio ricostruire, innanzi al Giudice, la dinamica degli eventi oggetto della regiudicanda.
Fuori di dubbio che tali dati probatori frutto delle innovative strumentazioni tecnologiche (in primis, di natura informatica) stanno mettendo in crisi gli istituti giuridici in tema di prova contemplati dal codice di rito vigente. Si allude non solo alla questione relativa alla “classificabilità” di un dato probatorio che si intende introdurre nel giudizio (e dunque al problema della qualifica sulla scorta dei tipici “mezzi di prova” di cui al titolo II del libro III del codice di rito), ma altresì alla problematica inerente alla esatta individuazione di quale sia il più pertinente “mezzo di ricerca della prova” che consenta di veicolarlo nella scena procedimentale e, correlativamente, alla disciplina giuridica da apprestare all’attività che si intende porre in essere.
Per vero, in tema di prove informatiche, la stessa linea di confine tra mezzo di prova e mezzo di ricerca della prova appare oltremodo sfumata.
In quest’ambito, il momento tipico in cui il dato probatorio viene presentato alla porta della dinamica processuale è costituito dalle richieste di prova avanzate dalle parti ex art. 493 cpp, sul cui ambito e nel quale perimetro si innesta il potere giudiziale ex artt. 190 – 495 cpp. Tale snodo riveste importanza non solo in relazione alla selezione del materiale che potrà o non potrà costituire oggetto di prova nel giudizio, e dunque in ordine al dato “quantitativo” della prova, ma altresì riverbera i suoi effetti sulla “qualità” del prodotto probatorio, nonchè sul contenuto ed oggetto della stessa regiudicanda.
Si vuol dire che sin da questa fase processuale, per effetto delle richieste e delle finalità euristiche delle parti, all’ “elemento di prova” viene subito impressa tanto una qualificazione giuridica, che dunque non solo attiene ma altresì pertiene alla cognizione del titolare dello iurisdicere, quanto una finalità di tipo rappresentativo andando così ad incidere sulla stessa capacità dimostrativa della regiudicanda, la cui sfera di pertinenza stavolta è (o, comunque, sarebbe preferibile che sia) ad esclusivo appannaggio delle parti.
L’elemento di prova, in altri termini, non è una monade leibniziana, bensì un dato collocato nell’ambito di un “argomento probatorio” che la parte processuale sottopone al giudice nell’indicazione dei fatti che intende provare ex art. 493 c.p.p.
Si vuole dire che l’ammissione di un “mezzo probatorio” tecnologico, ancor più alla luce delle problematiche qualificatorie suddette, condiziona inevitabilmente il susseguente procedimento probatorio, già a partire dalla fase di richiesta ed ammissione di prova, dovendo esso essere sottoposto al vaglio dell’inevitabile contraddittorio. Diversamente, si violerebbe il precetto di cui al comma 4 dell’art. 111 cost. (contraddittorio “per” la prova). A cascata, poi, risulterebbe falsato lo stesso spirito del codice accusatorio, tra i cui capisaldi, è noto, rientra il principio di disponibilità in capo alle parti della dinamica probatoria, nonchè l’alterità tra “giudice-terzo” e parti processuali portatrici di un interesse preformato al giudizio.
Sull’argomento, questioni aperte pone il thema dell’ammissione ed acquisizione di prove generati mediante strumenti di intelligenza artificiale, essendo tale argomento, certamente, una frontiera ancora tutta da esplorare in ambito giudiziale[2].
Invero, se è risaputo che nella fase info-investigativa tali strumentazioni sono già ampiamente utilizzate[3], in ragione della non tassatività dei mezzi adoperabili del P.M. e P.G. nella fase di indagine, ove tuttavia restano ferme le questioni sulla qualificabilità in termini di “atto processuale compiuto” e del conseguente regime giuridico (si pensi ad esempio alla necessità o meno di ottenere una previa autorizzazione del GIP), nel momento giudiziale, di contro, è ancora tutta da verificare l’effettiva incidenza che tali strumentazioni riusciranno ad esercitare.
Sul punto, recentemente si sono susseguite normative, in primis, sovranazionali e, di poi, anche interne, tese a disciplinare il fenomeno (anche) all’interno del processo.
2. LA FASE DI RICHIESTA DI AMMISSIONE DELLA PROVA MEDIANTE INTELLIGENZA ARTIFICIALE
La parte che intenda ottenere l’ammissione di un mezzo probatorio che veicoli l’introduzione in giudizio di dati prodotti mediante l’intelligenza artificiale dovrà farne, in primo luogo, espressa richiesta nella fase preliminare all’apertura del dibattimento (ex art. 493 cpp). Il soggetto processuale, pertanto, potrebbe indicare un “fatto da provare” mediante l’utilizzo dell’intelligenza artificiale (es. esame biometrico[4]; ricognizione di persone o di cose; ricostruzione della dinamica di un evento sinistroso di grosse dimensioni; ricerca di un dato informatico all’interno di un database di dimensioni imponenti). O ancora, o congiuntamente, potrebbe chiedere di “provare un nesso causale” mediante l’utilizzo dell’intelligenza artificiale, al fine di corroborare la sua ipotesi ricostruttiva, rinvenendo mediante tale strumento tecnologico la più appropriata legge scientifica o statistica, ovvero la più conferente massima di esperienza. O ancora, chieda l’introduzione, mediante un mezzo di prova tipico o atipico ex art. 189 c.p.p., di un output generato dall’intelligenza artificiale.
Ci si domanda, infine, se possa essere ritenuto ammissibile, in quanto pertinente e rilevante alla regiudicanda, e connotata altresì da un giudizio di verosimiglianza, altresì un mezzo di prova che dia indicazioni sull’attendibilità di altro elemento probatorio già acquisito o da acquisire. In tale maniera, una parte, in forza del disposto di cui all’art. 468 co. 4 c.p.p., ma anche ex art. 493 co. 2 ovvero ex art. 507 co. 1 c.p.p., potrebbe chiedere l’ammissione di una prova che fornisca “elementi di valutazione di attendibilità di un fatto o di un dato probatorio” introdotto mediante l’utilizzo dell’intelligenza artificiale, ad es. chiedendo l’ammissione di una perizia sul funzionamento dello strumento di I.A. che abbia prodotto un elemento di prova acquisito, o di cui si sia chiesta l’acquisizione nel dibattimento.
Tale ultima situazione si potrebbe presentare allorquando una parte processuale abbia preso visione della lista di cui all’art. 468 c.p.p. (ed in specie delle circostanze su cui debba vertere l’esame dei testi e/o consulenti tecnici, ove emerga che – ad esempio in sede investigativa – si sia fatto uso di uno strumento di intelligenza artificiale) ed intenda introdurre un argomento di prova (di carattere scientifico) che mini l’attendibilità di tali risultati investigativi. Tale situazione si potrebbe comunque ipotizzare in ragione dell’esigenza per la parte avversaria (ma invero anche per il Giudice in sede di valutazione della prova) di controllabilità dei meccanismi di produzione meccanizzata dell’informazione.
E’ bene precisare sin da subito che in tali casi non si tratterebbe di saggiare la capacità a testimoniare di un soggetto, la cui valutazione per via peritale è ritenuta alla stregua di un atto abnorme (in ragione del fatto che la valutazione dell’attendibilità di un testimone costituisce un atto di esclusiva spettanza dell’autorità giudiziaria)[5], bensì di verificare la regolarità del procedimento di formazione di un dato conoscitivo o, quantomeno, di porre i contendenti (ed in ultimo il Giudice stesso) in una posizione di comprensione dei meccanismi di funzionamento del Large Language Model (o “L.L.M.”)[6] a fini valutativi.
Come anticipato, già da questa fase si imprime al processo un’importante traccia di carattere epistemico, in ragione del fatto che già in sede di richiesta di ammissione probatoria, formulando l’ipotesi fattuale da convalidare si fissa non solo l’ipotetico contenuto del risultato conoscitivo conseguente all’impiego dello specifico mezzo di prova da ammettere, bensì la sostanza del possibile giudizio di fatto, che diventa oggetto di un’anticipata proiezione operata effettuando la valutazione di pertinenza e di rilevanza della prova[7] da parte del Giudice. L’ipotesi fattuale così anticipata dalla parte in sede di richiesta ammissiva della prova, allora, ben potrebbe comprendere non solo “fatti” oggettivi da provare, ma anche le massime di comune esperienza, analogamente a quanto una parte farebbe per provare un nesso teleologico tra fatto ed evento di natura scientifica, mediante la richiesta di ammissione della prova orale del proprio consulente tecnico e, dunque, anche di una perizia.
3.IL GIUDIZIO DI AMMISSIONE DELLA PROVA DELL’I.A.
In sede di ammissione delle prove[8] che si intendono introdurre mediante l’I.A., il vaglio che il Giudice deve compiere ex art. 190 c.p.p. in termini di pertinenza, rilevanza e verosimiglianza (o non manifesta infondatezza) deve attenere non solo al dato probatorio “bruto” ma anche, e più specificamente, al vincolo finalistico, o comunque teleologicamente orientato, per come indicato dalla parte medesima che ne ha chiesto l’ammissione. In ciò vanno ricomprese anche le massime di esperienza ritenute, sempre dalle parti, pertinenti al contesto fattuale oggetto di prova, dalle quali il giudice non potrà discostarsi[9], per non essere distolto dalla sua posizione di terzietà. Inoltre, in ordine a tutti i generi di avvenimenti che sono oggetto di prova, può venire in rilievo l’esigenza di provare anche quelle prassi valutative – sedimentatesi nel sociale (che rappresentano pur sempre fatti, sia pure seriali) – da cui emerga l’aspettativa sociale divenuta dominante in un determinato momento storico, al fine di rendere possibile l’applicazione del diritto[10].
Dovendo verificare la “pertinenza” del mezzo di prova, e riguardando essa la relazione tra singolo oggetto di prova e regiudicanda[11], il Giudice dovrà appurare se tale strumento tenda effettivamente a dimostrare l’esistenza del fatto storico enunciato nell’imputazione, ovvero degli altri fatti enunciati nell’art. 187 cpp[12], non potendo sindacare (nel senso di verificarla in base ad un’autonoma prognosi del successivo avvenimento probatorio) la relazione di pertinenza stabilita dalla parte istante e dovendo, invece, rispettare il percorso conoscitivo proposto da chi esercita il diritto alla prova al fine di non conculcare lo stesso[13].
La differenza tra <<verosimiglianza>> e <<pertinenza probatoria>>, poi, è data dalla constatazione che, mentre la prima viene decisa sulla base di leggi logico-scientifiche od, eccezionalmente, di massime di esperienza applicate all’aspetto meramente storico dell’enunciato fattuale, la seconda implica ulteriormente un giudizio inevitabilmente inserito in coordinate giuridiche, giacchè frustra probatur quod probatum non relevat[14]. Giuridicamente, pertanto, se tutto ciò che è pertinente è anche verosimile, non è corretto l’enunciato contrario, dato che il giudizio positivo di verosimiglianza, effettuato preliminarmente, non è sempre seguito da uno analogo di pertinenza[15].
La verosimiglianza, invero, concettualmente, implica la ipotetica verificabilità delle affermazioni sul fatto operate dalle parti – o dal Giudice in sede di ammissione ufficiosa – sul presupposto che siano storicamente avvenute. In merito, si ritiene verosimile quella asserzione fattuale che corrisponda alla “epistemologia dominante”, comportando così per il Giudice che debba vagliarne la sussistenza la necessarietà dell’utilizzo di leggi logiche e scientifiche probabilistiche o, eccezionalmente, massime di esperienza applicate all’aspetto storico dell’enunciato fattuale. Il giudizio sulla verosimiglianza riguarda, in altri termini, l’idoneità in astratto di un certo argomento conoscitivo – isolato dalla concreta sequenza probatoria in cui si traduca – a spiegare una certa realtà[16].
Tra l’altro, il fatto che nell’ammettere le prove si debba effettuare una prognosi del possibile contenuto finale della decisione conclusiva non significa che l’organo giudicante anticipi le conclusioni conoscitive sull’imputazione di cui all’esito del processo, ma solo che, dovendo stabilire l’utilità della prova nel contesto delle risultanze già chieste o acquisite o, ancora, oggetto delle prevedibili domande di prova, il giudice deve chiarire anticipatamente come si incastonerebbe il risultato probatorio sperato nell’ambito del materiale conoscitivo che si cerca di ottenere. È noto che nell’ammettere le prove il giudice deve stabilire la relazione logica con l’imputazione (cioè, la pertinenza), la verificabilità dell’oggetto della prova (cui si correla la verosimiglianza della prova da assumere) e la rilevanza del mezzo conoscitivo intesa sia come idoneità contenutistica dello strumento da adottare, sia come idoneità epistemologica del medesimo a sorreggere il provvedimento conclusivo[17].
L’influenza che il vincolo finalistico-probatorio (impresso dalla parte nella fase di richiesta di prova) esercita nel successivo momento ammissivo ed acquisitivo di quella prova, lo si ricava dalla necessità per cui il giudice, in mancanza, potendo scegliere solipsisticamente la regola inferenziale, rischierebbe di non essere più “terzo”, avvantaggiando l’interesse di una parte rispetto a quello di altro contendente. Egli, allora, così opinando, sarebbe tenuto a conservare una neutralità metodologica. Perciò, al di là della relazione di compatibilità astratta – con il fatto imputato – del tema della prova, dell’elemento e del risultato probatorio che si vuole introdurre per convalidare l’affermazione tematica iniziale, anche in sede di controllo della verosimiglianza e della rilevanza del mezzo di prova il giudice dovrebbe limitarsi ad un vaglio di tipo esclusivamente “logico-formale”, non fondato sull’elaborazione creativa e, perciò “probabilistica”, di un’ipotesi fattuale da convalidare, bensì esclusivamente teso a verificare pur sempre la compatibilità astratta – in termini deduttivi – della proposta valutativa e, quindi, dell’argomentazione addotta dal contendente, attraverso lo strumento probatorio, con il progetto di sentenza auspicato dalla stessa parte[18].
Pertanto, adottando tali criteri ermeneutici, e tenendo ben in mente che l’art. 190 cpp è stato scritto pensando ai “mezzi prova” e in vista dei “luoghi” in cui la procedura ammissiva è ben delineata, tale per cui siffatto strumento normativo presenta una scarsa compatibilità con la disciplina dei mezzi di ricerca della prova[19], il Giudice dovrà decidere se ammettere o meno il mezzo di prova, facendo uso della logica-formale piuttosto (come anche sostenuto dalla dottrina) che di un criterio logico-probabilistico[20].
Tale modello di razionalità del Giudice, calato nell’ambito delle prove da formarsi mediante l’I.A., pone nuovi interrogativi, qui trattati avendo riguardo alle possibili forme di utilizzo di tali strumenti, in sede di assunzione della prova. La questione, poi, è ancor più problematica alla luce della, certamente non pacifica, qualificazione giuridica da attribuire agli outputs generati da strumenti che utilizzino intelligenza artificiale.
Problema diverso, invece, è quello riguardante la possibilità che l’ammissione della prova sia disposta facendo uso dell’intelligenza artificiale. In tale caso, nulla vietando al Giudice di poter fare utilizzo di tale tecnologia, ciò che però andrà garantito sarà il “controllo umano significativo”, da evidenziarsi, rispetto all’uso della macchina, mediante l’esplicazione dell’apprezzamento giudiziale e la corrispondente motivazione[21].
4.L’ACQUISIZIONE DELLA “PROVA SINTETICA”: TRA LIBERO CONVINCIMENTO, PROVA PERITALE E NECESSITA’ DEL CONTROLLO DI ATTENDIBILITA’ DELL’OUTPUT
Nella dialettica dibattimentale, allora, oltre al dato generato da un sistema di intelligenza artificiale (tanto precostituito al processo quanto formato all’interno dello stesso), sarebbe anche possibile chiedere l’ammissione di (o comunque disporre ex officio) una “perizia” che fornisca elementi necessari al successivo vaglio di attendibilità di un determinato output generato da un sistema di intelligenza artificiale. In effetti, qualora il giudice necessiti di integrare le proprie conoscenze con il sapere scientifico a fini probatori, deve fare ricorso agli apparati conoscitivi di un esperto[22].
Tale mezzo di prova, in effetti, consentirebbe al Giudice di comprendere come il sistema di “Large Language Model” sia pervenuto alla sua conclusione, sì da esser messo nelle condizioni di stabilire la congruenza e logicità non solo del percorso algoritmico che la macchina abbia seguito ma anche la fondatezza delle informazioni da essa utilizzate.
La necessità di un consapevole vaglio logico del Giudice sugli outputs dell’I.A. (con ciò intendendosi la conoscenza o conoscibilità delle informazioni e scelte adoperate per giungere a quel risultato) si ravvisa nel fine di non aggirare il principio del libero convincimento e dare luogo ad una “prova legale in bianco”, ovvero una prova che presume di dire ciò che vuole senza possibilità di smentita, solo perchè generata da un sistema di Intelligenza Artificiale, ed il cui contenuto si riempirebbe di volta in volta in base al tipo di accertamento eseguito (per questo “in bianco”)[23].
Per vero, è proprio la necessità di salvaguardare il principio del libero convincimento che spinge verso un’esigenza di comprensione del procedimento di formazione dell’output. Così, quale che sia il canale prediletto per l’inserimento della prova algoritmica nel processo penale, la decisione sull’ammissione della prova non potrà mai prescindere dalla considerazione delle leggi scientifiche sottese al funzionamento dell’algoritmo, pena il rischio di introdurre nel contesto processuale informazioni irrilevanti (in quanto basate su fondamenta scientifiche non attendibili in linea di principio o non adeguate all’applicazione prevista)[24].
L’onere di provare l’affidabilità dello stesso L.L.M. non può che ricadere in primis in capo alla parte che ne abbia richiesto l’ammissione, ferma restando come detto la sindacabilità giudiziale, per l’appunto operabile anche mediante una perizia, ordinabile pure ex officio in caso di insorgenza di dubbi sull’affidabilità dell’esito. Tra l’altro, sulla necessità che il giudice operi un sindacato di tipo logico sugli esiti del sistema di LLM troviamo precedenti giudiziari applicabili per via analogica anche ai casi qui in esame.
Invero, intendendo il risultato dell’analisi operato dal sistema di I.A. (e dunque il suo output) alla stregua di una “perizia”, facendo applicazione dei principi stabiliti dalla giurisprudenza di legittimità, la prova peritale sarebbe in tutto equiparabile alla prova dichiarativa, come quella testimoniale[25]. Orbene, che la prova generata o raccolta tramite strumenti di intelligenza artificiale possa essere utilmente ricondotta entro il genus della prova scientifica[26] e, in particolare, nel novero della c.d. prova digitale o informatica è largamente sostenuto[27]. In tale ottica, lo strumento tipico che ne consente l’introduzione in giudizio sarebbe quello della consulenza di parte e/o della perizia, allorquando, il perito potrebbe non solo fare uso del L.L.M. per giungere al “dato” che si intende portare in giudizio, ma altresì potrebbe “spiegare” come tale strumento sia pervenuto a quel risultato conoscitivo, illustrando le informazioni di base e le inferenze logiche che gli hanno consentito di superare gli snodi problematici.
A tal uopo, è interessante richiamare la famosa pronunzia della Corte Suprema statunitense, sent. Daubert[28], ove si sono stabiliti i criteri secondo cui il giudice deve vagliare l’effettiva affidabilità di una teoria o di un metodo e di un expert testimony, ai fini della loro ammissibilità come prova scientifica nel processo. L’individuazione di tali criteri, allora, è caduta sulla controllabilità mediante esperimenti, la falsificabilità mediante test di smentita con esito negativo, la peer review della comunità scientifica di riferimento, la conoscenza della percentuale di errore dei risultati e, infine, il criterio subordinato e ausiliario della generale accettazione da parte della comunità degli esperti. La prassi giudiziaria interna[29] nel condividere sostanzialmente i Daubert standard, ne ha arricchito la portata, con riguardo alla fase della valutazione della prova scientifica da parte del giudice, aggiungendo i criteri dell’indipendenza e dell’affidabilità dell’esperto, dell’ampiezza e del rigore del dibattito critico che hanno accompagnato la ricerca, delle finalità e degli studi che la sorreggono, dell’attitudine esplicativa dell’elaborazione teorica[30].
In punto di controllabilità dei meccanismi generativi dell’output, ancora, sovvengono le indicazioni raccolte da precedenti della Corte di Strasburgo[31], e a tal uopo applicate in via analogica, secondo cui <<(…) coloro che hanno la responsabilità di decidere la colpevolezza o l’innocenza di un imputato dovrebbero, in linea di massima, poter udire i testimoni personalmente e valutare la loro attendibilità. La valutazione dell’attendibilità di un testimone è un compito complesso che generalmente non può essere eseguito mediante una semplice lettura delle sue parole verbalizzate (…)>>. Il vulnus al diritto all’equo processo, in tale sentenza dei Giudici di Strasburgo, era ravvisato nella violazione del principio di oralità ed immediatezza, ma il principio di fondo sembra comunque attagliarsi al caso di specie potendosi affermare la necessità che l’organo decidente abbia la piena consapevolezza delle dinamiche interne della fonte di prova e, dunque, delle dinamiche decisionali proprie dei LLM.
La necessità che, in caso di dubbio sull’attendibilità dell’output, il Giudice debba essere messo nelle condizioni di comprenderne il meccanismo formativo, trova riscontro anche – storicamente – nello sviluppo e nella successione delle teorie di valutazione logica della prova[32]. In effetti, in passato, la dottrina, sotto l’egida del consolidato statuto costituzionale, aveva elaborato il concetto di “Evidential Weight”, ovvero del grado di supporto che un elemento di prova può fornire ad una determinata ipotesi[33]. Tale elaborazione, sviluppata con particolare riferimento alla prova scientifica, ad ogni modo, non era ritenuta affatto utile a consegnarle un carattere di inconfutabilità, giacché, si diceva, al pari di ogni altra prova, essa potrebbe, al più, spiegare solamente un frammento del fatto e non l’imputazione nella sua totalità[34].
Si è dunque optato, già con la storica sent. Sez. Unite “Franzese”[35], per un modello di razionalità nella valutazione della prova di tipo “logico probabilistico”, risultato dell’affermazione di una concezione post-positivista di scienza, nonché in adesione ai capisaldi del giusto processo di ispirazione sovranazionale. Aggiungasi che, stando al modello falsificazionista di valutazione, previsto nell’art. 546 c.p.p.[36], l’esistenza di una prova scientifica non esenta in alcun modo il giudice dal motivare sull’inaccettabilità di eventuali ricostruzioni alternative fornite dalle parti[37].
Orbene, applicando tali concetti alla prova assunta mediante uno strumento di intelligenza artificiale, non può non convenirsi sulla necessità di conoscenza della fonte di informazioni (database) o quantomeno del Produttore del sistema di I.A., così come di quali siano stati gli snodi problematici affrontati dalla “macchina” e di come li abbia risolti ed in base a quali criteri. In mancanza di ciò, come detto, nessuno dei soggetti processuali potrebbe essere messo nella condizione di vagliare il percorso logico seguito dal sistema di intelligenza artificiale per giungere all’output[38].
Sotto altro aspetto, l’utilità della perizia la si apprezzerebbe anche per adeguatamente garantire i requisiti di un “controllo umano significativo” nell’impiego dell’intelligenza artificiale in sede giudiziale, ragioni che si pongono a fondamento di un giudizio di sussistenza dei criteri di verosimiglianza, pertinenza e rilevanza (nei suoi profili di non ridondanza e di idoneità sia contenutistica che epistemologica) ai fini dell’ammissione di siffatto mezzo istruttorio[39].
Un’ulteriore elemento che si innesta nella valutazione di cui all’art. 190 cpp della richiesta prova peritale, poi, consiste nella presa d’atto che i software da cui i L.L.M. risultano prodotti sono stati progettati e realizzati per finalità differenti rispetto a quelle propriamente processuali[40]. Ciò, come già posto in evidenza dalla dottrina[41], genera il rischio di un utilizzo improprio dei dati in esame e la produzione di gravi fraintendimenti cagionati dal c.d. function creep, che si verifica quando una certa tecnologia viene utilizzata al di fuori del dominio e degli scopi per cui è stata originariamente creata[42]. Si rende dunque necessaria una verifica accurata circa l’autenticità e l’attendibilità dell’informazione estratta dai singoli dispositivi per non incappare in errori che si rivelano fatali nella ricostruzione dei fatti in sede giudiziale[43].
Da tutto quanto sopra esposto, allora, una perizia sul funzionamento del L.L.M. che abbia generato il risultato conoscitivo già introdotto nel processo e nell’ottica ricostruttiva per come indicata dalla parte nella fase della richiesta di ammissione, sarebbe pertinente e rilevante nella misura in cui sia idonea a fornire la cd. “explainability“[44], ovvero quell’attività ricostruttiva necessaria ad evitare il cd. << “black box” effect>>[45]. Mediante tale mezzo di prova posto in essere da un soggetto umano[46], dunque, si consentirebbe di rendere trasparenti i processi decisionali posti in essere dal sistema algoritmico, sì da poterne valutare i vari aspetti ai fini del giudizio di attendibilità della prova generata.
Una tale richiesta di ammissione probatoria col suo portato teleologico, allora, non solo appare evidentemente pertinente, rilevante e verosimile, ma – in mancanza di richiesta di parte – sarebbe anche estremamente prudente che l’organo giudicante ne disponesse l’ammissione ex officio (ex art. 507 cpp) ogni qualvolta si sollevino dubbi sull’esattezza del prodotto informativo generato dal machine learning.
Nell’ottica in esame e in ossequio al principio di trasparenza, infine, laddove si verificasse l’eventualità di non poter risalire tanto ai criteri seguiti quanto ai dati di base, mediante i quali l’algoritmo sia riuscito a pervenire al risultato finale (quest’ultimo da assumere come elemento probatorio nel dibattimento), l’unico rimedio compatibile con la salvaguardia della corretta funzione cognitiva del processo sarebbe irrogare la sanzione dell’inutilizzabilità del dato, in continuità con la teoria dei «frutti dell’albero avvelenato»[47] ovvero, sotto altro profilo, applicando analogicamente la situazione in cui si troverebbe il teste de relato che non sappia indicare la fonte dalla quale abbia appreso la conoscenza (ex art. 195, co. 3, c.p.p.). In tale ultimo caso, in effetti, sarebbe abbastanza paradossale ritenere giustificato il mancato riferimento alla fonte diretta asserendo di avere eccessivi dati informativi i quali sarebbero stati elaborati mediante un’articolata (per non dire smisurata) attività inferenziale-artificiale.
5.LA PROVA DELLE MASSIME DI ESPERIENZA CON L’I.A.
Le massime di esperienza costituiscono dei presupposti interpretativi (precomprensioni) per collegare i fatti noti ai fatti da provare[48], sulla base di un ragionamento inferenziale che tiene conto di “ciò che accade più spesso” o “ciò che accade di solito”, e dunque del principio dell’id quod plerumque accidit[49]. Dunque, sono inferenze funzionalmente destinate a risolvere la causalità di un evento in base alla frequenza con cui un accadimento si verifica[50].
Tale processo di aggregazione di fenomeni temporalmente successivi, in ipotesi, agevola l’insorgere di bias cognitivi[51], portando il giudice a preferire massime compatibili con la propria idea, benché non siano affidabili, perché ad esempio non coprono più la fattispecie indagata[52].
E, tuttavia, va richiamato quanto già sopra esposto in tema di formulazione dell’argomento di prova cui sono agganciate le richieste istruttorie delle parti, le quali possono avere ad oggetto anche massime d’esperienza, rispetto alle quali il giudice non può sovrapporre la sua (tanto solipsistica quanto personale) proposta, a patto di non intaccare la sua terzietà.
Per questa ragione resta comunque preferibile l’idea secondo cui devono essere le parti a sottoporre al Giudice, nel contraddittorio, le massime di esperienza che intendono far valere nel giudizio, anche, come detto, quale oggetto della prova da introdurre. Il giudicante, allora, al fine di non “distorcere” quel dato fattuale forgiato con quella impressione teleologica che la parte le ha conferito, non potrà far uso di altre massime di esperienza che non siano il frutto della indicazione fatta propria da taluna delle parti del giudizio[53], così più correttamente salvaguardando il principio di disponibilità della prova in capo alle parti ed il suo ruolo di soggetto terzo, capisaldi del processo accusatorio.
In tal maniera, le regole inferenziali catalizzatrici degli esiti conoscitivi nascono e si formano nel contraddittorio per effetto dell’impegno delle parti in sede di ammissione ed acquisizione della prova e come oggetto di un mero controllo deduttivo del giudice che sancisce la resistenza delle stesse massime ad un riscontro falsificazionista[54]. Non potranno così essere utilizzate massime di esperienza proprie dell’organo giudicante, elaborate all’esito del giudizio e nella “solitaria” camera di consiglio, che non siano previamente passate per la forgia del contradditorio, in ragione del fatto che solo tale metodo può, più correttamente, vagliare lo statuto epistemico del criterio d’inferenza invocato. Il rischio, come detto, è l’utilizzo di una regola inferenziale che, in quanto “arbitraria”, pone in crisi il sistema costituzionale del Giudice terzo[55].
In sede di ammissione delle prove richieste dalle parti, allora, il giudicante deve operare il controllo di pertinenza, rilevanza e verosimiglianza del mezzo di prova non solo rispetto al capo di imputazione, ma anche e soprattutto rispetto al programma probatorio proposto dalle parti ed in ciò dovendosi includere anche le massime di esperienza. La richiesta di prova sulla sussistenza e/o correttezza di tali ultime, allora, potrebbe essere un capo di elezione per l’utilizzo dei sistemi di I.A.
In effetti, è noto che vi sono ampie aree d’intervento del giudice nel processo penale, coperte da criteri inferenziali legati a massime d’esperienza, al sapere di base e a generalizzazioni del senso comune, che fanno parte del background conoscitivo di tutti i protagonisti del processo. In tali pieghe dell’attività giudiziale[56], in difetto di leggi scientifiche, neppure di tipo statistico, c’è bisogno di saperi consolidati nel tempo, i quali, applicati in casi simili o analoghi, trattati e valutati in altre esperienze processuali, possono contribuire all’analisi delle informazioni probatorie per trarne inferenze conclusive circa la conferma, o non, dell’ipotesi accusatoria. Saperi che si trasmettono e si consolidano col moltiplicarsi delle esperienze e che non risultano smentiti dagli sviluppi della scienza e della tecnologia[57].
Tanto premesso, considerato che l’I.A. opera in base ad una “larga scala di dati”, ed esegue le operazioni di “scelta” tra più opzioni sulla base di una metodologia statistico-probabilistica[58] è chiaro che sarebbe pertinente demandare ad essa l’individuazione del criterio esperienziale migliore per agganciare l’evento alla condotta contestata, potendo essa fondare il suo “ragionamento” su un database smisurato. Ad essa, allora, potrebbe anche chiedersi di risolvere una questione sulla scorta proprio del criterio dell’ id quod plerumque accidit. Pertanto, una parte processuale, al fine di dimostrare la effettiva esistenza o giustezza di una massima di esperienza di cui intenda fare uso, potrebbe chiedere di sottoporre tale quesito all’Intelligenza artificiale.
Ferma restando l’impossibilità dell’utilizzo de plano di tali risultati conoscitivi “sintetici” per tutto quanto sopra già esposto, l’attendibilità del risultato dovrà poi essere oggetto di una successiva valutazione al fine di poter utilizzare tale dato in sentenza. In specie, qualora si voglia verificare l’attendibilità del risultato, si potrebbe adoperare lo strumento della perizia al fine di superare così la cd. “opacità” dell’algoritmo, mettendo in luce i dati conoscitivi posti a fondamento del suo calcolo, nonchè gli snodi problematici che il machine learnig ha dovuto fronteggiare e, in specie, come essi siano stati risolti e perchè[59]. I risultati della operazione peritale, poi, saranno passati al vaglio della cross-examination, la quale, consente sì al giudice ma soprattutto alle parti[60] di confrontarsi con il metodo adottato dall’esperto, partecipando alla sua verifica e all’eventuale falsificazione della tesi proposta[61].
Dunque, l’I.A. sarebbe utilizzabile per risolvere dubbi inferenziali di natura quantitativa[62], ovvero anche per l’individuazione della migliore massima di esperienza ed in ciò, eventualmente, lo strumento della perizia potrebbe vagliarne l’attendibilità.
In conclusione, il Giudice, rispetto alle massime di esperienza suggerite dalle parti ed introdotte mediante l’utilizzo di uno strumento di intelligenza artificiale, in caso di dubbi, potrà eseguire un’accertamento volto al vaglio di attendibilità delle stesse, il quale può estrinsecarsi mediante un accertamento tecnico peritale. In siffatta maniera, da un lato non risulterà scalfito il presupposto costituzionale della “terzietà” del giudicante, e dall’altro non sarà intaccato alle radici il modello accusatorio, per il quale non vi può essere alcuna posizione privilegiata di partenza in materia probatoria, sancendosi al contrario il principio di parità delle armi[63]. Non si è mancato invero di sottolineare come, nella prassi, emerga di fatto il rischio di una magistratura che compie scelte epistemiche arbitrarie, surrogandosi al perito e scegliendo tra quelle proposte dai consulenti la teoria ricostruttiva che preferisce secondo paradigmi labili e imprevedibili[64].
Alternativamente, il Giudice, proprio in quanto peritus peritorum, potrebbe anche omettere tale mezzo di prova, richiedendosi tuttavia un vaglio motivazionale rafforzato di stretta logicità razionale, imperniata su una logica-formale al fine di evitare inferenze probabilistiche su dati prodotti da altrettante inferenze probabilistiche e fermo restando, ovviamente, lo sbarramento all’utilizzo di massime di esperienza non passate attraverso l’esame in contraddittorio. Tra i due modelli di ragionamento impiegati nel processo penale, allora, quello basato sul calcolo unilaterale delle probabilità dovrà cedere il passo all’altro che – per stabilire i significati – faccia uso esclusivamente della logica formale[65].
6.IL PROBLEMA DELLA QUALIFICAZIONE DEI MEZZI ED ELEMENTI DI PROVA
Come anticipato supra, è il caso di porci il problema di quale sia il “mezzo di prova” più appropriato per introdurre nel giudizio tali outputs: documenti, perizia, testimonianza, ricognizione, ovvero se, non rientrando in alcuno dei precedenti, esso sia qualificabile come “atipico” ex art. 189 c.p.p.[66].
Un ulteriore punto di possibili snodi problematici è rinvenibile nel fatto che la I.A. è altresì utilizzabile anche quale “mezzo di ricerca della prova”, come potrebbe darsi in occasione di una perquisizione informatica eseguita mediante l’I.A. su di un dispositivo informatico, ancor più qualora le dimensioni del disco siano elevate e contenenti una mole imponente di dati[67].
Un problema di qualificazione giuridica e di sussunzione di tali innovative strumentazioni tecnologiche nell’ambito dei mezzi di prova tipici (o atipici) ovvero dei mezzi di ricerca della prova, come preannunciato in precedenza, non può essere sottovalutato ma, anzi, merita certamente un approfondimento[68].
Vi è da chiedersi, allora, come poter qualificare processualmente l’<<informazione>> prodotta da un sistema di intelligenza artificiale e, conseguenzialmente, stabilire quale sia il relativo regime giuridico più appropriato in termini di forme di acquisizione nel corso del procedimento penale. Il problema, quanto al risultato finale dell’elaborazione, è se tale “dato” debba inquadrarsi a sua volta nell’ambito di un ulteriore documento informatico ma più avanzato, un dato informatico freddo elaborato da un software, oppure come una sorta di relazione tecnica alla stregua di quelle realizzate da un consulente specialista[69]. In quest’ultimo caso, più adattabile al profilo di creatività associato ai meccanismi di intelligenza artificiale, si porrebbe poi, in termini maggiori rispetto alla qualificazione dell’elaborato analitico come mero documento informatico, il problema della falsificazione dell’interpretazione scientifico-informatica. Si porrebbe, in effetti, il problema di un eventuale esame, controesame delle convinzioni espresse dall’apparato intelligente e, quindi, di una sua verifica all’interno dell’agone processuale. È tutto da esplorare lo spazio di come costruire il vaglio processuale di un elaborato prodotto da un sistema di intelligenza artificiale; non pare potersi mettere in dubbio il profilo della necessaria valutazione alla stregua di una qualunque prova portata in giudizio secondo i dettami dell’art. 192 c.p.p[70].
Inoltre, ma cronologicamente in via antecedente, vi è da chiedersi se ed a quali condizioni l’ “attività” posta in essere dal LLM sia qualificabile ai sensi di un <<mezzo di ricerca della prova>> che, di tutta evidenza, non può che qualificarsi come atipico.
Sul punto, si denota una certa obsolescenza dei vigenti strumenti processuali disciplinati dal codice vigente, richiedendosi certamente un (non più differibile) intervento legislativo riformatore, il quale consenta di collocare, senza dubbi interpretativi (anticamere di una certa discrezionalità) le prove ed i mezzi di ricerca della prova all’interno di categorie codicistiche ben definite. Inoltre, andrebbero espresse sul terreno normativo le generali implicazioni del principio di proporzionalità, volto a operare, a priori, come limite al compimento di atti d’indagine e, a posteriori, come criterio di ammissione probatoria o, se si preferisce, come regola di esclusione verso prove la cui raccolta abbia realizzato un’interferenza sproporzio-nata nei diritti fondamentali[71].
Ai fini della richiesta di ammissione della prova delle parti, nonchè del correlativo giudizio ammissivo, in effetti, è di fondamentale importanza stabilire se tale “prova informatica” rientri nel novero delle prove tipiche o atipiche. Mediante tale ultima norma, invero, il legislatore ha stabilito un filtro a maglie ben più strette rispetto a quello previsto dall’art. 190, comma 1, che, ai fini dell’ammissione della prova in genere, si limita a selezionare negativamente solo «le prove vietate dalla legge e quelle che manifestamente sono superflue o irrilevanti»: un filtro, inoltre, che è assistito da un significativo rafforzamento del contraddittorio anticipato, “per” la prova, ancor prima che “sulla” prova[72].
Allo stato, nella prospettiva delle indagini non previste normativamente, realizzabili con l’uso di intelligenze artificiali, il canale apparentemente più appropriato sarebbe costituito proprio dalla disciplina della prova non regolata dalla legge (art. 189 c.p.p.)[73], adottata finora anche per assorbire il fenomeno delle indagini atipiche[74]. La ivi prevista necessità di instaurazione di un contraddittorio sulle modalità di acquisizione della prova, in effetti, consentirebbe di bilanciare l’accresciuto utilizzo dell’intelligenza artificiale in questo settore, foriero di seri rischi per i diritti fondamentali[75], a causa della mancanza di regole circa presupposti e procedure dell’atto investigativo. Diversamente, invero, considerati i caratteri di alta specializzazione di tale attività, si rischierebbe di pregiudicare l’esercizio del contraddittorio (solo “postumo”) e i controlli giurisdizionali sulla legittimità, adeguatezza e funzionamento dello strumento elettronico, fattori indispensabili per far valere il diritto di contestare il risultato probatorio[76].
La questione si riverbera inesorabilmente sul momento ammissivo ed acquisitivo della prova, ove già emerga che l’acquisizione dell’informazione probatoria sia stata assunta in modalità tale da violare i diritti fondamentali del soggetto. In effetti, è chiaro che si verterebbe nell’ipotesi di un divieto di ingresso della prova (opponibile dalla parte avversaria e comunque rilevabile dal giudice in ogni stato e grado del processo ex art. 191 c.p.p.) ricavabile in modo diretto dal dettato costituzionale, in ragione del principio per cui attività compiute in dispregio dei fondamentali diritti del cittadino non possono essere assunte di per sé a giustificazione e fondamento di atti processuali a carico di chi quelle attività costituzionalmente illegittime abbia subìto. Il suddetto principio, come noto, ha consentito l’elaborazione della categoria delle prove cosiddette incostituzionali, cioè di prove ottenute attraverso modalità, metodi e comportamenti realizzati in violazione dei fondamentali diritti del cittadino garantiti dalla Costituzione, da considerarsi perciò inutilizzabili nel processo[77], la cui estensione di principio va chiaramente ben oltre la disposizione contenuta nell’art. 189 cpp liddove abilita il giudice ad escludere la prova atipica solo qualora (tra le altre condizioni) non pregiudichi la libertà morale della persona.
7.LE RECENTI RIFORME NORMATIVE: IL CONTROLLO UMANO SIGNIFICATIVO
L’articolo 6, paragrafo 2, dell’AI Act[78] prevede che «Un sistema di intelligenza artificiale è considerato ad alto rischio quando è destinato ad essere utilizzato come componente di sicurezza di un prodotto, o il cui utilizzo è soggetto ad obblighi di valutazione della conformità prima della messa in commercio o dell’entrata in servizio del prodotto in questione, oppure quando è elencato nell’allegato III, a meno che non sia dimostrato, in base ad una valutazione preliminare, che il sistema non comporta un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, tenuto conto della sua finalità, del contesto d’uso, della probabilità e della gravità dell’impatto.».
In sintesi, i sistemi elencati nell’Allegato III sono presuntivamente ad alto rischio, salvo prova contraria fondata su una valutazione del rischio (risk-based approach).
L’Allegato III, punto 8 dell’AI Act, definisce gli ambiti di utilizzo dei sistemi di IA ad alto rischio per l’ amministrazione della giustizia e dei processi democratici quali destinati ad assistere nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a casi concreti; supportare le decisioni giudiziarie, amministrative o di tipo procedurale; valutare la probabilità che una persona abbia commesso un reato; valutare la credibilità delle prove o dei soggetti coinvolti; determinare sanzioni, misure correttive, misure cautelari o alternative alla detenzione.
In base al combinato disposto tra l’ art. 6, par. 2, e l’allegato III, n. 8, quindi, tutti i sistemi IA utilizzati nel settore della giustizia come ausilio ai giudici, interpretazione delle norme, valutazione delle prove, confezionamento di sentenze o di pene, sono “ad alto rischio”, salvo che il fornitore non dimostri che l’uso del sistema non genera un rischio significativo per i diritti fondamentali, salute o sicurezza, nel qual caso il sistema può non essere sottoposto agli obblighi dell’AI Act previsti per i sistemi ad “alto rischio”[79].
Sennonché, sia la considerazione preliminare che il n. 8 dell’allegato III utilizzano il verbo “assistere”. Da ciò, si trae la conclusione che la finalità perseguita dal legislatore europeo esclude che i sistemi di IA possano svolgere un’attività sostitutiva. L’intelligenza artificiale è uno degli strumenti di cui può avvalersi l’autorità giudiziaria nella sua attività, ma rimane mero strumento con funzione servente e non può diventare essa stessa giudice[80].
Il Regolamento europeo ha trovato, allo stato, iniziale attuazione mediante la L. 132/2025[81], alla quale non potranno che fare seguito ulteriori strumenti normativi in ragione della delega al Governo in essa contenuta[82].
Quanto all’aspetto del “controllo umano significativo” bisogna innanzitutto fare menzione della previsione contenuta nell’art. 1 della suddetta norma primaria ove si prevede che tra le finalità della legge vi sia quella di <<promuovere>> un utilizzo “trasparente”… in una dimensione “antropocentrica” e … garantendo la vigilanza sull’impatto sui diritti fondamentali dell’i.a. In combinato disposto, va segnalata la previsione contenuta all’art. 15, co. 1, secondo cui nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria <<è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti>>. Ne deriva come non possa essere riservato allo strumento di i.a. la produzione incontrollata di output probatori, svincolati dal controllo giurisdizionale, così come anche la sopra esposta possibilità di valutazione sull’attendibilità della fonte di prova, pur se – si è detto in dottrina – il giudice potrebbe certamente farne uso[83]. In tali casi, stanti proprio i criteri di “trasparenza”, necessità dell’apporto umano significativo in visione “antropocentrica”, il Giudice che utilizzi tale strumento sarà tenuto a redigere una adeguata motivazione, fondata su criterio logico[84]. Tale previsione, che pone l’individuo al centro della scena processuale, nella dinamica acquisitiva e valutativa della prova, è necessaria al fine di contrastare l’aumento esponenziale – cui già si è fatto cenno in premessa – delle prove e tecniche di acquisizione probatoria di natura digitale ed informatica che sta investendo il processo penale. In tal maniera, allora, dovrebbe essere bilanciato il ricorso all’utilizzo di sistemi di IA, senza cui – si è detto – si rischia di tramutare l’accertamento penale in un laboratorio informatico, dove l’apporto umano diventa sempre più raro[85].
Tuttavia le menzionate disposizioni normative si connotano per una certa elasticità, tale da non poterle conferire il crisma della assoluta determinatezza.
Si palesano, invero, taluni nodi interpretativi: in primis, come misurare la predetta “prevalenza” dell’apporto umano e quali conseguenze derivano dalla violazione. Ed ancora, non si fa menzione di quali dovessero essere le categorie incluse. Tali questioni, nei limiti del dettato della norma, non potranno che essere oggetto di precisazioni per via interpretativa al fine di stabilire la linea di confine, tra un apporto significativo e non, nella interazione uomo-macchina nella gestione della dinamica processuale.
Ad ogni buon conto, non vi è dubbio che il quadro normativo sopra evidenziato, interno ed europeo, pone un principio di “riserva della giurisdizione umana”, intendendo presidiare le attività coincidenti con quelle elencate al numero 8, lettera a), dell’allegato III dell’AI Act (Amministrazione della giustizia e processi democratici), tra le quali rientrano quelle più intimamente connesse alla decisione giudiziaria[86]. Una “giustizia meccanizzata”, dunque, è assolutamente al di fuori di ogni previsione normativa.
8.DUBBI, PROSPETTIVE DE IURE CONDENDO E UNA NUOVA FRONTIERA: L’ <<INTELLIGENZA ESTESA>>
In linea generale, il presupposto di fondo che spinge a confidare nella correttezza degli outputs elaborati da un sistema di intelligenza artificiale, è da individuare nella esecuzione di calcoli matematico-algoritmici – per loro natura tendenzialmente oggettivi – che, partendo da una serie di dati allocati nella sua memoria, ed attraverso percorsi logici, conduce ad un determinato risultato[87].
In dottrina, invero, non si è mancato di evidenziare come il limite intrinseco alle capacità mnestiche delle persone ben si presta a rappresentare il declino della prova dichiarativa nel processo penale, ormai marginalizzata a favore di esperimenti ad alto tasso tecnologico. Di contro, l’accattivante prospettiva efficientistica della macchina trascura i rischi di un fideistico affidamento alle tecnologie digitali, in grado di generare output falsamente positivi o negativi perché condizionati, fra l’altro, da pattern di informazioni iniziali erronee o incomplete[88].
Ed ancora, si è osservato come le ragioni di entusiasmo verso l’IA riguardano la funzionalità giudiziaria, la perfettibilità della ricerca probatoria e del giudizio. Ma non è detto che la macchina sia esente da errori, né costituisce un postulato inossidabile che essa sia più proficua delle mente umana; soprattutto, la fiducia che la macchina rappresenta il migliore strumento per approssimarsi alla verità nasconde il pericolo di una “nuova inquisizione” dove le regole del processo contano poco[89].
Vieppiù, siffatto atteggiamento acritico riceve ulteriori compressioni liddove si consideri che gli algoritmi di Machine Learning (ossia di apprendimento automatico) sono capaci di generare nuovi contenuti che in precedenza si basavano sulla creatività dell’uomo[90] che, in quanto tali, sono suscettibili di cadere in errori o distorsioni sistematiche del ragionamento che influenzano la percezione del fatto, il giudizio e le decisioni, portando a ragionamenti irrazionali o errati. La controllabilità (quantomeno) ex post di tali procedimenti “generativi”, allora, rappresenta essa stessa la condizione per riporre affidamento in tali sistema.
Sul punto, allora, autorevole dottrina ha rimarcato come fosse più utile costruire, nell’organizzazione del processo, un filtro di accesso, preventivo e a maglie strette, al fine di escludere – all’esito di un contraddittorio “per” la prova – addirittura che entrino nel patrimonio probatorio informazioni non sorrette da legittima validazione scientifica[91], piuttosto che rinviare la verifica della coerenza logica di questa speciale categoria di prova tecnologica al contraddittorio “sulla” prova, quando essa sia stata già ammessa e acquisita e le parti siano ormai posizionate dentro il dibattimento.
La scienza e la tecnologia irrompono nell’esperienza giuridica, comportando che il funzionamento delle Corti, nelle questioni in cui sono coinvolte dimensioni tecniche e scientifiche, soprattutto se nuove per l’interprete, debba essere – da un lato – più flessibile quanto al controllo delle parti sulle modalità di assunzione della prova, alla discovery e al contraddittorio, nel momento e in funzione sia dell’ammissione che della valutazione della prova, e – dall’altro – più rigoroso quanto alla verifica di attendibilità del risultato probatorio[92].
Ancor più, tali problematiche sono rinvenibili se si considera che è ravvisabile, a nostro avviso, una frontiera ancor più avanzata dell’ “IA generativa”, ovvero la cosiddetta “I.A. estesa”, così definito quel sistema <<ancora in fase di sviluppo ove il dispositivo inorganico (la macchina) utilizza i dati dell’I.A., ma al contempo preleva alcuni segnali che vengono dal cervello dell’umano in maniera inconsapevole, quindi non comandi impartiti dalla parte razionale, ma gli impulsi elettrici del cervello che vengono decodificati dalla macchina e vengono fusi coi dati del sistema inorganico; si avrà un mix tra i.a. e un’intelligenza umana>>[93].
In tale contesto è ancora più problematico distinguere tra la decisione presa dalla macchina e la parte della medesima riferibile all’uomo; è difficile stabilire a chi si debba ricondurre la responsabilità della scelta o, quantomeno, la fonte di derivazione delle informazioni di base dalle quali è scaturito il risultato finale.
Il problema, per quanto di nostro interesse, attiene allora alla possibile (ancora una volta) opacità della explainability, liddove i dati su cui si è basato il dispositivo di i.a. sono stati in parte acquisiti dalla parte irrazionale di un essere umano e sulla scorta (anche) di essi è stato poi elaborato l’output.
Una perizia espletata al fine dell’explainability dovrà, allora, dare spiegazione non solo di quali siano stati i processi decisionali del LLM, di quali siano state le istruzioni ad esso impartite mediante l’algoritmo, di quali siano stati i dati informativi allocati nella sua memoria o di come abbia generato la soluzione (output), ma sembra necessario anche comprendere come abbia decodificato gli impulsi elettrici del cervello umano, quali dati abbiano avuto la preponderanza nella decisione finale e, forse, anche verificare da quale area del cervello umano abbia scelto di attingere tali impulsi elettrici, poi decodificati in informazioni. Ciò in quanto potrebbe non essere sufficiente un (solo) vaglio logico del percorso razionale della I.A., ma potrebbe essere necessario verificare anche se i dati di base allocati nella sua memoria (o comunque a quelli ad essa collegati) siano rispondenti alla migliore tecnica di inserimento e/o apprensione dei medesimi, o ancora se i dati su cui il LLM si sia addestrato non siano “discriminatori” nel senso della capziosa inclusione o esclusione di una determinata tipologia di informazioni, di modo tale che essi non siano “di parte” o comunque “tendenziosi”[94].
Aspetto di precipuo rilievo, in effetti, riveste il tema relativo alle forme e ai soggetti del controllo sulla qualità dei dati inseriti nella macchina e sul suo funzionamento[95].
Ma pur escludendo condotte dolose, non può che farsi i conti con la fisiologica asimmetria geografica delle fonti informative da cui attingono i LLM[96], come “confessato” da un medesimo apparato di machine learning, il quale, interrogato specificamente su quali siano le parti del mondo dalle quali apprende le notizie, conferma una predominanza di contenuti in lingua inglese e provenienti da paesi come gli Stati Uniti, il Regno Unito, il Canada e altri paesi anglofoni, e comunque ha detto che la maggior parte dei dati di addestramento è concentrata in alcune aree principali, principalmente in Paesi con una forte presenza digitale e di contenuti online[97].
[1] Sul tema della predominanza delle prove digitali o comunque assunte con modalità tecnico-informatiche, in dottrina, tra i tanti, si segnalano, G. DI PAOLO, La circolazione transfrontaliera delle prove elettroniche, in Penale Dir. e proc., 13/05/24; Id., voce Prova informatica (diritto processuale penale), in Enc. Dir., Annali, vol. VI, Milano, 2013, p. 736 ss.; F. R. DINACCI, Sequestro di dispositivi informatici: imposizioni tecnologiche e scelte interpretative. Alla ricerca di un recupero della legalità probatoria, Arch. pen. web, 1, 2025, il quale (a p. 7) evidenzia come «Il rilievo risulta particolarmente attuale con riferimento alla problematica del sequestro di dispositivi elettronici»; Id., I modi acquisitivi della messaggistica chat o e-mail: verso letture rispettose dei principi, in Arch. pen. web, 1, 2024; S. LORUSSO, Digital evidence, cybercrime e giustizia penale 2.0, in Proc. pen. giust., 4, 2019, p. 821 e ss.; M. CAIANIELLO – A. CAMON, Digital forensic evidence, Cedam, 2021; S. QUATTROCOLO, Equità del processo penale e automated evidence alla luce della convenzione europea dei diritti dell’uomo, in Revista Ítalo-Española de Derecho Procesal, Vol. 1, 2019, Madrid, 2018; L. BELVINI, Data protection e accertamento penale nel panorama europeo e nazionale, in Arch. pen. web, 1, 2024; M. PITTIRUTI, Digital evidence e procedimento penale, Torino, 2018, il quale afferma che «nessun settore appare tanto fecondo quanto quello informatico e telematico»; S. FURFARO, Intercettazioni telefoniche – «Pin to pin» Blackberry, in Arch. pen., 2016, 1. Per quanto concerne invece le pronunzie giudiziarie, si tenga conto delle più recenti, quanto rilevanti, pronunce a livello interno e sovranazionale: C. cost., sent. 7 giugno 2023 n. 170, in Giur. cost., vol. 4, 2023, con note di A. D’ANDREA e A. CHELO, a p. 1713 e p. 1746; Cass., Sez. un., 29 febbraio 2024, n.ri 23755 e 23756 (vicenda Sky-ECC, di cui vi sono plurimi commenti in dottrina, tra cui G. SPANGHER, Criptofonini: le sentenze delle Sezioni Unite, in giustiziainsieme.it, 20 giugno 2024; L. FILIPPI, Criptofonini SKY-ECC e messaggi criptati: la Corte di cassazione attua i principi di diritto enunciati dalle Sezioni unite, in penaledp.it, 11 aprile 2024; M. DANIELE, La mappa del controllo giurisdizionale quando l’O.E.I. ha ad oggetto prove già in possesso dell’autorità straniera, in Sis. pen., 17/07/2024); Cass., sez. VI, 11 settembre 2024, n. 39548; Cass., sez. VI, sent. 13 gennaio 2025, n. 1269 (in tema di acquisizione della messaggistica istantanea e dei relativi screenshot contenuti all’interno di uno smartphone); per un commento, cfr. F. BALLESI, La sentenza n. 1269/2025 della Corte di cassazione ed i limiti all’acquisizione nel processo penale della messaggistica istantanea mediante screenshot, in Giur. pen., 25/02/2025); Cass., sez. V, sent. 8 novembre 2024, n. 2137 (ancora sul tema della circolazione della prova transnazionale, post sent. ss.uu. sky-ecc); Corte giust. UE, Grande Sezione, 04 ottobre 2024, C-548/21, per un’analisi della pronunzia, sia consentito un rimando a P. RAUCCI, Le condizioni per l’accesso ai dati del cellulare per il diritto europeo, in Arch. pen. web, 2, 2025; Corte giust. UE, 30 aprile 2024, C-670/22, M.N. (caso Encrochat).
[2] Sui rapporti tra Intelligenza artificiale e processo penale si rinvengono numerosi scritti in dottrina, tra cui si segnalano: G. CANZIO, Intelligenza artificiale, algoritmi e giustizia penale, in Sis. pen., 08/01/2021; G. UBERTIS, Intelligenza artificiale e giustizia predittiva, in Sis. pen., 16/10/223; Id., Perizia, prova scientifica e intelligenza artificiale nel processo penale, in Sis. pen., 03/06/2024; A. BALSAMO, L’impatto dell’intelligenza artificiale nel settore della giustizia, in Sis. pen., 22/05/2024; L. LUPARIA, La promessa della giustizia tecnologica, in Sis. pen., 01/04/2024; M. MENNA, Intelligenza artificiale e controllo contenutistico delle “forme” di produzione dei suoi outputs conoscitivi, in Arch. pen. web., 3, 2024; O. MAZZA, Distopia del processo artificiale, in Arch. pen. web., 1, 2025; S. QUATTROCOLO, Intelligenza artificiale e processo penale: le novità dell’AI ACT, in Dir. difesa, 16/01/2025; M. GIALUZ, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti ed Europa, in Dir. pen. cont., 29/05/2019; A. SCALFATI, IA e processo penale: prospettive d’impiego e livelli di rischio, in Proc. pen. giust., 6, 2024; M. TORRE, Il Regolamento europeo sull’intelligenza artificiale: i profili processuali, in Proc. pen. giust., 6, 2024; F.R. DINACCI, Intelligenza artificiale tra quantistica matematica e razionalismo critico: la necessaria tutela di approdi euristici, in Proc. pen. giust., 6, 2022.
[3] Per una disamina degli strumenti, cfr. G. PADUA, Intelligenza artificiale e giudizio penale: scenari, limiti e prospettive, in Proc. pen. giust., 6, 2021.
[4] Su questo tema, cfr. E. SACCHETTO, La prova biometrica, in La prova scientifica, a cura di C. CONTI – A. MARANDOLA, Milano, 2023, p. 243 ss.
[5] La prassi giudiziaria sul punto è pacifica; tra le ultime, cfr. Cass., sez. VI, 7 febbraio 2023, n. 10910.
[6] Definito da AI Overview (e dunque da essa stessa) come: <<un tipo di intelligenza artificiale addestrato su enormi quantità di dati testuali per comprendere, elaborare e generare linguaggio umano. Questi modelli sono capaci di svolgere svariati compiti, come rispondere a domande, tradurre lingue, scrivere testi creativi e riassumere informazioni. Grazie a reti neurali avanzate e a un’architettura chiamata Transformer, gli LLM possono cogliere le sfumature e i modelli del linguaggio per produrre risposte coerenti e pertinenti>>.
[7] M. MENNA, La giuria elettiva di esperti nel processo penale, Giappichelli, 2017, p. 174, ed ivi nota 1.
[8] Sulla fase di ammissione della prova, cfr., tra gli altri, R. ADORNO, L’ammissione della prova in dibattimento, Torino, 2012, passim; P. FERRUA, F.M. GRIFANTINI, G. ILLUMINATI, R. ORLANDI, La prova nel dibattimento penale, Torino, 2010, passim.
[9] Si afferma in dottrina che <<il giudice non può interferire sul piano dell’impulso probatorio con l’iniziativa dei soggetti in lite perchè altrimenti sostituirebbe la sua proposta valutativa a quella delle parti>>, così M. MENNA, art. 190 c.p.p., in Atti processuali penali. Patologie, sanzioni, rimedi, diretto da G. SPANGHER, Milano, p. 840.
[10] Così M. MENNA, art. 187 c.p.p., in Atti processuali penali. Patologie, sanzioni, rimedi, cit. p. 810.
[11] G. UBERTIS, La prova penale, profili giuridici ed epistemologici, Torino, 1995, p. 61.
[12] P. TONINI, La prova penale, Padova, 2000; C. QUAGLIERINI, art. 190, in Codice di procedura penale commentato, a cura di A. GIARDA – G. SPANGHER, vol. I, p. 1317.
[13] Così M. MENNA, art. 187 c.p.p., cit., p. 814.
[14] Brocardo latino che significa “invano si prova ciò che, una volta provato, non ha rilevanza”; così G. UBERTIS, voce Prova, II, Teoria generale del processo penale, in Enc. Giur., XXV, Roma, 1991, pag. 8.
[15]Ibidem. Così anche M. MENNA, art. 190 c.p.p., cit., pag. 842.
[17]M. MENNA, La giuria elettiva di esperti nel processo penale, cit., p. 176 ed ivi nota a piè pagina n. 4.
[18] Sul punto, cfr. anche M. MENNA, art. 187 c.p.p., cit., pag. 815. Vieppiù, sulla necessità che il giudice mantenga un atteggiamento neutrale ed oggettivo rispetto alle proiezioni probabilistiche di parte affacciate con le domande di prova cfr., già, M. MENNA, art.190 c.p.p., cit., passim. Sul fatto che il giudice non possa interferire con le prospettive ricostruttive dei contendenti elaborando ed affiancando proprie regole inferenziali di tipo scientifico o esperienziale a quelle avanzate dalle parti, perché altrimenti si realizzerebbe alla fine della attività istruttoria sempre una contraddittorietà di risultati conoscitivi, cfr., già, Id., La motivazione del giudizio penale, Napoli, 2000, passim.
[19] Così A. SCALFATI – D. SERVI, Premesse sulla prova penale, in Trattato di procedura penale, 2, tomo I, a cura di G. SPANGHER, Utet, p. 35 e 36.
[20] Per uno studio sui criteri di ammissione della prova v., per tutti, G. ILLUMINATI, Ammissione ed acquisizione della prova nell’istruzione dibattimentale, in Aa.Vv., La prova nel dibattimento penale, Torino, 2005.
[21] Così G. UBERTIS, I criteri di ammissibilità probatoria, in Revista Brasileira de Direito Processual Penal, vol. 7, no. 1, 2021.
[22] In dottrina G. CANZIO, Prova scientifica, ragionamento probatorio e libero convincimento del giudice nel processo penale, in Riv. it. dir. proc. pen., 2003, 1193. C. CONTI, Iudex peritus peritorum e ruolo degli esperti nel processo penale, in Dir. proc. pen., 2008. S. LORUSSO, La prova scientifica, in La prova penale, diretto da A. GAITO, vol. I, Torino, 2008, p. 88 ss. P. TONINI, Il diritto delle prove penali, a cura di P. TONINI – C. CONTI, Milano, 2012, 297. In giurisprudenza, cfr. anche Cass., sez. IV, 17 settembre 2010, n. 43786, Cozzini; R. ADORNO, Perizia (dir. proc. pen.), in Enc. dir., Annali III, 2010, il quale sottolinea che <<la perizia è obbligatoria una volta che il giudice abbia verificato l’esistenza di un determinato tema di prova, per la cui adeguata verifica occorre svolgere indagini o acquisire dati o valutazioni che richiedono specifiche competenze tecniche, scientifiche o artistiche. L’introduzione nel processo penale delle conoscenze specialistiche, infatti, non può avvenire attraverso mezzi di prova diversi dalla perizia o dalla consulenza tecnica, in quanto ciò comporterebbe una operazione di torsione funzionale dei primi, che è certamente estranea al sistema>>.
[23] In punto di necessità che un pensiero tecnico-scientifico altamente specialistico non possa mai sostituirsi a quello del Giudice, cfr. F.R. DINACCI, Neuroscienze e processo penale: il ragionamento probatorio tra chimica valutativa e logica razionale, in Proc. pen. giust., 2, 2016, il quale – trattando delle neuroscienze applicate al processo penale, ma qui mutatis mutandis l’esigenza di fondo resta la medesima – avvertiva di <<tenere alta la guardia rispetto al pericolo che il sapere neuroscientifico si sostituisca a quello del giudice, dovendo lo stesso, sul piano del metodo, essere verificato attraverso l’attività confutazionista del contraddittorio. Solo così il giudice può mantenere inalterata la sua funzione di giudizio e non procedere a indebite abdicazioni in favore di teorie scientiste con “ritorni” di deriva neopositivistica>>.
[24] Si esprime così L. PRESSACCO, Gli elementi di prova generati o raccolti tramite intelligenza artificiale. Considerazioni metodologiche, in Indagini e prove nella società digitale questioni attuali e prospettive future, a cura di G. DI PAOLO e L. PRESSACCO, 2025, Trento, p. 278.
[25] Cass., Sez. Un., 2 aprile 2019, n. 14426, per una sintesi della decisione, cfr. la sezione Ultimissime, in Dir. proc. giust., reperibile al link https://www.processopenaleegiustizia.it/sezione-unite-2-aprile-2019-n-14426
[26] Sulla prova scientifica, O. DOMINIONI, La prova penale scientifica, Milano, 2005; ID., In tema di nuova prova scientifica, in Dir. pen. proc. 2001, p. 1061; G. CANZIO, Prova scientifica, ragionamento probatorio e libero convincimento del giudice, cit., p. 1193; P. TONINI, Prova scientifica e contraddittorio, 2003, p. 1459; C. BRUSCO, Il vizio di motivazione nella valutazione della prova scientifica, 2004, p. 1142; M. TARUFFO, La prova scientifica nel processo civile, in Riv. trim. dir. proc. civ., 2005, pp. 1079 ss.; G. CANZIO, Prova scientifica, ricerca della “verità” e decisione giudiziaria nel processo penale, in AA.VV., Decisione giudiziaria e verità scientifica, Quaderno n. 8 della Riv. trim. dir. proc. civ., 2005, p. 55-79 e in AA.VV., Scienza e causalità, a cura di C. DI MAGLIE E S. SEMINARA, Padova, 2006, p. 143-166; F. CAPRIOLI, La scienza “cattiva maestra”: le insidie della prova scientifica nel processo penale, in Cass. pen. 2008, p. 3520; S. LORUSSO, Investigazioni scientifiche, verità processuale ed etica degli esperti, in Dir. pen. proc. 2010, p. 1345.
[27] Nel medesimo senso, v. M. GIALUZ, Intelligenza artificiale e diritti fondamentali in ambito probatorio, in AA.VV., Giurisdizione penale, intelligenza artificiale ed etica del giudizio, Milano, 2021, p. 61 ss.; L. PRESSACCO, Gli elementi di prova generati o raccolti tramite intelligenza artificiale, cit., pag. 277.
[28] Criteri enunciati nel 1993 dalla Corte Suprema statunitense nella sentenza Daubert v. Merrel Dow Pharmaceuticals, Inc., 509 US 579 (1993).
[29] Cass., sez. IV, 17 settembre 2010, n. 43786, Cozzini.
[30] Così, G. CANZIO, Intelligenza artificiale, algoritmi e giustizia penale, in Sis. pen., 8 gennaio 2021.
[31] Sent. Corte EDU, Dan c/ Moldavia, 05/07/2011.
[32] Per una disamina approfondita, cfr. E.M. CATALANO, Logica della prova, statistical evidence e applicazione della teoria delle probabilità nel processo penale, in Dir. pen. cont., 4, 2013, pagg. 132 e ss.; M. MENNA, Logica e fenomenologia della prova, Napoli, 1992; G. ROSSI, Logica ed epistemologia della prova penale, in Metodo e processo. Una riflessione filosofica, a cura di S.C. SAGNOTTI, Margiacchi-Galeno Editrice, 2005.
[33] Cfr. L. LANZA, Il processo come “arte” di pesare le prove, in La prova scientifica nel processo penale, a cura di L. DE CATALDO NEUBURGER, Padova, 2007, p. 237. P. RIVELLO, Il processo penale di fronte alle problematiche dell’età contemporanea. Logiche processuali e paradigmi scientifici, Torino, 2010, 74.
[34] In questi termini F.M. IACOVIELLO, Motivazione della sentenza penale, in Enc. dir. Agg., vol. IV, Milano, 2000, 755. G. TUZET, Prove esperte e oneri probatori, in Ragion pratica, 2021, 1, p. 229 ss.; M. MIRAGLIA, La ricerca della verità per condannare ed assolvere. Il test del DNA e l’esperienza statunitense, in Dir. proc. pen., 2003, p. 1560. O. DOMINIONI, La prova penale scientifica. Gli strumenti scientifico-tecnici nuovi o controversi e di elevata specializzazione, Milano, 2005. L. LUPARIA, La disciplina processuale e le garanzie difensive, in Investigazione penale e tecnologia informatica, a cura di LUPARIA-ZACCARDI, Milano, 2007, p. 143; E. De Paolis, Prova scientifica e scorciatoie cognitive, in Arch. pen., 1, 2025, p. 4. Per la giurisprudenza, Cass., Sez. Un., 28 gennaio 2019, n. 14426; Cass., sez. V, 27 marzo 2015, n. 36080, Rv. 264860.
[35] Cass., Sez. Un., 11 settembre 2002, n. 30328, Franzese. Per un commento C. CONTI, Evoluzione della scienza e ruolo degli esperti nel processo penale, in Medicina e diritto penale, a cura di CANESTRARI-GIUNTA-GUERRINI-PADOVANI, 2009, p. 335 ss.
[36] Anche G. CANZIO, Le massime di esperienza e il ragionamento probatorio, in DisCrimen, 1/7/2019, p. 4, afferma che <<L’art. 546, comma 1 lett. e), cod. proc. pen. pretende infatti che il giudice, all’esito del contrad-dittorio, si confronti anche con le prove contrarie e con le ipotesi antagoniste di ri-costruzione del fatto storico, dirette a falsificare l’ipotesi accusatoria, e spieghi le ra-gioni per le quali queste non sono attendibili>>.
[37] O. DI GIOVINE, Il concetto scientifico e giuridico di probabilità, in La prova scientifica nel processo penale, loc. cit., p. 205, sottolinea il rischio che la prova per esclusione divenga una scorciatoia finalizzata ad invertire l’onere della prova. Sul punto anche P. TONINI, La sentenza di Perugia come occasione di ripensamento sul metodo scientifico di conoscenza, in L’assassinio di Meredith Kercher, a cura di M. MONTAGNA, Roma, 2012, p. 35; E. De Paolis, Prova scientifica e scorciatoie cognitive, cit., p. 5.
[38] Da qui il problema della opacità dell’algoritmo e della sua spiegabilità. La dottrina è unanime, cfr. a mero titolo esemplificativo G. LO SAPIO, La black box: l’esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione, in www.federalismi.it, 16, 2021, 117 ss. Sul tema, riecheggiano le parole di O. DOMINIONI, La prova penale scientifica, cit., 69, il quale osserva che «non è consentito che nella funzione probatoria si usino apparati conoscitivi insuscettibili di controllo ad opera del giudice e delle parti». E. DE PAOLIS, A carte scoperte su intelligenza artificiale e processo penale. Prospettive di indagine, in Arch. pen. web., 2025, 2, p. 21. Tra l’altro, nell’ottica di un’ipotetica valutazione degli esiti peritali, la programmazione della macchina servente non potrà prescindere dai criteri assiologicamente connaturati al più alto standard di certezza probatoria, accessibili per il tramite di sistemi di certificazione a soggetti indipendenti, primi tra tutti i giudici; sul punto cfr. G. UBERTIS, Intelligenza artificiale, giustizia penale, controllo umano significativo, in Sis. pen., 11/11/2020, p. 14 ss. In giurisprudenza, per il Consiglio di Stato, il ricorso a «procedure “robotizzate”» non può costituire «motivo di elusione dei princìpi che conformano il nostro ordinamento», nello specifico di imparzialità, pubblicità e trasparenza, tutti violati a ragione dell’impossibilità di comprendere il risultato generato dall’algoritmo (cfr. Cfr. Cons. St., Sez. VI, 8 aprile 2019, n. 2270, in Guida dir., 2019, 19, 16, relativamente all’utilizzo dell’algoritmo nella formazione delle graduatorie per l’assegnazione delle sedi di servizio ai docenti della scuola secondaria di secondo grado).
[39] Così G. UBERTIS, Perizia, prova scientifica artificiale nel processo penale, cit., p. 2.
[40] Sul punto anche A. SCALFATI, IA e processo penale, cit., p. 1405, afferma che <<c’è un problema di linguaggi: occorre verificare se e in quale grado la nomenclatura processuale può tradursi esattamente in quella informatica e viceversa; s’intuisce agevolmente che, a tal proposito, l’eventuale difetto di corrispondenza è in grado di generare pericolosi disallineamenti tra i frutti della mente umana e quelli dell’intelligenza artificiale>>.
[41] L. PRESSACCO, Gli elementi di prova generati o raccolti tramite intelligenza artificiale, cit., p. 279 ed ivi alle note 15 e 16.
[42] K. LIGETI, AI Evidence: Ensuring a Fair Trial in the Digital World, in M. BERGSTRÖM, V. MITSILEGAS (eds.), EU Law in the Digital Age, Oxford-. Dublin, 2025, p. 233.
[43] S. QUATTROCOLO, Prova e intelligenza artificiale, Milano, 2023, p. 493.
[45] Fenomeno così descritto dalla Technology and Privacy Unit of the European Data Protection Supervisor (EDPS): <<nonostante il crescente utilizzo dell’IA, molti di questi sistemi funzionano in modo poco trasparente sia per chi fornisce i sistemi di IA (“fornitori”), sia per chi li implementa (“implementatori”), sia per chi è interessato dal loro utilizzo. Nel complesso ambito dei sistemi di IA, spesso nemmeno i fornitori di questi sistemi sono in grado di spiegare le decisioni e i risultati dei sistemi che hanno creato>>, in EDPS TechDispatch on Explainable Artificial Intelligence, reperibile al link https://www.edps.europa.eu/system/files/2023-11/23-11-16_techdispatch_xai_en.pdf
[46] Tale precisazione è d’obbligo, considerato che secondo la EDPS TechDispatch on Explainable Artificial Intelligence, cit., <<L’intelligenza artificiale spiegabile (XAI) è la capacità dei sistemi di IA di fornire spiegazioni chiare e comprensibili delle loro azioni e decisioni. Il suo obiettivo principale è rendere comprensibile agli esseri umani il comportamento di questi sistemi, chiarendo i meccanismi alla base dei loro processi decisionali.>>, sicchè tale “spiegazione” sarebbe fornita dall’IA medesima.
[47] E. DE PAOLIS, A carte scoperte su intelligenza artificiale, cit., p. 30-31.; A. GAITO, Aspetti problematici in tema di prove, in Procedura penale e garanzie europee, a cura di A. GAITO, Torino, 2006, p. 96.
[48] Per G. CANZIO, Le massime di esperienza, cit. p. 3, <<I criteri inferenziali fanno dunque da “ponte” fra l’elemento di prova e il risultato probatorio>>.
[49] Secondo la Cassazione, esse sono qualificabili come generalizzazioni empiriche indipendenti dal caso concreto; fondate su ripetute esperienze ma autonome ad esse e perciò valevoli per nuovi casi; tratte, con procedimento induttivo, dall’esperienza comune, conformemente ad orientamenti largamente diffusi nella cultura e nel contesto spazio-temporale in cui matura la decisione, in quanto non si risolvano in semplici illazioni o in criteri meramente intuitivi o addirittura contrastanti con conoscenze e parametri riconosciuti e non controversi; così Cass., sez. IV,08 ottobre 2021, n. 36524.
[50] F. FALATO, Il giudice come utente euristico nel ragionamento induttivo basato sul senso comune. Soluzioni di debiasing per assicurare l’igiene decisionale, in Arch. pen. web, 2, 2025, p. 9.
[51] Sul tema, nel complesso, C. K. MOREWEDGE, D. KAHNEMAN, Associative Processes in Intuitive Judgement, in Trends in Cognitive Sciences, 14, 2010, p. 435-440.
[52] F. FALATO, Il giudice come utente euristico nel ragionamento induttivo, cit., p. 10.
[54] Così M. MENNA, La flessibilità dell´immediatezza per il vincolo al contraddittorio della formazione delle massime d´esperienza, in Proc. pen. giust., 5, 2021, contrariamente a chi ritiene che la formazione dei criteri inferenziali e quindi dei risultati di prova posti a base della decisione sia appannaggio esclusivo dell’organo giudicante che in tutta autonomia dalle proposte argomentative dei contendenti possa non in termini logico-formali, bensì attraverso un attivo ragionamento probabilistico, discostarsi dall’interpretazione data dalle parti agli elementi scaturiti dall’acquisizione. Su tale ultima tradizionale ottica interpretativa della formazione delle massime d’esperienza cfr., per tutti, M. NOBILI, Nuove polemiche sulle cosiddette “massime d’esperienza”, inRiv. it. dir. proc. pen.,1969, passim.
[55] G. CANZIO, Le massime di esperienza, cit., pag. 5, fa menzione della nota sent. Cass., 6 novembre 1998 n. 1636 (in tema di violenza sessuale subita da chi indossa i jeans) definendola <<arbitraria, siccome priva di qualunque statuto epistemico, di ogni affidabilità dal punto di vista pratico e fattuale>>.
[56] Ove, secondo G. CANZIO, Le massime di esperienza, cit., p. 5, <<A volte si tratta di una volgarizzazione delle leggi scientifiche, altre volte si prescinde completamente dalla base scientifica del sapere. Penso alla prova del dolo, della premeditazione, del tentativo, dell’accettazione o meno del rischio di un’azione o all’impervio scrutinio dell’imputabilità, per cui vanno ricostruite le operazioni selettive e deliberative della mente dell’uomo.>>.
[58] Così, tra i vari, cfr. F.R. DINACCI, Intelligenza artificiale tra quantistica matematica e razionalismo critico, cit., ove secondo l’A. evidenziandosi l’incertezza dell’indizio frutto di tale metodologia (non certezza dunque), unita alla difficoltà di verificare i modi di formazione dell’algoritmo predittivo, si impone un controllo umano affidato a quel razionalismo critico che ispira la funzione cognitiva del processo.
[59] M. MENNA, Intelligenza artificiale e controllo contenutistico delle “forme” di produzione dei suoi outputs conoscitivi, in Arch. pen., 2024, 3, secondo cui (in abstract) <<In futuro si potrà tentare di sindacare meglio anche gli stati computazionali interni delle forme di produzione conoscitiva dell’intelligenza artificiale mediante sensori che restituiscano la fotografia delle connessioni delle reti neurali dell’IA in associazione alle progressive configurazioni conoscitive che si creino nel processo di elaborazione degli outputs della IA>>.
[60] F. CORDERO, Procedura penale, IX ed., Milano, 2012, p. 785, precisa che il perito è oggi «organo utile alle parti prima che al giudice; sugli argomenti esorbitanti dal consueto scibile apporta le premesse necessarie al contraddittorio». P. CORSO, voce Codice di procedura penale, in Dig. disc. pen., III, Agg., I, Torino, 2005, p. 173.
[61] Sul punto, cfr. F.R. DINACCI, Il dibattimento tra organizzazione ed euristica processuale, in Arch. pen. web, 2023, 3.
[62] Il rapporto tra il concetto di evidenza e, quindi, di insuperabilità del dubbio nell’ottica di una cognizione “quantitativa” è approfondito anche in M. MENNA, La salvezza dell’interpretazione non discrezionale del giudice dibattimentale attraverso l’introduzione della “giuria elettiva di esperti”, in Dir. pen. e proc. 2021, passim; sulla differenza tra dubbi “quantitativi” e “qualitativi” rispetto all’utilizzo dell’intelligenza artificiale, cfr. M. MENNA, Intelligenza artificiale e controllo contenutistico delle “forme” di produzione dei suoi outputs conoscitivi, 3, 2024, passim.
[63] Cfr. R.E. KOSTORIS, Una grave mistificazione inquisitoria: la pretesa fede privilegiata del responso del consulente tecnico dell’accusa, in Sis. pen., 28 settembre 2020; O. DOMINIONI, Perizia. Consulenza tecnica, in AA.VV., Procedura penale, IX ed., 2024, Torino, p. 348.
[64] Così, E. DE PAOLIS, A carte scoperte su intelligenza artificiale, cit., p. 19; cfr. anche L. FERRAJOLI, Contro la giurisprudenza creativa, in Quest. giust., 2, 2016. Id., Giustizia e politica. Crisi e rifondazione del garantismo penale, Roma-Bari, 2023, p. 80-110.
[65] Sui due modelli di razionalità, cfr. M. MENNA, Intelligenza artificiale e controllo contenutistico delle “forme” di produzione, cit., passim.
[66] Sulla problematica qualificazione di tale tipologia di prova, Cfr., S. QUATTROCOLO, L’ammissione della prova alla luce della rivoluzione digitale, in Corderiana. Sulle orme di un maestro del rito penale, a cura di E.M. CATALANO – P. FERRUA, Torino, 2023, p. 163 ss.; G. UBERTIS, Perizia, prova scientifica e intelligenza artificiale nel processo penale, in La consulenza tecnica d’ufficio. Funzione, oggetto, sindacabilità, a cura di S. PATTI, R. POLI, Torino, 2024, p. 181 ss. In termini generali, v. anche M. CAIANIELLO, L’ammissione della prova scientifica nel processo penale italiano, in Prova scientifica e processo penale, a cura di G. CANZIO, L. LUPARIA DONATI, Milano, 2022, p. 189 ss.
[67] Per gli strumenti tecnologici già in uso nelle indagini, cfr. G. PADUA, Intelligenza artificiale e giudizio penale, cit., pag. 1495 e ss.
[68] Sul sito web “Osservatorio di Digital evidence nel procedimento penale” di Luca Lupària con Marco Pittiruti, si legge «L’impiego della tecnologia nel processo penale per l’accertamento di fatti di reato rappresenta un dato oramai noto: dai nuovi ambiti scientifici si attinge al fine di creare nuove tipologie di prova e nuovi strumenti investigativi (…)>>.
[69] Si richiama quanto già supra esposto ed indicato da una parte della dottrina, che vede tale attività come confluibile nell’alveo della prova scientifica, cfr. supra alla nota 27.
[70] S. DE FLAMMINEIS, Le sfide della prova digitale: sequestri, chat, processo penale telematico e intelligenza artificiale, in Sis. pen., 8/3/24, pag. 21.
[71] Così, F. CASSIBBA, Indagini tecnologicamente assistite e tecniche investigative speciali. Note introduttive, in Indagini e prove nella società digitale, loc. cit., p. 116.
[72] G. CANZIO, Intelligenza artificiale, algoritmi e giustizia penale, cit.
[73] F. FALATO, L’inferenza generata dai sistemi esperti e dalle reti neurali nella logica giudiziale, in Arch. pen. web, 2020, 2, p. 15 ss.
[74] Così A. SCALFATI, IA e processo penale, cit., p. 1408.
[75] L. CAMALDO, Intelligenza artificiale e investigazione penale predittiva, in Riv. it. dir. proc. pen., 2024, p. 245 ss.
[76] Così A. SCALFATI, IA e processo penale, cit. p. 1408.
[77] Sul punto, cfr. Corte cost., sent. n. 34 del 1973 ove si è ravvisata l’esistenza di “divieti” probatori ricavabili in modo diretto dal dettato costituzionale. Per la giurisprudenza di legittimtià, cfr. anche Cass., sez. VI, 14 aprile 2023 n. 15836 e la più recente Cass., sez. VI, 11 settembre 2024, n. 39548. In dottrina, C. MAINARDIS, L’inutilizzabilità processuale delle prove incostituzionali, in Quad. cost., 2, 2020. Nei rapporti tra prova incostituzionale e “inutilizzabilità derivata”, N. GALANTINI, L’art. 191 c.p.p. a confronto con la ‘inutilizzabilità derivata’ in un nuovo giudizio costituzionale, in Sis. pen., 18/01/2022, al punto 3; Id., Alla ricerca della ‘inutilizzabilità derivata’, Note a margine di Corte cost., sent. 3 ottobre 2019, n. 219, e a Corte cost., sent. 26 novembre 2020 n. 252, in Sis. pen., 24/03/2021, passim.
[78] Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale), pubbl. sulla Gazzetta Ufficiale dell’Unione Europea, Serie L, 12 luglio 2024.
[79] Nella classificazione quale sistema ad alto rischio dell’amministrazione della giustizia, l’AI ACT si pone nel solco dei principi della Carta Etica per l’uso dell’Intelligenza Artificiale nei sistemi giudiziari, adottata dalla Commissione Europea per l’Efficienza della Giustizia (CEPEJ) nel 2018, documento in cui si enfatizza l’uso dell’IA come strumento di supporto e non sostitutivo del ruolo del giudice.
[80]R. D’Angiolella, Giustizia e intelligenza artificiale tra l’AI ACT e il disegno di legge italiano. L’insostituibilità del giudice, il metodo e l’argomentazione giuridica, in www.giustiziainsieme.it, 30/07/25.
[81] Legge 23 settembre 2025, n. 132, recante <<Disposizioni e deleghe al Governo in materia di intelligenza artificiale>>, in vigore dal 10/10/2025, in G.U. 25/09/2025.
[82] Per quanto più di ns. interesse si fa riferimento all’art. 15, L. 132/2025, rubricato <<Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria>>.
[83] Si è detto in dottrina che nel fare luce su verità e falsità del racconto, le forme di IA interessate (alludendosi all’impiego delle moderne tecniche neuroscientifiche, si pensi alla risonanza magnetica funzionale (FMRI), allo scopo di “certificare” l’attendibilità della prova a fronte del graduale peggioramento delle capacità mnestiche della mente umana) mirano a “blindare” la credibilità della fonte dichiarativa, così E. GUIDO, Intelligenza artificiale e procedimento penale: ragionando di valutazione del rischio de libertate, in Arch. pen. web., 2023, 1, pag. 2, ed ivi in nota 5; cfr. anche L. LUPÁRIA, Processo penale e scienza informatica: anatomia di una trasformazione epocale, in Investigazione penale e tecnologia informatica. L’accertamento del reato tra progresso scientifico e garanzie fondamentali, a cura di LUPÁRIA-ZICCARDI, Milano, 2007, p. 129, il quale sottolinea che sebbene tale ambito sia ritenuto di esclusiva competenza giurisdizionale, con l’irrompere nel processo penale della prova scientifica diventa aspetto da sottoporre al vaglio dell’esperto. Il tema dei software di intelligenza artificiale come ausilio al giudice nell’attività interpretativa è oggetto di riflessione anche da parte di M. CATERINI, Il giudice penale robot, in www.lalegislazionepenale.eu, 19 dicembre 2020, p. 12 ss.
[84] Secondo G. CANZIO, Le massime di esperienza, cit., p. 2-3 <<Logica e diritto positivo segnano i “percorsi di verità” per il giudice. (…) Solo se il ragionamento probatorio è legato a criteri inferenziali solidi, la conferma è valida. Se i criteri inferenziali sono invece deboli o addirittura arbitrari, resta il dubbio ragionevole circa la conferma dell’accusa. Sul vaglio di affidabilità dei criteri in-ferenziali si gioca la validità del ragionamento probatorio e quindi la tenuta logica della motivazione di una sentenza, la cui illogicità, per contro, ne comporta la cassazione ai sensi dell’articolo 606, comma 1 lett. e), cod. proc. pen.>>.
[85] A SCALFATI, IA e processo penale: prospettive d’impiego e livelli di rischio, cit., p. 1407.
[86] R. D’ANGIOLELLA, Giustizia e intelligenza artificiale, cit.
[87] Sul tema dell’eccessivo affidamento alle risposte algoritmiche, F.R. DINACCI, Intelligenza artificiale tra quantistica matematica e razionalismo critico, cit., p. 1626.
[88] In questo senso, F. CASSIBBA, Indagini tecnologicamente assistite e tecniche investigative speciali, in Indagini e prove nella società digitale questioni attuali e prospettive future, loc. cit., pag. 123, il quale menziona un articolo comparso sul New York Times, di Mike Conley il quale rammenta che le «persone non sono brave ad abbinare i volti. Le macchine invece sì, e soprattutto non si stancano». Cfr., sul punto, J. NIEVA-FENOLL, Intelligenza artificiale e processo, Torino, Giappichelli, 2019, p. 109, secondo cui la neutralità della macchina alle emozioni umane sarebbe ex se garanzia di imparzialità. In senso contrario, insiste sul carattere antiegualitario degli algoritmi V. MANES, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in Intelligenza artificiale. Il diritto, i diritti, l’etica, a cura di U. RUFFOLO, Milano, 2020, p. 557 ss.
[89] Così, A. SCALFATI, IA e processo penale: prospettive d’impiego e livelli di rischio, cit., abstract.
[90] Tale definizione è rinvenibile al link: https://www.osservatori.net/blog/artificial-intelligence/come-funziona-ai-generativa-significato-applicazioni/
[91] Così, G. CANZIO, Intelligenza artificiale, algoritmi e giustizia penale, cit.
[92] Si pone questo problema, G. CANZIO, Intelligenza artificiale, algoritmi e giustizia penale, cit.
[93] Definizione resa dal A. CARCATERRA (ordinario di Ingegneria Meccanica applicata alle macchine, Università di Roma “La Sapienza”), al Convegno <<Gli strumenti dell’intelligenza artificiale e l’attività giudiziaria>>, presso la Corte di Cassazione, 30/09/2025; Convegno registrato e reperibile al link: https://www.youtube.com/live/bDIRm-uAFIQ
[94] Come rileva giustamente A. SCALFATI, IA e processo penale, cit., p. 1407, ed ivi, in nota 14, il bias dell’algoritmo è fortemente condizionato dalla selezione all’ingresso delle informazioni (sistema c.d. del garbage-in, garbage-out), in argomento, v. C. BURCHARD, L’intelligenza artificiale come fine del processo penale? Sulla trasformazione algoritmica della società, in Riv. it. dir. proc. pen., 2019, 4, p. 1933; P. SEVERINO, Intelligenza artificiale e diritto penale, in Intelligenza artificiale. Il diritto, i diritti, l’etica, cit., p. 541.
[95] A. SCALFATI, IA e processo penale, cit., p. 1405, ed ivi, in nota 2, richiamando il tema della opacità dell’algoritmo e la discrezionalità dei programmatori; su tale ultimo punto, ex multis, L. MALDONATO, Algoritmi predittivi e discrezionalità del giudice: una nuova sfida per la giustizia penale, in Dir. pen. cont., 2019, 2, p. 404 ss.; C. PARODI – V. SELLAROLI, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, in Dir. pen. cont., 2019, 6, p. 54.
[96] M. HEIKKILÄ, This is where the data to build AI comes from, MIT Technology Review, dicembre 2024, riferisce che un gruppo di oltre 50 ricercatori provenienti sia dal mondo accademico che da quello industriale, voleva sapere da dove provengono i dati per costruire l’intelligenza artificiale. Hanno esaminato quasi 4.000 set di dati pubblici che coprono oltre 600 lingue, 67 paesi e tre decenni. I dati provenivano da 800 fonti uniche e quasi 700 organizzazioni. I loro risultati, condivisi in esclusiva con MIT Technology Review, mostrano un tendenza preoccupante: le pratiche di gestione dei dati dell’IA rischiano di concentrare il potere in modo schiacciante nelle mani di poche aziende tecnologiche dominanti. All’inizio degli anni 2010, i set di dati provenivano da una varietà di fonti, afferma Shayne Longpre, ricercatore del MIT che partecipa al progetto. Non provenivano solo da enciclopedie e dal web, ma anche da fonti come trascrizioni parlamentari, teleconferenze e bollettini meteorologici. All’epoca, i set di dati dell’IA venivano selezionati e raccolti da diverse fonti per adattarsi alle singole attività. Poi, nel 2017, sono stati inventati i trasformatori, l’architettura alla base dei modelli linguistici, e il settore dell’IA ha iniziato a vedere prestazioni migliori con l’aumentare delle dimensioni dei modelli e dei set di dati. Oggi, la maggior parte dei set di dati dell’IA viene creata prelevando indiscriminatamente materiale da Internet. Dal 2018, il web è la fonte dominante per i set di dati utilizzati in tutti i media, come audio, immagini e video, e si è creato e ampliato un divario tra i dati raccolti e i set di dati più selezionati.
[97] Si riporta la conversazione con “Gemini” del 28/10/2025:
<<Da quale parte del mondo provengono i dati su cui ti sei addestrato?
I dati su cui sono stato addestrato provengono da una vasta gamma di fonti disponibili pubblicamente, come libri, articoli, siti web, enciclopedie e altre risorse di testo in diverse lingue e provenienti da tutto il mondo. Questo mi permette di avere una conoscenza generale su molte aree geografiche e culture, anche se non ho accesso a informazioni in tempo reale o dati riservati.
Ma a livello geografico, da dove vengono queste fonti? Da quali continenti in particolare?
Le fonti su cui sono stato addestrato provengono da diversi continenti, con una predominanza di contenuti in lingua inglese e da paesi come gli Stati Uniti, il Regno Unito, il Canada e altri paesi anglofoni. Tuttavia, ci sono anche molte fonti in altre lingue e provenienti da Europa, Asia, America Latina, Africa e Oceania. Questo approccio permette di avere una visione globale, anche se la maggior parte dei dati di addestramento è concentrata in alcune aree principali, principalmente in paesi con una forte presenza digitale e di contenuti online.
A livello percentuale quanti dati hai raccolto in America ed Europa rispetto all’Africa?
Non ho accesso a dati specifici o percentuali dettagliate riguardo alla provenienza geografica esatta dei dati utilizzati durante il mio addestramento. Tuttavia, in generale, la maggior parte dei contenuti digitali e delle fonti disponibili pubblicamente proviene da America ed Europa, che sono le regioni con una più ampia produzione di contenuti online e risorse digitali. Aree come l’Africa hanno una presenza molto inferiore in termini di quantità di dati disponibili, anche se stanno crescendo con l’aumento dell’accesso a Internet e delle risorse digitali. Pertanto, si può dire che la proporzione di dati provenienti da America ed Europa è significativamente più alta rispetto a quelli dall’Africa, ma senza cifre precise è difficile fornire una percentuale accurata.>>.