L’intelligenza artificiale nella giustizia civile tra esigenze di accelerazione e principio antropocentrico

Di Michela Morgese -

Sommario: 1. Introduzione. – 2. Il risk-based approach secondo l’AI Act. – 2.1. I sistemi destinati all’amministrazione della giustizia come sistemi “ad alto rischio”. – 3. La “human oversight” per la prevenzione o la riduzione del rischio. – 4. L’IA nel processo civile alla luce del principio antropocentrico. – 4.1. … Segue. Ipotesi applicative e limiti. – 5. Giustizia predittiva, certezza del diritto e prevedibilità delle decisioni. – 6. Decisione robotica ed effettività della tutela giurisdizionale. – 6.1. Trasparenza algoritmica ed esercizio del diritto di difesa nel procedimento decisionale automatizzato. – 7. L’intelligenza artificiale per l’efficientamento della giustizia civile. Profili di sintesi.

1.Introduzione.

Ulteriore conferma del continuo anelito verso una tutela dei diritti non soltanto effettiva, ma anche efficiente[1], sta nell’intersezione tra intelligenza artificiale (d’ora in avanti anche “IA”) e giustizia civile[2], oggetto di sempre più crescente attenzione normativa da parte delle istituzioni a livello interno e, prima ancora, sovranazionale.

Del resto, che l’impiego dell’intelligenza artificiale nel settore della giustizia possa sortire effetti benefici in termini di snellezza e, quindi, di efficienza[3] processuale non appare revocabile in dubbio: essa rappresenta, in generale, un valido ausilio e soprattutto nel settore della giustizia il suo utilizzo potrebbe condurre al risultato di una semplificazione delle attività alle quali è tenuta l’autorità giudiziaria.

Prima ancora dell’intelligenza artificiale, positivi riscontri in merito all’utilizzo, più semplicemente, dell’informatica applicata al processo (c.d. giurimetria) sono stati offerti, da oltre un decennio[4], sia pur non senza criticità[5], dal processo civile telematico[6]. A partire dalla sua introduzione, esso è stato via via valorizzato nel corso del tempo, sino agli ultimi approdi di cui alla c.d. “riforma Cartabia”[7]. Quest’ultima ha mostrato di ritenerne possibile l’impiego – nei limiti in cui siano rispettati determinati standard di tutela[8] – anche in materie delicate, come nel caso della tutela delle persone fragili: basti pensare alla possibilità, sia pur concepita in termini di extrema ratio, che l’udienza per l’esame dell’interdicendo/inabilitando o per la nomina di un amministratore di sostegno si svolga mediante collegamento audiovisivo a distanza[9] – declinazione dell’analoga possibilità prevista dall’art. 127-bis c.p.c. nell’ambito del rito ordinario di cognizione (eredità, dal canto suo, delle misure introdotte in via emergenziale nel corso della pandemia)[10].

Orbene, l’effetto potenzialmente benefico dell’impiego degli algoritmi dell’intelligenza artificiale[11] nel processo civile appare indiscutibile, specie nella misura in cui essa intervenga in funzione ausiliaria rispetto agli adempimenti demandati all’autorità giudiziaria e sul carico di lavoro in concreto dell’ufficio; cionondimeno, il suo utilizzo nel settore della tutela giurisdizionale potrebbe esporsi a criticità ora che ci si ponga nella prospettiva della effettività della tutela giurisdizionale. Quanto detto vale soprattutto con riferimento a quelle attività che più caratterizzano l’esercizio della funzione giudicante, cioè ai compiti valutativi e decisionali: un eventuale impiego dell’intelligenza artificiale con funzione, in buona sostanza, sostitutiva dell’autorità giudiziaria per la composizione eteronoma delle controversie solleva diverse criticità di natura etica, oltre che giuridica, che sono conseguenza, tra le altre, della tendenziale generalizzabilità – id est carenza di specificità e, quindi, di attinenza, oltre che di affidabilità – delle informazioni delle quali spesso si avvalgono gli strumenti in discorso e della loro non comprovata “coscienza critica”.

La riflessione solleva dunque nuove ipotesi applicative di vecchi problemi teorici, rinnovando l’interesse alla loro risoluzione[12], e rimanda alla necessità di individuare il confine entro il quale deve essere contenuto l’impiego dell’intelligenza artificiale nel settore, tra gli altri, della giustizia affinché esso possa essere considerato virtuoso. Si tratta di un limite superato il quale l’effetto benefico dell’intelligenza artificiale applicata al processo rischia di lasciare il posto a possibili distorsioni della tutela giurisdizionale, che non risulterebbero comunque giustificate dalla ricerca di una tutela efficiente.

2.Il risk-based approach secondo l’AI Act.

Un tentativo di arginare le problematiche implicate dall’utilizzo dei sistemi di IA nel settore della giustizia è stato compiuto dal legislatore europeo e, sulle sue orme, a livello nazionale. È infatti nel contesto sopra delineato, contrassegnato dalla necessità di una regolamentazione omnicomprensiva, ma, soprattutto, efficace per l’utilizzo dei sistemi di intelligenza artificiale, che si inseriscono gli interventi legislativi richiamati, al fine della individuazione delle best practices in materia[13].

Il riferimento è, nel primo caso, al regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, più sinteticamente noto come “AI Act[14], “che stabilisce regole armonizzate sull’intelligenza artificiale” e modifica una serie di regolamenti precedenti[15], al fine di promuovere lo sviluppo e la diffusione responsabili dell’intelligenza artificiale all’interno dell’Unione, individuando i potenziali rischi per la salute, la sicurezza e i diritti fondamentali dei cittadini; nel secondo, al disegno di legge italiano di cui all’a.s. n. 1146, che, per quanto riguarda il settore della giustizia, si pone sostanzialmente in linea rispetto alla normativa unionale[16].

Prendendo le mosse dal regolamento europeo, cronologicamente anteriore, in quanto pregiudiziale ad ogni ulteriore disamina, è ricoperto dalla suddivisione dei sistemi di intelligenza artificiale destinatari della disciplina ivi recata secondo un criterio di tipo orizzontale, basato sul “grado di rischio” di compromissione dei diritti fondamentali e delle libertà riconosciute e tutelate a livello europeo[17]. L’utilità di un “risk-based approach” in materia – ad instar di quello fatto proprio dal regolamento UE del 27 aprile 2016, n. 679, sulla protezione dei dati personali (più sinteticamente noto come “GDPR”) – era già stata messa in luce dalla ISO (International Organization for Standardization) e dalla IEC (International Electrotechinacal Commission), le istituzioni costitutive del sistema specializzato per la standardizzazione mondiale, alle quali si deve l’approvazione nel 2023 del primo standard internazionale dedicato alla gestione dei sistemi di intelligenza artificiale (c.d. norma ISO/IEC 42001:2023)[18].

L’approccio basato sul rischio[19] – seguito anche nella disciplina interna[20], soprattutto nel settore della pubblica amministrazione, che è chiamata ad analizzare i rischi associati all’impiego dei sistemi di intelligenza artificiale per assicurare che questi non provochino violazioni dei diritti fondamentali della persona o altri danni rilevanti[21] – individua quattro aree per l’impiego dell’intelligenza artificiale, secondo una gradazione ascendente, a ciascuna delle quali corrispondono obblighi, responsabilità e divieti equivalenti per chi sviluppa e chi utilizza (c.d. deployers) i sistemi in esame.

Vale la pena evidenziare come la scelta a favore di un sistema basato sul grado di possibile compromissione dei diritti tutelati dalle istituzioni europee, se intesa nel senso di un progressivo rafforzamento delle garanzie di tutela, comunque pretese, per i settori più “sensibili”[22], ben si comprende alla luce delle caratteristiche dei sistemi di intelligenza artificiale, alla disciplina dei quali è diretto il regolamento europeo. Infatti, coerentemente con la definizione di “AI system” offerta dall’OCSE nel 2023[23], la definizione di “sistema di IA”, di cui all’art. 3, n. 1) del regolamento – fatta propria anche dall’art. 2, comma 1, lett. a) del d.d.l. di cui all’a.s. n. 1146[24] – è invero quella di “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”[25].

Restando, dunque, a parte i tradizionali sistemi software o gli approcci di programmazione più semplici[26], caratteristiche fondamentali dei sistemi di IA che rientrano nell’ambito di applicazione del regolamento europeo sono la capacità inferenziale e l’adattabilità. La prima è intesa come l’attitudine del sistema a dedurre e generare concreti output, sulla base degli input che riceve, grazie alla progettazione di svariate tecniche che prevedono, ad esempio, modalità di funzionamento in autoapprendimento predisposte nell’ambito di processi di “machine learning”, progettati durante la “fase di costruzione” di un sistema di IA[27]. Questa comprende, dal canto suo, l’autonomia, con ciò intendendosi la capacità di funzionare senza l’intervento umano.

Al grado di autonomia del sistema, di livello variabile, corrisponde la “misura” dell’intervento manuale (rectius: umano) necessario, suscettibile di intervenire sia sotto forma di totale controllo, sia di indiretta e costante supervisione tecnica, per azionare la capacità della macchina di generare concreti output di previsioni, contenuti, raccomandazioni o decisioni in grado di influenzare ambienti fisici o virtuali. L’adattabilità, invece, indica la capacità di autoapprendimento del sistema in seguito alla sua diffusione, che consente al medesimo di cambiare durante l’uso. I sistemi di IA possono infatti essere utilizzati come elementi indipendenti (stand-alone) o come componenti di un prodotto, a prescindere dal fatto che il sistema sia fisicamente incorporato nel prodotto (sistema integrato) o che ne assista la funzionalità senza esservi incorporato (sistema non integrato)[28].

2.1. I sistemi destinati all’amministrazione della giustizia come sistemi “ad alto rischio”.

Ora, se buona parte dei sistemi di IA rientra nella categoria dei settori “a rischio minimo”[29] – che non esige l’osservanza di alcun obbligo ai sensi del regolamento – o, al più, a rischio specifico per la trasparenza[30] nei confronti di coloro i quali si interfacciano con il sistema (nel qual caso è sufficiente informare in modo comprensibile ed efficace gli utenti che stanno interagendo con una macchina ovvero etichettare determinati contenuti generati dall’IA come tali)[31] –, rispetto ai sistemi di intelligenza artificiale destinati all’amministrazione della giustizia occorre distinguere a seconda che questi siano impiegati con finalità accessoria ovvero sostitutiva del ruolo dell’autorità e degli uffici giudiziari[32].

I primi, infatti, non rientrano tra i sistemi di IA “ad alto rischio”[33]: il riferimento è a quei sistemi destinati ad attività puramente accessorie rispetto al ruolo dell’autorità giudiziaria, che non incidono sull’effettiva amministrazione della giustizia (si pensi all’anonimizzazione o alla pseudonimizzazione di decisioni, documenti o dati giudiziari). Più in generale, un sistema astrattamente qualificabile come “ad alto rischio”, in quanto rientrante tra quelli elencati dall’allegato III del regolamento, non è considerato tale se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale. Tale circostanza ricorre, alternativamente – ma sempre che non comporti rischio di profilazione di dati, nel quale caso è sempre considerato ad “alto rischio”[34] – quando il sistema di IA è destinato ad eseguire un compito procedurale limitato, a migliorare il risultato di un’attività umana precedentemente completata, a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti (senza essere finalizzato a sostituire o influenzare la valutazione umana precedentemente completata senza un’adeguata revisione umana) o, ancora, ad eseguire un compito preparatorio per una valutazione pertinente ai fini dei casi d’uso elencati nell’allegato III.

A parte queste ipotesi, sono, invece, considerati “ad alto rischio” – come tali, soggetti al rispetto di un apposito “sistema di gestione dei rischi”[35] – i sistemi di intelligenza artificiale destinati ad essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e di interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti (che vengono, cioè, impiegati per fare le veci di quello che è il ragionamento inferenziale dell’autorità giudiziaria, che poi culmina nella decisione finale). Lo stesso vale per gli strumenti utilizzati dagli organismi di risoluzione alternativa delle controversie, i cui esiti producano effetti giuridicamente vincolanti per le parti[36].

3.La “human oversight” per la prevenzione o riduzione del rischio.

Già inserito tra le linee guida etiche per un’IA affidabile sviluppate dal gruppo indipendente di esperti di alto livello sull’IA (HLEG) nominato dalla Commissione europea nel 2019[37], un ruolo centrale tra i criteri guida per lo sviluppo e l’impiego dei sistemi di intelligenza artificiale nei settori “ad alto rischio” è ricoperto dal parametro della c.d. human oversight o “sorveglianza umana”. Tale principio possiede una connotazione a sé stante tra quelli sui quali poggia il c.d. sistema di gestione del rischio, se si pensa che questi ultimi sono diretti, per lo più, verso la progettazione e lo sviluppo intrinseco dei sistemi di IA ad alto rischio, le tecniche utilizzate, i dati impiegati e la loro conservazione.

In proposito, è utile sottolineare come l’importanza di un approccio umano-centrico prenda le mosse dal rilievo – che, a sua volta, fonda la qualificazione come “ad alto rischio” dei sistemi di IA destinati ad operare per conto dell’autorità giudiziaria – in forza del quale l’utilizzo dell’intelligenza artificiale nel settore della giustizia, se può certamente offrire un sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, tuttavia, “non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana”[38]. Le istituzioni europee non hanno invero mancato di manifestare perplessità rispetto ad un eventuale sviluppo di sistemi di intelligenza artificiale in grado di funzionare con un intervento umano limitato o nullo nei settori ad alto rischio – dei quali il sistema della giustizia fa parte – nel timore che tale impiego possa determinare l’insorgere di gravi rischi, potenziali o reali, ai danni delle persone fisiche[39]. Il timore, in particolare, per quanto attiene al settore della tutela dei diritti, è che la “sostituzione” della macchina all’autorità giudiziaria possa pregiudicare il diritto ad un ricorso effettivo e ad un giudice imparziale, pregiudizio quanto mai attuale, se si pensa alle potenziali distorsioni, opacità ed errori intrinseci nell’utilizzo dei sistemi in esame da parte dell’autorità giudiziaria.

Il rimando alla previsione in forza della quale l’utilizzo di tali strumenti deve essere, sia pur secondo modalità variabili, governato o, più correttamente, supervisionato dalla persona umana – attraverso la previsione, in particolare, di un sistema di “interfaccia uomo-macchina adeguati durante il periodo in cui sono utilizzati”[40] – opera, dunque, come fattore di contenimento dei rischi per la lesione dei diritti fondamentali, della salute, della sicurezza, che sono insiti nell’automatismo con i quali i sistemi in esame operano[41].

La human oversight mira a garantire, quindi, il bilanciamento tra l’automatismo del sistema e l’esigenza di tutela dei diritti coinvolti nel suo utilizzo ed opera riportando alla persona il governo del primo nella fase, alternativamente, antecedente ovvero di impiego del sistema.

Infatti, nel primo caso tale intervento si manifesta sostanzialmente rimettendo al deployer (id est l’autorità giudiziaria) la scelta in merito all’utilizzo o meno del sistema di IA, che deve restare contenuto entro i limiti consentiti. Sotto tale profilo un ruolo centrale è riconosciuto allo stesso fornitore, che può prevedere misure integrate nel sistema di IA ad alto rischio prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile, salvo poi essere attuate dal deployer. Nel secondo “momento”, invece, l’approccio umano-centrico fa perno soprattutto sulla c.d. distorsione dell’automazione, cioè sulla capacità del deployer[42] di sottoporre a revisione critica i riscontri offerti dal sistema di IA, più tecnicamente l’attitudine di padroneggiare la possibile tendenza – che è insita nell’utilizzo dei sistemi in esame – a fare automaticamente o eccessivamente affidamento sull’output generato dall’algoritmo[43].

Accanto alla distorsione dall’automazione – che viene resa altrove con l’espressione “human in the loop[44] – si collocano, poi, secondo un criterio di alternatività, la possibilità per il deployer di comprendere le capacità e i limiti del sistema, di monitorarne il funzionamento (anche al fine di individuare e affrontare anomalie, disfunzioni e prestazioni inattese), di interpretarne correttamente, ignorarne, ribaltarne l’output o di interromperne il funzionamento mediante meccanismi di ‘arresto’ o “una procedura analoga che consenta al sistema di arrestarsi in condizioni di sicurezza”[45]. Si tratta, in buona sostanza, di un monito all’autorità giudiziaria affinché si ponga in una prospettiva critica rispetto alle risultanze del sistema, nel senso della loro sottoposizione a revisione o a “stress tests”.

Indicazioni in tal senso, del resto, erano state, già da qualche tempo, offerte dalle istituzioni europee: in particolare, vale la pena ricordare come la Carta etica per l’uso dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla Commissione europea per l’efficienza della giustizia (CEPEJ) nel dicembre del 2018, già stabilisse che il giudice dovrebbe poter controllare[46] in qualsiasi momento le decisioni giudiziarie e i dati utilizzati per produrre una decisione, mantenendo la possibilità di discostarsi dalle soluzioni proposte dall’IA, tenendo conto delle specificità del caso in questione[47].

In precedenza il divieto di adottare decisioni frutto di processi decisionali automatizzati era poi già stato previsto dal ricordato GDPR, che stabilisce il diritto dell’interessato di non essere sottoposto ad una decisione “che produca effetti giuridici che lo riguardino o incida significativamente sulla sua persona, basata unicamente sul trattamento automatizzato dei dati”[48], il diritto a conoscere l’esistenza di processi decisionali automatizzati[49] che lo riguardino[50] e, non meno importante, il principio di non discriminazione algoritmica[51].

Se all’epoca dell’entrata in vigore del GDPR non era ancora divenuta concreta la possibilità di un intervento dell’intelligenza artificiale nel settore della giustizia, cionondimeno questa diviene ora il settore elettivo di applicazione di quelle previsioni finalizzate a tutelare gli interessati dall’utilizzo di sistemi automatizzati fondati su algoritmi privi di coscienza critica, in grado di adottare decisioni suscettibili di incidere negativamente o comunque rilevanti rispetto ai diritti dei quali sono portatori e dei quali gli interessati non siano adeguatamente messi a conoscenza nel rispetto dei principi di spiegabilità e trasparenza.

Un approccio analogo, poi, è stato adottato oltreoceano[52], dove il Blueprint for an AI Bill of Rights (sulla scia del quale si collocano i successivi interventi), adottato nel 2022 dall’OSTP (The Office of Science and Technology Policy), annovera “human Alternatives, Consideration, and Fallback” tra i principi chiave per la salvaguardia dell’utilizzo dell’intelligenza artificiale. Più che essere equiparabile alla sorveglianza umana concepita a livello europeo, ove, come è emerso, l’intervento umano fa da governo rispetto all’utilizzo del sistema di IA, nel sistema statunitense[53] – che offre una definizione dei sistemi di intelligenza artificiale quali sistemi che utilizzano input basati sulla macchina e sull’uomo “to (…) abstract such perceptions into models through analysis in anautomated manner[54] – tale “garanzia di umanità” assume piuttosto il significato un’alternativa all’intelligenza artificiale, essendo in effetti intesa come la possibilità “to opt out, where appropriate, and have access to a person who can quickly consider and remedy problems you encounter[55].

4.L’IA nel processo civile alla luce del principio antropocentrico.

Nel quadro sopra delineato, contrassegnato dalla preoccupazione del legislatore europeo di mantenere la centralità della persona umana nell’utilizzo dei sistemi di intelligenza artificiale (soprattutto nei settori maggiormente suscettibili di compromettere la tutela delle libertà e dei diritti garantiti dalla normativa europea), s’inserisce il d.d.l. di cui all’a.s. n. 1146, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”[56], adottato con il fine di “promuovere un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità”[57]. La disciplina da esso recata lascia trasparire l’idea a favore di un impiego dei sistemi di IA nel settore della giustizia limitato ad attività non sostitutive del nucleo centrale della funzione giudicante.

L’art. 15, comma 1, del disegno di legge richiamato stabilisce, infatti, che “nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”. Nonostante il tenore residuale della disposizione, che individua l’ambito di applicazione dell’IA nel settore della giustizia con riferimento a tutte le attività diverse dall’interpretazione dei fatti e delle prove e dall’adozione dei provvedimenti – con una formulazione idonea ad abbracciare un ventaglio potenzialmente ampio di attività –, appare chiara l’intenzione del legislatore, pocanzi accennata, di evitare che l’intelligenza artificiale sia utilizzata al fine di svolgere attività “per conto” dell’autorità giudiziaria. Il che non significa, comunque, che l’impiego dell’IA nella giustizia civile sia da ritenersi limitato a compiti autenticamente secondari o residuali tra quelli svolti dal giudice.

La formulazione della disposizione richiamata sembra invero concepire l’avveniristica possibilità di un duplice ordine di impiego dell’IA in tale ambito.

Sotto un primo profilo, deve indubbiamente riconoscersi la natura accessoria o, comunque, secondaria di buona parte delle attività nelle quali è consentito l’impiego dell’intelligenza artificiale nel settore della giustizia. A tal fine, l’art. 15, comma 2 del d.d.l. espressamente demanda al Ministero della giustizia[58] la disciplina degli impieghi dei sistemi di intelligenza artificiale “per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie”. L’esplicito riferimento ad attività “accessorie” vuole offrire l’evidenza della compatibilità della disciplina in materia di IA concepita a livello interno con il quadro sovranazionale, che espressamente esclude che debbano essere considerati “ad alto rischio” i sistemi di IA destinati “ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi”[59].

Argomenti nella direzione proposta si ricavano soprattutto dall’originaria versione del disegno di legge, che circoscriveva l’utilizzo dei sistemi di intelligenza artificiale nell’attività giudiziaria “esclusivamente” all’organizzazione e alla semplificazione del lavoro giudiziario, “nonché per la ricerca giurisprudenziale e dottrinale”, restando, comunque, “sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”[60]: la modifica intervenuta nella formulazione della disposizione, se, per un verso, appare indice della voluntas legis di non circoscrivere eccessivamente l’impiego dell’intelligenza artificiale nell’attività giudiziaria[61], d’altra parte, non consente, comunque, di ritenere che siano intervenute significative variazioni dal punto di vista sostanziale, tali da dare ingresso all’intelligenza artificiale nel processo in funzione sostitutiva dell’autorità giudiziaria.

Resta peraltro inteso che anche in relazione a tali attività i sistemi e i modelli di intelligenza artificiale dovranno essere sviluppati e applicati nel rispetto, tra gli altri, dei principi di sicurezza, conoscibilità, trasparenza, proporzionalità, non discriminazione, dell’autonomia e del potere decisionale dell’uomo, “assicurando la sorveglianza e l’intervento umano”[62], vale a dire nel rispetto di quei medesimi principi che informano l’utilizzo dei sistemi c.d. “ad alto rischio” – ambito dal quale, tuttavia, i sistemi aventi funzione accessoria restano estranei.

4.1. … Segue. Ipotesi applicative e limiti.

Fermo restando quanto appena osservato, sotto altro profilo, la formulazione della disposizione lascia spazio all’idea che ai sistemi di IA nel settore della giustizia potranno essere demandate anche attività non autenticamente secondarie o accessorie: si intravede, cioè, una “zona grigia”, nella quale è data l’esistenza di attività non sostitutive del ruolo svolto dalla persona umana, ma nemmeno autenticamente preparatorie.

Per riprendere una tripartizione invalsa nella dottrina nordamericana, potrebbe trattarsi di quelle attività che questa qualifica come Replacement Justice Technology, in posizione intermedia tra quelle aventi funzione, rispettivamente, di Supportive Justice Technology e di Disruptive Justice Technology, queste ultime nelle quali i sistemi di IA vengono impiegati con finalità sostitutiva e financo dirompente rispetto al processo decisionale umano[63].

In tale contesto, si potrebbe dunque immaginare di affidare all’algoritmo il perfezionamento di un’attività umana già completata, come il miglioramento di una decisione già definita nei suoi contenuti dall’autorità giudiziaria (attività, questa, che non dovrebbe essere preclusa dal divieto di utilizzo dell’IA per “l’adozione di provvedimenti”), salvo essere, poi, sottoposta alla convalida finale di quest’ultima; si deve, però, considerare che in casi del genere l’effetto benefico dell’IA sul processo in termini di efficienza sarà piuttosto limitato, dal momento che sul giudice graverà il compito di controllare almeno la deferenza del risultato generato dall’IA rispetto all’input, accertando, soprattutto, che l’algoritmo non abbia inciso, alterandoli, sui termini del ragionamento inferenziale.

Ancora, in una prospettiva avveniristica, persuade l’idea di demandare all’algoritmo la formulazione, quantomeno in via di prima approssimazione, di una proposta transattiva o conciliativa ai sensi dell’art. 185-bis c.p.c.[64] – si pensi soprattutto alle vertenze puramente economiche – a valle dell’input in merito alle caratteristiche inerenti “alla natura del giudizio, al valore della controversia e all’esistenza di questioni di facile e pronta soluzione di diritto” offerto dal deployer. Infatti, resterebbero comunque impregiudicati il successivo controllo della proposta da parte dell’autorità giudiziaria nonché l’approvazione e il contraddittorio tra le parti rispetto ad essa.

Un ulteriore possibile ambito di applicazione dell’intelligenza artificiale nel processo, sulla base dell’attuale formulazione dell’art. 15, comma 1 del d.d.l., sembrerebbe essere, poi, quello della consulenza tecnica, sotto lo specifico angolo di visuale dell’individuazione del consulente tra i soggetti inseriti all’interno del relativo elenco[65], con le precisazioni di cui appresso.

L’attività di scelta del CTU non è meramente residuale rispetto alla funzione giudicante; d’altra parte, nella misura in cui si abbia chiara la distanza rispetto all’operazione pregiudiziale di individuazione e valutazione dei fatti di causa da accertare – che resta demandata all’autorità giudiziaria –, essa nemmeno merita di essere annoverata tra quelle autenticamente sostitutive, rispetto alle quali l’utilizzo del sistema di IA sarebbe da ritenersi precluso. Tenuto fermo il potere-dovere della persona umana nell’offrire al sistema l’input alla nomina del CTU, non si rinvengono particolari ostacoli nell’affidare all’algoritmo la selezione di una “rosa” di professionisti tra quelli inseriti all’interno dell’elenco nazionale dei consulenti tecnici[66], sempre che il sistema di IA sia effettivamente in grado di assicurare il rispetto di quei principi di turnazione e trasparenza nell’affidamento degli incarichi previsti dal codice di rito (e, segnatamente, dall’art. 23, comma 1, disp. att. c.p.c.) – del rispetto dei quali, anzi, l’algoritmo potrebbe farsi garante. Una funzione analoga, del resto, è quella che l’art. 23 disp. att. c.p.c. attribuisce all’IA rispetto alla garanzia di trasparenza degli incarichi (l’assegnazione dei quali resta affidata all’autorità giudiziaria), nel momento in cui, a seguito delle modifiche introdotte dal d.lgs. 10 ottobre 2022, n. 149, affida ai presidenti del tribunale e della corte di appello il compito di vigilare “affinché gli incarichi siano equamente distribuiti tra gli iscritti nell’albo in modo tale che a nessuno dei consulenti iscritti possano essere conferiti incarichi in misura superiore al 10 per cento di quelli affidati dal rispettivo ufficio, e garantiscono che sia assicurata l’adeguata trasparenza del conferimento degli incarichi anche a mezzo di strumenti informatici[67].

È bene precisare come esigenze legate alla necessità di un’interpretazione sì estensiva della norma che regola l’impiego dell’IA nella giustizia (art. 15 d.d.l.), ma, al contempo, rispettosa dei principi (in tema di approccio umano-centrico) sanciti a livello interno e, soprattutto, sovranazionale – dove, come ricordato, il processo decisionale finale deve rimanere un’attività a guida umana[68] – inducano a condividere la prospettiva[69] secondo la quale all’algoritmo potrà essere demandato il compito di operare una prima selezione dei profili maggiormente in linea con l’incarico che dovrà essere espletato, salvo poi rimettere comunque all’autorità giudiziaria la scelta in concreto del professionista. Ciò anche in considerazione del fatto che lo stesso art. 15, comma 1, del d.d.l. esclude tra le attività demandabili all’algoritmo “l’adozione dei provvedimenti” e tale deve evidentemente essere considerata l’ordinanza di cui all’art. 191, comma 1, c.p.c., con la quale il giudice, facendo uso del suo potere discrezionale[70], “nomina un consulente, formula i quesiti e fissa l’udienza nella quale il consulente deve comparire”.

Nell’opposta direzione, va poi sottolineato come proprio a proposito della formulazione dei quesiti non sembra che possa pervenirsi ad analoghe conclusioni: ad instar dell’adozione di provvedimenti, anche in questo caso pare che l’utilizzo dell’intelligenza artificiale da parte dell’autorità giudiziaria non possa spingersi oltre il “perfezionamento” o la “migliore elaborazione” di quesiti che, nella sostanza, dovranno essere stati concepiti dal giudicante, considerata l’inerenza delle operazioni peritali che il consulente è chiamato a svolgere ai fatti rilevanti per la decisione finale – fatti la valutazione dei quali deve essere sempre imputabile alla persona umana. Del resto, autorevole dottrina, da tempo, non aveva mancato di avvertire come una cattiva o erronea formulazione dei quesiti con riferimento ai fatti da provare potrebbe rischiare di rendere inutile la prova scientifica[71]. Inoltre, si direbbe che la formulazione dei quesiti in discorso inerisca alla scelta stessa di procedere alla nomina del consulente[72] e anche tale attività, che si pone a valle dalla valutazione di ammissibilità e rilevanza della consulenza[73], rientra tra quelle relative alla “adozione di provvedimenti”, nell’ambito delle quali, secondo il d.d.l., il principio antropocentrico assurge a corollario.

Il quadro sopra tratteggiato offre una connotazione rigorosa dell’approccio umano-centrico a livello interno rispetto alla sua concezione unionale[74]: infatti, in linea di principio, il regolamento europeo non vieta l’utilizzo dei sistemi di intelligenza artificiale destinati a essere utilizzati da un’autorità giudiziaria o per suo conto per assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti[75], ma li qualifica come sistemi “ad alto rischio” e, in quanto tali, li sottopone alla human oversight; dal canto suo, l’art. 15 del d.d.l., nell’attuale versione, rimette alla persona umana “ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”, con ciò escludendo spazi per un utilizzo dei sistemi di IA.

In buona sostanza, si direbbe, dunque, che se, a livello europeo, la human oversight dialoga con il sistema di IA, assolvendo ad una funzione di contrappeso rispetto alla sua possibile deriva – sostanzialmente rimettendone la “governance” alla persona umana –,  a livello interno il principio antropocentrico, nel settore della giustizia, si estrinseca, sì, sotto forma di non vincolatività delle risultanze che seguono all’interrogazione dell’algoritmo, ma passa anche e soprattutto attraverso il divieto di demandare all’algoritmo compiti sostitutivi dell’autorità giudiziaria. In fin dei conti, se il principio in esame fosse inteso soltanto come controllo e non vincolatività dell’output, allora qualsiasi attività potrebbe essere demandata al sistema di IA.

In aggiunta a quanto sin qui osservato, non è inutile rilevare come argomenti nel senso di una rigida concezione del principio antropocentrico a livello interno si ricavino anche dalla disamina delle disposizioni che regolano l’utilizzo dei sistemi di intelligenza artificiale nella pubblica amministrazione[76], dove l’impiego dell’IA è espressamente finalizzato ad incrementare l’efficienza dell’attività, a ridurre i tempi di definizione dei procedimenti e ad aumentare “la qualità e la quantità dei servizi erogati ai cittadini e alle imprese”.

In questo caso, infatti, l’art. 14, comma 1, del d.d.l. espressamente circoscrive l’utilizzo dell’intelligenza artificiale “in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale”. Tale formulazione si pone a valle delle problematiche connesse con l’utilizzo dei sistemi di IA nel settore in esame, dove, rispetto alla giustizia, l’utilizzo degli algoritmi dell’intelligenza artificiale ha fatto ingresso già da tempo, con il limite, rimarcato dalla giurisprudenza amministrativa, che resti sempre in capo al giudice una “riserva di umanità”[77], cioè il potere di “sindacare la stessa logicità e ragionevolezza della decisione amministrativa robotizzata, ovvero della ‘regola’ che governa l’algoritmo”[78].

5.Giustizia predittiva, certezza del diritto e prevedibilità delle decisioni.

La questione alla quale si è sopra accennato riporta il tema della giustizia robotica ad una più ampia prospettiva, cioè alla possibilità di demandare all’algoritmo compiti valutativi e decisionali. Sotto tale profilo, la scelta effettuata dal legislatore de iure condendo di escludere un utilizzo dell’intelligenza artificiale, nel settore della giustizia, nell’ambito di processi interpretativi, valutativi e decisionali è chiaramente indice della volontà di impedire forme di giustizia c.d. predittiva, cioè forme di giustizia “preconfezionata”, nell’ambito delle quali sia possibile anticipare l’esito del giudizio sulla base di criteri di calcolo matematici, nel tentativo di fare del diritto un sistema con coerenza scientifica vicino alla certezza[79].

Sul punto, sembra utile precisare come la prevedibilità delle decisioni[80], soprattutto sulla base delle recenti modifiche del processo civile, sia incoraggiata dal legislatore come “valore-mezzo” attraverso il quale perseguire il “valore-fine” della deflazione del contenzioso giurisdizionale. Una chiara intenzione in questo senso ha informato, ad esempio, le modifiche intervenute nell’ambito della tutela delle persone, dei minorenni e delle famiglie, laddove la concentrazione delle competenze presso un unico ufficio giudiziario assolve, tra le altre, alla funzione di uniformità degli orientamenti e, quindi, di prevedibilità delle decisioni nell’ottica della deflazione del contenzioso giurisdizionale[81]. In una prospettiva più generale si pensi all’introduzione dei principi di chiarezza e sinteticità degli atti processuali[82] e all’idea, sottesa alla riforma, che alla loro redazione si possa procedere secondo modalità standardizzate[83], con effetti benefici in termini di prevedibilità delle decisioni, nonché rispetto all’uso dell’IA applicata al processo[84].

Orbene, mentre, in linea di principio, la prevedibilità delle decisioni dialoga in maniera virtuosa con il principio della certezza del diritto[85], al contrario, l’utilizzo di sistemi automatici per l’elaborazione delle decisioni giudiziali pare possa piuttosto condurre ad un’esasperazione del principio in esame.

Fermo restando che la legislazione introdotta a livello sia europeo, sia interno rispetto all’utilizzo dei sistemi di intelligenza artificiale (compreso il settore della giustizia) intende garantire la conoscibilità dell’algoritmo e non della decisione finale[86], la prevedibilità dell’esito della lite che sia frutto di sistemi di valutazione automatici (che dovrebbero necessariamente essere conoscibili ab externo) oltre a sollevare, in generale, perplessità in termini di affidabilità del sistema di tutela, mal si concilierebbe con l’intrinseca natura del sistema di giustizia come giustizia del caso concreto; inoltre, creerebbe illegittime aspettative da parte del richiedente tutela, dal momento che darebbe adito a contestazioni di parte a fronte di decisioni difformi rispetto al risultato (rectius: calcolo) atteso.

Tale stato di cose sarebbe conseguenza della creazione di un sistema fondato sull’introduzione di un principio, o meglio, di un meccanismo idoneo a creare un vincolo tra precedenti giurisprudenziali (epilogo del fatto che l’algoritmo attinga a raccolte giurisprudenziali di casi analoghi) ancora più stringente rispetto a quello che informa il principio stesso[87], che, dal canto suo, tiene conto delle peculiarità del caso concreto, ma che, come noto, non ha diritto di cittadinanza nel sistema giurisdizionale domestico.

Non è un caso, in fin dei conti, che a livello europeo tra i sistemi ad alto rischio figurino quelli che, sulla base di dati e input (dati forniti ad un sistema di IA o direttamente acquisiti dallo stesso, nella specie costituiti da provvedimenti normativi e da precedenti giurisprudenziali analizzati dal sistema attraverso algoritmi di apprendimento automatico al fine di generare previsioni fondate su un calcolo di probabilità)[88], producono output generati dal sistema, quali contenuti (sistemi di IA generativi), previsioni, raccomandazioni o decisioni, che possono influenzare gli ambienti fisici o virtuali con cui il sistema di IA interagisce[89].

6.Decisione robotica ed effettività della tutela giurisdizionale.

 

Oltre al profilo inerente alla “predittività” delle decisioni frutto di sistemi automatizzati, l’idea di demandare all’algoritmo compiti valutativi e decisionali solleva una serie di problematiche, che, allo stato dell’arte, lasciano apprezzare l’idea di escludere l’utilizzo dell’IA nei processi decisionali dell’autorità giudiziaria. Infatti, anche tralasciando il rilievo in forza del quale una diversa soluzione, che rimetta a processi automatizzati l’adozione della decisione, mal si concilierebbe con il parametro costituzionale di cui all’art. 102 Cost. – che demanda l’esercizio della funzione giurisdizionale a magistrati ordinari istituiti e regolati dalle norme sull’ordinamento giudiziario (in questo senso non vi sarebbe evidentemente più spazio per decisioni frutto dell’utilizzo del potere equitativo dell’autorità giudiziaria) –, vi è almeno un duplice ordine di problemi da considerare.

Il primo, al quale si è accennato in apertura, attiene all’effettività e all’efficacia della tutela offerta. A tale riguardo, vengono in rilievo le criticità legate all’attendibilità delle fonti e delle informazioni utilizzate dall’algoritmo per la generazione dell’output e alla sua capacità inferenziale, cioè l’attitudine a tenere conto delle peculiarità del caso concreto e, quindi, a far dialogare tra loro le risultanze della valutazione delle circostanze di fatto: in buona sostanza, la capacità dell’algoritmo di compiere tutta quella serie di valutazioni che connotano il sillogismo giudiziale[90]. Queste presupporrebbero l’appartenenza al sistema di una “coscienza critica” e, anche ammettendosi che il sistema di IA possa essere in grado di tenere conto delle specificità del caso concreto – ma si direbbe non oltre che per la verosimiglianza della circostanza oggetto di esame rispetto ad altri fatti che costituiscono le informazioni alle quali il sistema ha accesso -, sarebbero necessarie rassicurazioni rispetto alla sua capacità di far dialogare correttamente tra loro le informazioni acquisite. Il margine di errore (inteso ora come inadeguatezza dell’output rispetto al caso di specie, ora, e nell’ambito di questa, anche come bias o discriminazioni intrinseche al funzionamento stesso dell’algoritmo)[91] potrebbe invero essere conseguenza dell’incapacità del sistema stesso in tal senso, oltre che, più semplicemente, del suo non corretto funzionamento, o, ancora, del “criterio di ragionamento” utilizzato dall’algoritmo, che potrebbe essere non “neutrale”[92].

In proposito, del resto, si è già ricordato[93] come la giurisprudenza non abbia da tempo mancato di sottolineare che gli algoritmi basati sull’intelligenza artificiale, rispetto a quelli matematici o, comunque, “tradizionali”, contemplano meccanismi di “machine learning”, quindi contribuiscono alla creazione di un sistema che non si limita ad applicare le regole software e i parametri preimpostati, ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico[94].  In quanto tali, quindi, essi si evolvono in maniera tale che la conoscenza iniziale del meccanismo di funzionamento potrebbe non essere sufficiente a spiegare il risultato finale[95].

Quanto detto induce a ritenere non infondato il timore che un utilizzo improprio, inteso come non adeguatamente governato dalla persona umana, dei sistemi di intelligenza artificiale nel processo, tali da condurre a forme di giustizia o a decisioni autenticamente “robotiche”[96], che non siano, cioè, soltanto schede riepilogative del caso o progetti di sentenza[97], possa comunque provocare un vulnus ai principi del giusto processo, presidiati, come sono, dall’art. 111 Cost.[98], nel suo duplice aspetto di processo che deve svolgersi “dinanzi al giudice” (terzo e imparziale), nonché sotto il profilo della motivazione[99] (che allo stesso giudice deve sempre essere imputabile) dei provvedimenti giurisdizionali e, da questo, dell’esercizio del diritto all’impugnazione.

6.1. Trasparenza algoritmica ed esercizio del diritto di difesa nel procedimento decisionale automatizzato.

Quanto da ultimo osservato rimanda all’ulteriore ordine di questioni accennate, relativo alla c.d. opacità dell’algoritmo, o, dall’opposto punto di vista, all’esigenza di conoscibilità e spiegabilità[100], che è quindi trasparenza, dell’algoritmo. Quest’ultima[101] ha chiari riflessi soprattutto sull’obbligo di motivazione dei provvedimenti da parte dell’autorità giudiziaria e, quindi, sul sistema delle impugnazioni.

La “opacità” tipica dell’algoritmo – cui fa da contraltare la sua “caratterizzazione multidisciplinare”[102] – induce a ritenere non del tutto assente il pericolo che sia reso più difficile per le parti comprendere la motivazione posta a fondamento della decisione (se non adeguatamente formulata da parte del giudice) e una situazione di questo tipo, ove non presidiata da una supervisione umana che possa ritenersi effettiva, non potrebbe che ripercuotersi negativamente anche sul potere-dovere delle parti in sede di impugnazione di delimitare la cognizione del giudice dell’impugnazione alla luce del principio della domanda (e dell’effetto devolutivo). La piena attuazione del diritto di difesa[103] impone, infatti, di ritenere che non dovrebbe restare precluso all’interessato di conoscere le modalità (anche e, diremmo, soprattutto se automatizzate) con le quali è stata in concreto assunta una decisione destinata a ripercuotersi sulla sua sfera giuridica[104]. Quanto detto vale anche in considerazione dell’onere, posto da ultimo a carico delle parti, di promuovere impugnazioni, sia in appello, sia in Cassazione, motivate in modo chiaro, sintetico e specifico[105].

Il problema della c.d. trasparenza algoritmica, cioè del diritto di ricevere informazioni sulla logica utilizzata – attualizzazione alla materia del principio del contraddittorio sul quale si impernia il processo – se viene in rilievo, in generale, ogniqualvolta si faccia uso di algoritmi (insieme al problema, ad esso connesso, legato alla riconoscibilità della paternità dell’IA sul prodotto)[106], rileva, a maggior ragione, nel settore della giustizia. Il riferimento è, segnatamente, all’utilizzo degli algoritmi dell’intelligenza artificiale per l’adozione delle decisioni da parte dell’autorità giudiziaria[107], sebbene l’esperienza già maturata in tema di IA non abbia portato ad escludere che ad un tale onere di specificazione possano essere tenute anche le parti[108], nel segno di una sorta di “disclosure algoritmica”, ossia di una singolare declinazione del dibattuto obbligo di verità processuale, con il quale il primo condivide le medesime criticità[109].

Quanto appena osservato a proposito del diritto degli interessati (delle parti) di ricevere informazioni sulla logica utilizzata non consente peraltro di pervenire a diverse conclusioni anche immaginando[110] l’assimilazione tra l’attività di valutazione dei fatti operata dal CTU e quella che il giudice potrebbe condurre attraverso l’ausilio del sistema di intelligenza artificiale. In tale prospettiva, non sarebbe da escludersi che il giudice possa demandare all’algoritmo anche la valutazione dei fatti di causa che richiedano conoscenze specialistiche, sul presupposto che se, da un lato, ogni caso è a sé stante, dall’altro, qualsiasi circostanza può essere variamente riconducibile a casi precedenti, che il giudice prende in considerazione per giudicare quello sottoposto alla sua attenzione[111].

In verità, anche tralasciando il dato normativo, che non consente di demandare al sistema la “valutazione dei fatti” – espressione tanto ampia da ricomprendere sia la selezione dei fatti rilevanti tra quelli allegati dalle parti, sia la loro stessa qualificazione, sia, ancora, la loro incidenza sul segno della decisione finale – non convince l’idea di equiparare alla perizia del CTU quell’operazione di “incasellamento” del fatto da accertare tra quelli noti al sistema o, comunque, ad esso accessibili (che si staglia su di un criterio di verosimiglianza). A parte il dato comune della non vincolatività delle risultanze dell’algoritmo e della consulenza, che consente di estendere alla relazione con l’algoritmo la qualificazione del giudice quale peritus peritorum, tale ricostruzione solleva almeno le medesime criticità sopra evidenziate a proposito della capacità di inferenza dell’algoritmo, della verificabilità e attendibilità delle fonti utilizzate (specie se in confronto alle conoscenze di cui si avvale l’esperto), oltre che quelle relative all’opacità dell’algoritmo e al criterio utilizzato. Una tale assimilazione esigerebbe, infatti, che restasse impregiudicato il contraddittorio tra le parti (art. 195, comma 3 c.p.c.)[112] sulle risultanze della “consulenza”, non solo sotto il profilo della conoscibilità o trasparenza algoritmica (che deve comunque essere garantita) nell’ottica dell’esercizio del diritto di impugnazione, ma anche come diritto a presentare “osservazioni” rispetto alla valutazione operata (come accade in presenza di una CTU) nel medesimo grado di giudizio nel quale la valutazione è stata espletata, in una fase logicamente antecedente alla definizione del giudizio.

In senso contrario rispetto ad una tale equiparazione, la distanza che separa l’acquisizione dei fatti al processo, rispettivamente, mediante la CTU e il sistema di IA, quest’ultima basata sulla verosimiglianza che allo stesso deriva dall’accessibilità indiscriminata della sua conoscenza[113], è stata efficacemente descritta da autorevole dottrina con il ricorso alla categoria del notorio nella sua singolare accezione “giudiziale”, da intendersi qui non alla stregua dell’art. 115, comma 2, c.p.c., come “facta notoria probatione non egent”, che il giudice può porre alla base della decisione, ma come fatto noto in quanto accessibile, che opera, piuttosto, sul piano della qualificazione/valutazione dei fatti di causa; o meglio come tutte le informazioni alle quali, a prescindere dall’attendibilità dell’informazione trasmessa, l’autorità giudiziaria può accedere[114].

7.L’intelligenza artificiale per l’efficientamento della giustizia civile. Profili di sintesi.

 

Il quadro delineato nelle pagine che precedono non induce a sottoporre a revisione l’idea che l’utilizzo dell’intelligenza artificiale nel settore della giustizia, come accennato in apertura, possa lasciarsi apprezzare soprattutto nei termini già delineati di efficienza e di economia processuale. Soprattutto rispetto al processo civile, ancor più che nell’ambito del procedimento amministrativo, l’idea è quella di essere in una fase ancora sperimentale dell’intelligenza artificiale.

Infatti, la limitazione del suo impiego nel processo civile sotto forma di Supportive o Replacement (ma non certo Disruptive) Justice Technology, per riprendere la tripartizione già ricordata[115], che all’autorità giudiziaria ivi compete – quantomeno alla luce del quadro emergente a livello interno –, da un primo punto di vista, rivela l’approccio cautelativo del legislatore in materia. Accanto al principio antropocentrico, di cui si è detto, una riprova in tal senso sembra essere offerta anche dalla tempestiva creazione di una nuova fattispecie di competenza (esclusiva) per materia del tribunale “per le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale”[116]. Si tratta di una non meglio specificata categoria di controversie che potrebbero essere occasionate dall’utilizzo di un sistema di IA, esclusa restando la competenza del giudice di pace. La natura residuale del criterio utilizzato induce a ritenere la competenza così individuata come idonea ad abbracciare un ventaglio piuttosto ampio di controversie, essendo stata concepita con il fine di ricomprendere tutte le ipotesi nelle quali il funzionamento dell’algoritmo abbia causato un qualche pregiudizio ai diritti coinvolti nel suo utilizzo o, comunque, sia avvenuto in modo contrario ai principi che devono orientarne l’utilizzo[117].

Sotto altro profilo, l’impiego che dell’intelligenza artificiale è consentito nel settore della giustizia  sembra offrire a tale strumento un utile banco di prova in questo ambito, per vagliarne i possibili sviluppi, al netto del fatto che, allo stato, si fatica ad immaginare l’avveniristica possibilità di demandare placidamente all’intelligenza artificiale una funzione sostitutiva dei compiti svolti dall’autorità giudiziaria, almeno fin quando l’algoritmo non sarà in grado, al pari della persona umana[118], di maturare quella medesima coscienza critica e logica argomentativa che connota il sillogismo giudiziale sotteso alla decisione nel merito[119].

Non è questa la sede per ricordare che la logica argomentativa che informa il sillogismo giudiziale[120], a differenza di quella formale, non offre dimostrazioni, ma genera consenso[121]; la resistenza della motivazione ai successivi controlli non dipende dalla “forza” della legge scientifica utilizzata o della massima di esperienza applicata, ma è data dalla ragionevolezza e coerenza (logica) della motivazione. Quest’ultima, intrinsecamente soggettiva, deve essere tale da raggiungere un elevato grado di credibilità razionale[122]: per riprendere il tema della consulenza tecnica, basti pensare che se la logica argomentativa non entrasse nel ragionamento del giudicante il potere-dovere del giudice di discostarsi dagli esiti della consulenza tecnica, quando dovuto[123], non avrebbe ragion d’essere, né potrebbe darsi l’ipotesi, che invece si dà, di cause identiche che giungono ad esiti differenti.

Alla luce di tali considerazioni, se il fine perseguito dal legislatore attraverso l’introduzione dell’intelligenza artificiale applicata al processo vuole essere – come, effettivamente, è – quello di efficientamento della giustizia civile, attraverso la previsione di forme di impiego dell’IA di tipo “autosufficiente”, allora l’idea di consentirne l’impiego con finalità preparatoria o accessoria appare una scelta coerente con gli obiettivi perseguiti. In tale prospettiva, l’approccio umano-centrico, che il legislatore mostra di preferire, rappresenta il giusto punto di equilibrio tra una tutela giurisdizionale efficiente, grazie all’ausilio dell’IA, ma anche effettiva.

Quanto detto vale soprattutto se si considera che demandare all’algoritmo lo svolgimento di compiti più complessi (sostitutivi della persona umana) potrebbe voler dire caricare il deployer di più pervadenti oneri di verifica e di controllo, che potrebbero avere l’effetto di pregiudicare l’attuazione di quello stesso fine di efficienza processuale che l’utilizzo dell’IA vuole raggiungere. Del resto, se il “far presto” è ormai da tempo principio immanente nell’ordinamento, nella sua duplice accezione di “ragionevole durata” e di “economia processuale”, d’altro canto, tale garanzia di efficienza non può comunque giustificare il sacrificio del “far bene”, cioè dell’effettività della tutela giurisdizionale dei diritti.

[1] L’efficienza della tutela contribuisce, dal canto suo, a riempire di contenuto il canone stesso di effettività della tutela giurisdizionale. Sul valore dell’efficienza processuale e sulla sua relazione con l’effettività della tutela giurisdizionale cfr. R. Martino, Il processo civile di fronte all’emergenza: “accelerazione” del rito e tramonto del principio di oralità, in Il Processo, 2023, pp. 1 ss.; A. Panzarola, La visione utilitaristica del processo civile e le ragioni del garantismo, in Riv. trim. dir. pubbl., 2020, pp. 97 ss.; V. Laruffa, L’accesso alla giustizia amministrativa, tra effettività ed efficienza di tutela degli interessi del privato, in Nuovo not. giur., 2019, pp. 33 ss.; G. Canale, La violazione del dovere di sinteticità e chiarezza: abuso del processo?, in Riv. trim. dir. proc. civ., 2018, III, pp. 1025 ss.; F. De Santis, La redazione degli atti difensivi ai tempi del processo civile telematico: sinteticità e chiarezza, in Giusto proc. civ., 2017, III, pp. 749 ss.; F. Merusi, Sulla giustizia amministrativa come servizio (tra effettività ed efficienza) a 150 anni dall’unificazione amministrativa italiana, in Dir. proc. amm., 2016, II, pp. 333 ss.; A. Proto Pisani, Il principio di effettività nel processo civile italiano, in Giusto proc. civ., 2014, III, pp. 825 ss.

[2] Il tema ha da tempo destato ampie e diversificate riflessioni in dottrina. Nella vasta letteratura, con riserva di ulteriori riferimenti, si vedano, ex multis, M. Stella, Artificial reason” e intelligenza artificiale nel diritto processuale, in Dir. proc. civ. comparato, 2025, pp. 18 ss.; M. Lazzara, Intelligenza artificiale e processo civile alla luce del GDPR e dell’Artificial Intelligence Act, in Studium ius, 2025, II, pp. 197 ss.; A. Graziosi, Giurisdizione civile e nuove tecnologie. II. Intelligenza artificiale, giustizia predittiva e prevedibilità della decisione giudiziaria, in Giusto proc. civ., 2024, II, pp. 337 ss.; G. Finocchiaro, L’intelligenza artificiale nell’ambito giudiziario, in Riv. trim. dir. proc. civ., 2024, II, pp. 425 ss.; Ead., La regolazione dell’intelligenza artificiale, in Riv. trim. dir. pubbl., 2022, IV, pp. 1085 ss.; R. Caponi, Oralità e scrittura del diritto, intelligenza artificiale, ivi, 2024, II, pp. 367 ss.; M. Gradi, Burocrazia giudiziaria, in Riv. trim. dir. proc. civ., 2024, III, pp. 751 ss.; C. Gamba, Sintetiche riflessioni sulla ‘decisione giusta’: ius dicere e digitalizzazione della giustizia, ivi, 2023, pp. 819 ss.; Aa.Vv., in R. Giordano, A. Panzarola, A. Police, S. Preziosi, M. Proto, Il diritto nell’era digitale. Persona, mercato, amministrazione, giustizia, Milano, 2022; E. Fabiani, Intelligenza artificiale e accertamento dei fatti nel processo civile, in Giusto proc. civ., 2021, pp. 45 ss.; F. Santagada, Intelligenza artificiale e processo civile, in Judicium, 2020, IV, pp. 467 ss.; E. Gabellini, J. Nieva- Fenoll, Inteligencia artificial y proceso judicial, Madrid, 2018, passim (trad. it. a cura di P. Comoglio, Intelligenza artificiale processo, Torino, 2019).

[3] Sul rapporto tra intelligenza artificiale ed efficienza processuale, in particolare, cfr. G. De Cesare, Small claims” e intelligenza artificiale: una proposta efficientista, in Dir. proc. civ. it. comparato, 2025, pp. 56 ss.; F. Savino, Riflessioni sul rapporto tra intelligenza artificiale e giustizia predittiva, ivi, pp. 220 ss.; F. Bailo, L’irragionevole durata del processo e gli strumenti legislativi per porvi rimedio: dall’implementazione del capitale umano alla digitalizzazione della giustizia, in federalismi.it, 2024, XXVII, pp. 1 ss.; R. Martínez Gutiérrez, Intelligenza artificiale, algoritmi e automazione nella giustizia. Proposte per una effettiva implementazione, in Il Processo, 2021, III, pp. 437 ss.; F. Locatelli, Il giudice virtuoso. Alla ricerca dell’efficienza del processo civile, Napoli, 2020, pp. 181 ss.; C. Castelli, Efficienza, qualità, tecnologia, in C. Castelli, D. Piana, Giusto processo e intelligenza artificiale, Sant’Arcangelo di Romagna, 2019, passim.

[4] A cominciare dal d.l. 25 giugno 2014, n. 90, sino ai recenti interventi in materia di cui al d.lgs. 10 ottobre 2022, n. 149 ss.mm.ii. Nella vasta letteratura si rinvia, per tutti, agli studi di A. Graziosi, Giurisdizione civile e nuove tecnologie. I. Il processo civile telematico, in Giusto proc. civ., 2024, pp. 37 ss.; F. Russo, Novità in tema di processo civile telematico, in Giusto proc. civ., 2023, pp. 85 ss.; C. Punzi, Sul processo civile telematico, in Riv. dir. proc., 2022, pp. 1 ss.; A. M. Tedoldi, Il processo civile telematico tra logos e techne, in Riv. dir. proc., 2021, III, pp. 843 ss.; F. Carpi, Nuove tecnologie e prove, in Riv. trim. dir. proc. civ., 2021, pp. 43 ss.; G.G. Poli, Il protocollo in tema di processo civile telematico in Cassazione: luci e ombre del cammino verso la digitalizzazione del giudizio di legittimità, in Foro it., 2020, XI, 5, pp. 349 ss.; Aa.Vv., in G. Ruffini (a cura di), Il processo telematico nel sistema del diritto processuale civile, Milano, 2019; G. Ruffini, Il processo civile difronte alla svolta telematica, in Riv. dir. proc., 2019, pp. 973 ss.; A. Bonafine, L’atto processuale telematico, Napoli, 2017, passim; E. Zucconi Galli Fonseca, L’incontro tra informatica e processo, in Riv. trim. dir. proc. civ., 2015, IV, pp. 1185 ss.; R. Caponi, Il processo civile telematico tra scrittura e oralità, ivi, 2015, pp. 305 ss.

[5] Si pensi, ad esempio, alla vicenda, in tema di esecuzione forzata, portata di recente all’attenzione del Tribunale di Brindisi, il quale (ord. 27 marzo 2025) ha accolto il reclamo ex art. 591-ter c.p.c. proposto da un offerente avverso al provvedimento di aggiudicazione della vendita (svoltasi all’incanto in modalità telematica) a favore di altro offerente. Nonostante il ricorrente fosse stato regolarmente ammesso all’asta ed invitato ad entrare nell’aula virtuale, previo invio delle credenziali di accesso (conformemente a quanto stabilito dall’art. 16 del D.M. Giustizia del 26 febbraio 2015, n. 32), tuttavia egli non aveva potuto in concreto partecipare alla gara a causa di problemi tecnici addebitati al gestore dell’asta telematica, anche in considerazione dell’assenza del servizio di assistenza durante lo svolgimento delle operazioni di vendita. Tale fatto è stato considerato, un “vulnus insuperabile della regolarità della procedura che, proprio per la sua tecnicità e elevata specializzazione, non può svolgersi in difetto di una costante e specifica assistenza tecnica, da parte del gestore, idonea a monitorare e a governare eventuali disfunzioni del sistema. (omissis) Venendo in rilievo una patologia endogena, e non più esogena”, non può l’aggiudicatario, nella specie, invocare la tutela di cui al “combinato disposto degli artt. 2929 c.c. e 187 bis disp. att. e che tutela espressamente l’aggiudicatario in caso di vizi che abbiano preceduto la vendita”.

[6] In dottrina, per una diffusa riflessione intorno al “falso mito dell’efficienza attraverso il P.C.T.”, si veda F. Locatelli, Il giudice virtuoso. Alla ricerca dell’efficienza del processo civile, cit., pp. 83 ss.

[7] È chiaro il riferimento al d.lgs. 10 ottobre 2022, n. 149, di “Attuazione della legge 26 novembre 2021, n. 206, recante delega al Governo per l’efficienza del processo civile e per la revisione della disciplina degli strumenti di risoluzione alternativa delle controversie e misure urgenti di razionalizzazione dei procedimenti in materia di diritti delle persone e delle famiglie nonchè in materia di esecuzione forzata”; al d.lgs. 31 ottobre 2024, n. 164, contenente “Disposizioni integrative e correttive al decreto legislativo 10 ottobre 2022, n. 149, recante attuazione della legge 26 novembre 2021, n. 206, recante delega al Governo per l’efficienza del processo civile e per la revisione della disciplina degli strumenti di risoluzione alternativa delle controversie e misure urgenti di razionalizzazione dei procedimenti in materia di diritti delle persone e delle famiglie nonchè in materia di esecuzione forzata”; nonché al d.lgs. 17 dicembre 2024, n. 216, recante “Disposizioni integrative e correttive al decreto legislativo 10 ottobre 2022, n. 149, in materia di mediazione civile e commerciale e negoziazione assistita”.

[8] Si veda in proposito l’art. 196-duodecies disp. att. c.p.c., introdotto dal richiamato d.lgs. 10 ottobre 2022, n. 149, che subordina lo svolgimento dell’udienza di cui all’art. 127-bis c.p.c. all’osservanza di modalità idonee a salvaguardare il rispetto il contraddittorio tra le parti, la loro effettiva partecipazione e la riservatezza dell’udienza, salvo che questa sia pubblica, assicurando, inoltre, la previsione di meccanismi idonei a garantire l’identità dei partecipanti all’udienza. Sul punto si rinvia, per tutti, alla profonda disamina di A. Bonafine, Atti, copie, depositi, contributo unificato nel processo civile telematico, in R. Tiscini (a cura di), La riforma Cartabia del processo civile. Commento ai d.lgs. 10 ottobre 2022, n. 149, 31 ottobre 2024, n. 164, 27 dicembre 2024, n. 216, Pisa, 2025, pp. 250 ss., spec. pp. 298 ss.

[9] Art. 473-bis.54, comma 3 c.p.c. Per una più ampia riflessione in merito, se vuoi, M. Morgese, Procedimenti di interdizione, inabilitazione e nomina dell’amministratore di sostegno, in R. Tiscini (a cura di), La riforma Cartabia del processo civile, cit., pp. 1023 ss., spec. p. 1028.

[10] Per un’analisi delle disposizioni di recente conio relative alla possibilità – maturata nel corso dell’emergenza pandemica – di svolgimento dell’udienza mediante collegamenti audiovisivi a distanza v. C. Delle Donne, Disciplina delle udienze, in R. Tiscini (a cura di), La riforma Cartabia del processo civile, cit., pp. 85 ss., spec. pp. 88 ss.

[11] Tra le tecnologie utilizzabili, il riferimento è soprattutto agli algoritmi che contemplano meccanismi di machine learning, capaci di conferire autonomia all’algoritmo stesso (distinguendolo dall’algoritmo c.d. “tradizionale”), “consentendogli di definire progressivamente le regole decisionali in ragione delle quali performare l’attività a cui è destinato” (A. Merone, Le prove digitali e l’uso dell’intelligenza artificiale per finalità istruttorie, in R. Giordano, A. Panzarola, A. Police, S. Preziosi, M. Gradi (a cura di), Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, cit., pp. 905 ss., spec. p. 914). L’algoritmo dell’intelligenza artificiale utile come strumento di potenziale ausilio in termini di efficienza processuale è dunque quello in grado di creare un sistema che non si limita ad applicare le regole sofware e i parametri preimpostati (come fa, invece, l’algoritmo “matematico” o “tradizionale”), “ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”. In termini Cons. Stato, 25 novembre 2021, n. 7891. Su questi temi e sulla definizione di “sistema di intelligenza artificiale” adottata a livello europeo e nazionale si avrà modo di tornare a più riprese nel corso della trattazione (cfr. spec. §2. e §6.).

[12] “… e – complice […] la comparazione dei sistemi, ma pure il confronto con una diversa forma mentis – fornendo spunti per rimeditare soluzioni ormai forse consolidate, eppure non totalmente appaganti”. In termini V. Capasso, Usi e abusi di ChatGPT come law e fact finder, in Dir. proc. civ. it. comp., 2024, p. 38, richiamando espressamente Prefazione, in V. Capasso (a cura di), En faveur d’un proces civil artificiellement intelligent. Une approche comparative. Atti del Convegno di Napoli, 12 maggio 2023, Napoli, 2024, p. 7.

[13] A tal fine, la Commissione ha avviato una consultazione per la creazione di un codice di buone pratiche (richiamato a più riprese dal regolamento europeo sull’intelligenza artificiale) per i fornitori di modelli di IA per finalità generali (GPAI). Il codice, che avrebbe dovuto essere adottato entro il mese di aprile 2025, riguarderà i nodi critici rispetto all’utilizzo dell’IA, come la trasparenza, la tutela del diritto d’autore, l’individuazione e la gestione dei rischi connessi al suo utilizzo. Accanto a tale consultazione, deve essere segnalata quella in atto (da concludere entro il 18 luglio 2025) sui sistemi ad alto rischio, che mira a raccogliere esempi pratici e a chiarire le questioni relative ai sistemi di IA ad alto rischio. “Tali riscontri saranno presi in considerazione nei prossimi orientamenti della Commissione sulla classificazione dei sistemi di IA ad alto rischio e nei relativi requisiti e obblighi. Raccoglierà inoltre contributi sulle responsabilità lungo la catena del valore dell’IA”. Cfr. https://digital-strategy.ec.europa.eu/it/news/commission-launches-public-consultation-high-risk-ai-systems.

[14] Su cui già A. Punzi, La decisione giudiziaria nell’AI Act, in Giur. it., 2025, pp. 448 ss.; C. Gamba, Sintetiche riflessioni sulla ‘decisione giusta’: ius dicere e digitalizzazione della giustizia, cit., pp. 63 ss.; J. Ponce Solé, Il regolamento dell’unione europea sull’intelligenza artificiale, la discrezionalità amministrativa e la riserva di umanità, in Riv. trim. dir. pubbl., 2024, III, pp. 825 ss.; C. Casonato, B. Marchetti, Prime osservazioni sulla proposta di regolamento dell’Unione Europea in materia di intelligenza artificiale, in BioLaw J., 2021, III, pp. 415 ss., spec. pp. 428 ss.

[15] Regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828.

[16] Le regole dell’AI Act, così come era avvenuto per il GDPR, entreranno in vigore scaglionate nel tempo, al fine di consentire alle aziende e alla pubblica amministrazione di adeguarsi alle previsioni del regolamento. Si prevede, dunque, che entro sei mesi dall’entrata in vigore dovranno essere stati eliminati i sistemi vietati dall’AI Act e che entro dodici mesi si applicheranno le norme di governance generali a tutte le aziende e le PA. Entro due anni dall’entrata in vigore il regolamento sarà pienamente applicabile, comprese le norme per i sistemi ad alto rischio.

[17] Su cui v. in particolare C. Pinelli, L’AI Act: gestione del rischio e tutela dei diritti, in Giur. it., 2025, II, pp. 452 ss.

[18] Tale regolamentazione è stata approvata il 18 dicembre 2023 con l’obiettivo di mettere a disposizione delle organizzazioni e delle istituzioni uno standard internazionale di riferimento, che consenta loro di operare (“for establishing, implementing, manintaining and continually improving”, cfr. il § introduttivo, nonché l’art. 1, “Scope”) responsabilmente nel settore dell’IA (cfr. in particolare l’allegato B). Merita di essere segnalato come tra i “domains or sectors” nei quali è utilizzabile il sistema di gestione dell’intelligenza artificiale (all. D), che il documento in esame vorrebbe contribuire a plasmare, figurino sanità, difesa, trasporti, finanza, occupazione ed energia, mentre nessun riferimento è fatto alla giustizia. D’altra parte, questi costituiscono “examples of sectors” ai quali può essere applicato il sistema di gestione oggetto di regolamentazione, “wich are subject to obligations, good practices, expectations-or contractual commitment towards interested parties” (Annex D, D.1.)

[19] Sebbene l’approccio basato sul rischio costituisca la base per un insieme proporzionato ed efficace di regole vincolanti, è importante ricordare le linee guida per un’IA affidabile elaborate dall’AI HLEG (High-Level Expert Group on AI) indipendente nominato dalla Commissione nel 2019. In tali orientamenti l’AI HLEG ha elaborato sette principi etici non vincolanti per l’IA che i sistemi di IA dovrebbero soddisfare per essere considerati affidabili: 1) intervento e sorveglianza umani; 2) robustezza tecnica e sicurezza; 3) vita privata e governance dei dati; 4) trasparenza; 5) diversità, non discriminazione ed equità; 6) benessere sociale e ambientale; 7) responsabilità. Fatti salvi i requisiti giuridicamente previsti dal regolamento e da qualsiasi altra disposizione di diritto dell’Unione applicabile, tali orientamenti contribuiscono a delineare il quadro per un’IA coerente, affidabile e antropocentrica, in linea con la Carta e con i valori su cui si fonda l’Unione. Cfr. il “considerando” (27) del regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 (AI Act).

[20] Cfr. l’art. 3, comma 6 del richiamato d.d.l. di cui all’a.s. n. 1146, che, al fine di garantire il rispetto dei diritti e dei princìpi cui si ispira l’intervento in esame, stabilisce che sia “assicurata, quale precondizione essenziale, la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale per finalità generali, secondo un approccio proporzionale e basato sul rischio, nonché l’adozione di specifici controlli di sicurezza, anche al fine di assicurarne la resilienza contro tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza”.

[21] Si veda il piano triennale per l’informatica nella PA 2024-2026 elaborato dall’Agenzia per l’Italia digitale, che include linee guida operative e best practice per semplificarne l’adozione da parte delle pubbliche amministrazioni, reperibile sul sito dell’AGID (https://www.agid.gov.it/it/agenzia/piano-triennale).

[22] Si collocano evidentemente in una differente prospettiva coloro i quali obiettano che il limite dell’approccio in esame sarebbe dato dal “carattere astratto della valutazione del rischio per tipologie di attività, che non consente alla Commissione UE una modificazione e, soprattutto, limita ex ante gli obblighi di trasparenza riguardo ad attività che in concreto possono rivelarsi pregiudizievoli per i diritti degli interessati”. In termini P. Foà, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, in Dir. amm., 2023, III, pp. 515 ss., spec. p. 519; F. Donati, Diritti fondamentali e algoritmi nella proposta di regolamento sull’intelligenza artificiale, in A. Pajno, F. Donati, A. Perrucci (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, I, Bologna, 2022, pp. 119 ss. Criticità sono riscontrate pure da G. Finocchiaro, La regolazione dell’intelligenza artificiale, cit., pp. 1085 ss., spec. pp. 1094 ss., che obietta la eccessiva rigidità del risk based approach, la quale ne determinerebbe uno scarso dinamismo “per seguire poi i successivi sviluppi dell’intelligenza artificiale”, nonché un eccesso in termini di formalismo, onerosità e indifferenziazione.

[23] Con la Recommendation of the Council on Artificial Intelligence, adottata in data 8 novembre 2023, l’OCSE è intervenuta, modificandola, sulla definizione di intelligenza artificiale recata dalla Raccomandazione OCSE sull’Intelligenza Artificiale del 2019 (OECD/LEGAL/0449, del 22 maggio 2019), laddove per “AI system” si intendeva “a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment”. Senza discostarsi dalla versione inizialmente offerta, un sistema di IA è stato successivamente definito come “a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment”.

[24] Laddove espressamente per “sistema di intelligenza artificiale” si intende “il sistema definito dall’articolo 3, punto 1) del regolamento (UE) 2024/1689”.

[25] Cfr. il “considerando” (4) e l’art. 3, § 1, n. 1), del regolamento. Per una puntuale disamina di ciascuno degli elementi costitutivi della definizione positivizzata si rinvia alle linee guida della Comissione europea: Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689, spec. “Objective and main elements of the AI system definition”, pp. 1 ss., reperibili sul sito istituzionale (https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application).

[26] La nozione di “sistema di IA” a livello europeo si basa, cioè, sulle principali caratteristiche dei sistemi di IA, che la distinguono dai tradizionali sistemi software o dagli approcci di programmazione più elementari e non riguarda “i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico. Una caratteristica fondamentale dei sistemi di IA è la loro capacità inferenziale”, con ciò intendendosi “il processo di ottenimento degli output, quali previsioni, contenuti, raccomandazioni o decisioni, che possono influenzare gli ambienti fisici e virtuali e alla capacità dei sistemi di IA di ricavare modelli o algoritmi, o entrambi, da input o dati”. Cfr. il “considerando” (12) dell’AI Act.

[27] Si veda il § successivo per la definizione di intelligenza artificiale secondo il regolamento europeo e il d.d.l. di cui all’a.s. n. 1146.

[28] V. il “considerando” (12) del regolamento.

[29] La prima e meno insidiosa interessa i settori a rischio minimo, che rappresentano la maggior parte dei sistemi di IA (si pensi ai filtri spam o ai videogiochi che sfruttano l’IA). In quanto tali, essi non sono soggetti ad alcun obbligo ai sensi del regolamento, ferma restando la facoltà per le imprese di adottare spontaneamente codici di condotta ad hoc.

[30] V. infra, § 6., a proposito del principio di trasparenza algoritmica.

[31] Si pensi, a titolo esemplificativo, ai “chatbot”. Sul punto merita di essere segnalato l’art. 50, comma 1 dell’AI Act, il quale, tra gli “Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA”, stabilisce, tra gli altri, chei fornitori garantiscono che i sistemi di IA destinati a interagire direttamente con le persone fisiche sono progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo”. Sotto il profilo dell’ambito di estensione di tale previsione, in mancanza di ulteriori specificazioni, solleva qualche perplessità il rimando alle caratteristiche soggettive, che rappresenta una sorta di esimente, affidata a niente altro che ad una valutazione discrezionale e soggettiva del fornitore o del deployers stesso. Si tratta di sistemi rispetto ai quali vengono in considerazione problematiche legate soprattutto alle fonti utilizzate e alla loro attendibilità e nell’ambito dei quali vengono per questo in rilievo in modo significativo i principi di tracciabilità (o trasparenza) e spiegabilità, nel senso che gli esseri umani devono essere resi consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente i deployer delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti. Ancora, il “considerando” (27) del regolamento.

[32] Su cui v. A. Santosuosso, G. Sartor, Decidere con l’IA. Intelligenze artificiali e naturali nel diritto, Bologna, 2024, passim.

[33] Il gruppo dei sistemi di IA ad “alto rischio” comprende, ad esempio, i software medici basati sull’IA o i sistemi di IA utilizzati per la selezione e l’assunzione di personale. Se infatti, in generale, per tutti i sistemi di IA sono prescritti requisiti e obblighi chiari per sviluppatori e operatori relativamente agli usi specifici dell’IA (riducendo, al contempo, gli oneri amministrativi e finanziari per le imprese), questi devono rispettare requisiti rigorosi, comprese misure di attenuazione dei rischi, elevata qualità delle serie di dati, informazioni chiare per gli utenti, sorveglianza umana. Il quarto ed ultimo gruppo riguarda infine i sistemi l’utilizzo dei quali espone i diritti e le libertà ad un rischio di compromissione inaccettabile: ad esempio, i sistemi di IA che permettono l’attribuzione di un “punteggio sociale” da parte di governi o imprese sono considerati una chiara minaccia per i diritti fondamentali delle persone e sono pertanto vietati.

[34] Art. 6, comma 3 del regolamento europeo.

[35] Con ciò intendendosi “un processo iterativo continuo pianificato ed eseguito nel corso dell’intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici” in costante aggiornamento (cfr. l’art. 9 dell’AI Act). Il sistema di gestione dei rischi è suddiviso in quattro fasi: 1) identificazione e analisi dei rischi noti e ragionevolmente prevedibili che il sistema di IA ad alto rischio può porre per la salute, la sicurezza e i diritti fondamentali quando è utilizzato conformemente alla sua finalità prevista; 2) stima e valutazione dei rischi che possono emergere quando il sistema è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile; 3) valutazione di altri eventuali rischi derivanti dall’analisi dei dati raccolti dal sistema di monitoraggio; 4) adozione di misure di gestione dei rischi opportune e mirate intese ad affrontare i rischi individuati nella prima fase. Queste ultime (da apprestare all’esito di un percorso finalizzato a testare i sistemi ai quali sono destinate: cfr. l’art. 9, commi 7 e 8 dell’AI Act) devono essere concepite in maniera equilibrata rispetto ai requisiti dettati per i sistemi ad alto rischio, al fine di ridurre al minimo i rischi implicati dall’utilizzo dei sistemi di IA e di far sì che i rischi residui associati a ciascun pericolo, nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio, siano considerati accettabili (art. 9, comma 5). Tali indicazioni saranno comunque meglio precisate dalla Commissione: si prevede, infatti, che, dopo aver consultato il consiglio europeo per l’IA ed entro il 2 febbraio 2026, la Commissione fornirà orientamenti che specificano l’attuazione pratica dei principi recati per i sistemi ad alto rischio, “insieme a un elenco esaustivo di esempi pratici di casi d’uso dei sistemi di IA ad alto rischio e non ad alto rischio” (art. 6, comma 5 del regolamento).

[36] Cfr. il “considerando” (61) del regolamento e l’allegato III, punto 8, lett. a), che, come ricordato, annovera, con espressione equivalente a quella del “considerando”, i “sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie”.

[37] V. supra § 2, nt. 19.

[38] Cfr. il “considerando” (61) del regolamento europeo.

[39] Cfr. Autonomy, Commission Guidelines on the definition of an artificial intelligence system, p. 4

[40] Art. 14, comma 1, dell’AI Act.

[41] Ibidem.

[42] “una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale”: cfr. l’art. 3, n. 4), del regolamento europeo.

[43] Com’è stato osservato in dottrina, “resta in ogni caso molto complicato misurare se l’affidamento riposto sull’attività di IA sia legittimo oppure viziato, giacché inevitabilmente il funzionario si pone in una situazione di naturale deferenza verso un procedimento automatizzato pre-impostato e controllato ex ante”. P. Foà, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, cit., p. 522.

[44] Con ciò intendendosi, relativamente all’utilizzo dei sistemi di intelligenza artificiale, la capacità della persona umana di mantenere una coscienza critica rispetto ad essi, variamente intesa come capacità di interagire, intervenire, controllare, modificare o sottoporre a revisione l’esito di un processo automatizzato, tanto più a fronte di sistemi in grado di assolvere a compiti equivalenti a quelli svolti dalla persona umana. Per maggiori ragguagli in materia si veda D. Martire, Human in the loop. L’essere umano come fattore condizionante della – o condizionato dalla – intelligenza artificiale, in Riv. it. inf. dir., 2024, II, 467 ss., spec. 468, che offre una definizione di tale sintagma quale “approccio in cui l’essere umano risulta coinvolto nel ciclo di addestramento, messa a punto e test dell’algoritmo. Un modello, dunque, che richiede una costante interazione dell’uomo con la macchina intelligente e che si declina sulla base dell’imperativo per cui l’essere umano deve mantenere il ruolo di protagonista all’interno dei processi decisionali”; L. Tarantino, L’istruttoria nel processo amministrativo alla prova delle nuove tecnologie, in L. R. Perfetti, G. Pesce (a cura di), L’istruzione nel processo amministrativo, Milano, 2024, pp. 148 ss.; W. Didimo, L. Grilli, G. Liotta, Efficient and trustworthy decision making through human-in-the-loop visual analytics: A case study on tax risk assessment, in Riv. it. inf. dir., 2022, II, pp. 15 ss.; B. Marchetti, La garanzia dello “human in the loop” alla prova della decisione amministrativa algoritmica, in BioLaw J., 2021, II, pp. 367 ss.

[45] Cfr. l’art. 14, comma 4, lett. e), del regolamento.

[46] In proposito si può ragionare in generale di “IA controllabile”: secondo la ISO 22989 “controllabile” è una “proprietà di un sistema di IA (3.1.4) [riguardo cui] un essere umano o un altro agente esterno (3.1.1) può intervenire nel funzionamento del sistema”. Cfr. A. Holzinger, P. Kieseberg, F. Cabitza, A. Campagner, A. M. Tjoa, E. Weippl, Controllable AI-An Alternative to Trustworthiness in Complex AI Systems?, in International Cross-Domain Conference for Machine Learning and Knowledge Extraction, Cham, 2023, pp. 1 ss.

[47] Più esattamente, “prendendo atto della crescente importanza dell’intelligenza artificiale (IA) nelle nostre moderne società, e dei benefici previsti quando sarà utilizzata pienamente al servizio dell’efficienza e della qualità della giustizia”, il 3-4 dicembre 2018, a Strasburgo, la CEPEJ ha fissato cinque principi che costituiscono la “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi” al fine di migliorare l’efficienza e la qualità della giustizia, ma a fare sì che, altresì, esso si svolga in modo responsabile, nel rispetto dei diritti fondamentali della persona, enunciati, tra gli altri, dalla Convenzione europea sui diritti dell’uomo e dalla Convenzione per la protezione dei dati personali. Tali sono: 1) rispetto dei diritti fondamentali: assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale in modo compatibile con i diritti fondamentali; non discriminazione: prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone; qualità e sicurezza: in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro; trasparenza, imparzialità ed equità: rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne; controllo da parte dell’utilizzatore: precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte.

[48] Art. 22. Salvo che ciò sia necessario per la conclusione o l’esecuzione di un contratto tra l’interessato e il titolare del trattamento; che la decisione automatizzata sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento (che precisa, altresì, le misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato) o che si basi sul consenso esplicito dell’interessato. In simili ipotesi il titolare del trattamento è comunque tenuto ad attuare “tutte le misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione” (art. 22, comma 3 GDPR).

[49] Sul punto è intervenuta la Cassazione (ord. 10 ottobre 2023, n. 28358) mettendo in chiaro che, affinché i presupposti del libero e specifico consenso al trattamento di dati per l’uso in un servizio che garantisce l’onorabilità di persone fisiche ed enti possa ritenersi soddisfatto, è “richiesto che l’aspirante associato sia in grado di conoscere l’algoritmo reputazionale inteso come procedimento affidabile per ottenere un certo risultato o risolvere un certo problema; e che detto algoritmo venga descritto all’utente in modo dettagliato e non ambiguo, come capace di condurre al risultato in un tempo definito (si è altresì precisato che il fatto che il procedimento, spiegato con i termini della lingua comune, sia altresì idoneo ad essere tradotto in linguaggio matematico è tanto necessario e certo, quanto irrilevante, poiché non è richiesto né che tale linguaggio matematico sia esteso agli utenti, né che essi lo comprendano; ciò che rileva è che sia possibile tradurre in linguaggio matematico/informatico i dati di partenza, cosicché il tutto divenga opportunamente comprensibile dalla macchina, grazie ai soggetti esperti programmatori, secondo le sequenze e le istruzioni tratte dai dati “in chiaro”)”.

[50] Cfr. l’art. 15 GDPR, che riconosce all’interessato “il diritto di ottenere dal titolare del trattamento la conferma che sia o meno in corso un trattamento di dati personali che lo riguardano e in tal caso, di ottenere l’accesso ai dati personali”, oltre che ad una serie di informazioni, tra cui “l’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato” (art. 15, lett. h). In senso analogo, l’art. 13, comma 2, lett. f), in caso di raccolta presso l’interessato di dati che lo riguardano, al fine di garantire un trattamento corretto e trasparente, onera il titolare del trattamento di fornire all’interessato “informazioni in merito all’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”.

[51] Art. 71 GDPR. Si è già visto come anche a livello statunitense tale parametro figuri tra i cinque principi che dovrebbero guidare lo sviluppo e l’utilizzo dell’intelligenza artificiale secondo quanto previsto dal Blueprint for an AI Bill of Rights. Making automated system work for the American people, laddove per tale s’intende la circostanza in forza della quale “automated systems contribute to unjustifieddifferent treatment or impacts disfavoring people based on their race, color, ethnicity, sex (includingpregnancy, childbirth, and related medical conditions, gender identity, intersex status, and sexualorientation), religion, age, national origin, disability, veteran status, genetic information, or any otherclassification protected by law”. Peraltro, si è già ricordato come proprio in USA ebbe origine la vicenda rimasta celebre di discriminazione algoritmica. V. infra, § 6., nt. 91, a proposito del caso Loomis.

[52] Negli USA, ad un esame complessivo della materia, appare più marcatamente, rispetto all’approccio fatto proprio a livello europeo, oltre che interno, l’ambizione di rendere gli Stati Uniti un Paese leader nella regolamentazione dei sistemi di intelligenza artificiale. Ciò è tanto vero, che proprio con riferimento agli approcci adottati da Stati Uniti, Unione Europea e Cina (dove, a cominciare dal “Next Generation AI Development Plan” del 2017, anche negli ultimi sono state emanate una serie di misure volte a completare il graduale processo di regolamentazione dell’IA Generativa c.d. “GenAI”) si è parlato di “imperi digitali”: il primo mira ad un mercato autoregolato, il secondo guarda alla regolazione come a uno strumento di garanzia della democrazia costituzionale e dei suoi diritti fondamentali, il terzo punta sui vantaggi di un grande stato totalitario. Così C. Pinelli, L’AI Act: gestione del rischio e tutela dei diritti, cit., p. 452; sugli imperi digitali v. A. Bradford, Digital Empires: The Global Battle to Regulate Technology, Oxford, 2023, passim.

[53] Sull’impiego dei sistemi di intelligenza artificiale nel processo civile a livello statunitense si veda G. De Cesare, Small claims” e intelligenza artificiale: una proposta efficientista, cit., 59 ss.

[54] Cfr. la Section 3 (b) dell’Executive order 14110 of October 30, 2023 “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”, adottato in USA del Presidente Biden, dove “The term ‘artificial intelligence’ or ‘AI’ has the meaning set forth in 15 U.S.C. 9401(3): a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations, or decisions influencing real or virtual environments. Artificial intelligence systems use machine- and human-based inputs to perceive real and virtual environments; abstract such perceptions into models through analysis in an automated manner; and use model inference to formulate options for information or action”. Ad esso ha fatto seguito più di recente, nell’ottica di una regolamentazione capillare della materia, il “Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence” con l’obiettivo di rendere gli Stati Uniti un Paese leader nello sviluppo mondiale di un’IA sicura, protetta e affidabile (Section 2, “Objectives”).

[55] Cfr. il Blueprint for an AI Bill of Rights. Making automated system work for the American people, p. 7. Tale criterio è posto a corredo dei principi di sicurezza ed efficacia del sistema di AI (safe and effective system); protezione dalla discriminazione algoritmica (algorithmic discrimination protection); protezione dei dati personali (data privacy); conoscibilità e comprensibilità a proposito dell’utilizzo del sistema di AI (notice and explanation); alternatività-sostituibilità umana (human alternatives, consideration, and fallback).

[56] Tale denominazione è stata adottata in fase di approvazione del disegno di legge in sede di prima lettura al Senato in data 20 marzo 2025, in luogo del titolo originario dell’atto, qual era “Disposizioni e delega al Governo in materia di intelligenza artificiale”. Il documento è attualmente all’esame delle Commissioni riunite X Attività produttive e IX Trasporti della Camera in sede Referente (a.c. 2316).

[57] Art. 1, comma 1, del disegno di legge, recante “Finalità e ambito di applicazione”.

[58] In proposito, vale la pena segnalare come la primigenia formulazione della disposizione (art. 14, comma 1, del d.d.l.) demandasse al Ministro della giustizia la disciplina per l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari relativamente alla giustizia ordinaria, mentre per le altre giurisdizioni si prevedeva che fossero chiamati a provvedere gli organi di governo competenti sulla base dei rispettivi ordinamenti, vale a dire il Consiglio di Presidenza della Giustizia amministrativa e le Sezioni riunite della Corte dei conti. Ragioni di coerenza e di uniformità hanno evidentemente indotto il legislatore, in prima lettura, a concentrare le competenze in materia in capo ad un unico ufficio, individuato, appunto, nel Ministero della giustizia.

[59] Ancora, il “considerando” (61).

[60] Si veda l’originaria versione dell’art. (non 15, ma) 14 del d.d.l. di cui all’a.s. n. 1146. La iniziale formulazione è apparsa il frutto di un’erronea interpretazione della regolamentazione intervenuta a livello europeo, nel senso che questa avrebbe “limitato al minimo, fin quasi ad azzerare, lo spazio per un utilizzo dei sistemi di AI nella decisione giudiziaria, in nome di un antropocentrismo chiuso ad ogni riconoscimento di un ruolo dell’intelligenza artificiale nei nostri processi cognitivi e decisionali”. In tal senso A. Punzi, La decisione giudiziaria nell’AI Act, cit., p. 448, critico rispetto ad una lettura restrittiva dell’AI Act sotto il profilo delle attività giudiziarie nelle quali sarebbe consentito l’impiego dell’IA.

[61] Appariva certamente limitante in questo senso l’esplicito riferimento “esclusivamente” ad attività legate alla organizzazione e semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale, tra l’altro inserito nel comma dedicato all’impiego dell’IA da parte dell’ufficio giudiziario (quindi sembrava diretto all’Ufficio per il processo), restando il secondo comma dedicato alla persona fisica. Tale formulazione una prima sembrava in sostanza degradare il livello di impiego dell’IA al processo ad un utilizzo di fatto equivalente a quello di una banca dati.

[62] Cfr. l’art. 3, commi 1 e 2 del d.d.l.

[63] Si tratta di quella tripartizione del possibile impiego dei sistemi di IA nella giustizia elaborata da parte della dottrina nordamericana, la quale distingue, secondo una gradazione ascendente, tra un primo livello, elementare, nel quale “technology can assist to inform, support and advise people involved in the justice system (‘supportive technology’). Second, technology can replace functions and activities that were previously carried out by humans (‘replacement technologies’). Finally, at a third level, technology can change that way that judges work and provide for very different forms of justice (‘disruptive technology’) that can include replacing some human decision-making”. In questo senso T. Sourdin, Justice in the Age of Technology: The Rise of Machines Is Upon US, in Precedent, 2017, p. 139; J. Morison, A. Harkens, Re-engineering justice? Robot judges, computerised courts and (semi) automated legal decision-making, in Legal Studies, 2019, IV, p. 632. Nella letteratura domestica rispetto a tale tripartizione v. S. Izzo, Lineamenti di uno studio sui livelli di interazione tra tecnologie pensanti e giustizia civile, in Studi economico giuridici dell’Università degli studi di Cagliari. Annali 2020, II, Napoli, 2020, pp. 147 ss., spec. p. 152; G. Lisella, Corti digitali e giustizia civile progressiva, in Giusto proc. civ., 2020, pp. 269 ss., spec. p. 270.

[64] Per una più diffusa riflessione in merito v. A. Panariello, Se l’algoritmo non può decidere la lite, che almeno ne tenti la conciliazione: la proposta conciliativa ex art 185 bis c.p.c. formulata dall’intelligenza artificiale, in Dir. proc. civ. it. comparato, 2021, pp. 129 ss., spec. pp. 137 ss.

[65] Sulla possibilità di demandare all’algoritmo la scelta del CTU, non senza criticità, si veda, in particolare, F. Fratini, Intelligenza artificiale e consulenza tecnica nel processo civile, in Act. iber., 2024, XX, pp. 1205 ss., che, nel contesto di un generale favor per tale soluzione, manifesta perplessità rispetto all’esigenza di trasparenza e correttezza dei risultati, alla luce della possibilità che i professionisti, in buona sostanza, “adattino” il loro curriculum ai criteri di scelta del consulente utilizzati dall’algoritmo, onde il rischio (concreto) di falsità dei risultati.

[66] Sul punto, peraltro, la riforma Cartabia è intervenuta sostituendo all’annotazione delle nomine nel registro tenuto dal cancelliere l’inserimento degli incarichi conferiti in “sistemi informatici regolamentati secondo le regole tecniche per l’adozione nel processo civile delle tecnologie dell’informazione e della comunicazione”. Ai sensi del nuovo art. 24-bis disp. att. c.p.c., nell’elenco nazionale dei consulenti tecnici istituito presso il Ministero della Giustizia confluiscono le annotazioni dei provvedimenti di nomina tramite i sistemi informatici di cui sopra.

[67] Corsivo nostro. Si direbbe, dunque, che l’intelligenza artificiale possa rappresentare un valido ausilio per l’autorità giudiziaria soprattutto in questo senso, specie in considerazione della necessità di rispettare il suddetto limite del 10% degli incarichi affidati dal rispettivo ufficio, salvo incorrere in responsabilità disciplinare. In proposito, vale peraltro la pena ricordare come, secondo la giurisprudenza di legittimità, il magistrato incorra la fattispecie di illecito disciplinare rilevanti ai sensi dell’art. 2, comma 1, lett. g) e n), del d.lgs. 23 febbraio 2006, n. 109, ricorra per il fatto stesso di non aver rispettato il “criterio dell’equa distribuzione degli incarichi di consulenza tecnica, concentrandoli su un numero ristretto di professionisti, in violazione del dovere di diligenza e correttezza, essendo a questo fine irrilevante la soglia del 10 per cento stabilita dall’art. 23 disp. att. c.p.c., la quale riguarda gli incarichi conferiti dall’intero ufficio e non dal singolo magistrato”.  In termini, Cass., Sez. Un., 18 maggio 2015, n. 10157.

[68] Cfr. il richiamato “considerando” (61) dell’AI Act.

[69] È l’idea di F. Fratini, Intelligenza artificiale e consulenza tecnica nel processo civile, cit., p. 1208, secondo il quale la prospettiva corretta “non è certo quella di una determinazione del consulente direttamente da parte della macchina, bensì quella di un sistema che, basandosi sul nuovo elenco nazionale dei consulenti tecnici, aiuti il giudice – senza tuttavia privarlo della propria discrezionalità – nella propria scelta, evidenziando i profili maggiormente rispondenti alle necessità poste dal caso di specie, eventualmente presenti anche fuori il distretto in cui ha sede il tribunale, e che garantisca by default la trasparenza ed il rispetto del principio di turnazione degli incarichi”.

[70] La decisione su tale questione non è, di regola, censurabile in sede di legittimità. “Tuttavia, la mancata ammissione di consulenza tecnica d’ufficio può costituire, nelle controversie che, per il loro contenuto, richiedano si proceda ad un accertamento tecnico, una grave carenza nell’accertamento dei fatti da parte del giudice di merito, che si traduce in un vizio della motivazione della sentenza, denunciabile, nel vigore del nuovo testo dell’art. 360 c.p.c., comma 1, n. 5, nei limiti in cui esso determini omesso esame di un fatto storico, principale o secondario, la cui esistenza risulti dal testo della sentenza o dagli atti processuali, che sia stato oggetto di discussione tra le parti, ed abbia carattere decisivo (…) detto sindacato è consentito là dove la c.t.u. non ammessa avrebbe potuto dare prova (in controversia che richieda necessario procedersi ad accertamento tecnico) di fatti storici decisivi per il giudizio che siano stati oggetto di discussione tra le parti e dei quali il giudice abbia omesso l’esame”. Cass., 11 dicembre 2023, n. 34579. Sulla possibilità di censurare l’esercizio del potere discrezionale di nomina del c.t.u. da parte dell’autorità giudiziaria ai sensi dell’art. 360, comma 1, n. 5 c.p.c., cfr., ex plurimis, Cass., 12 giugno 2024, n. 16319; Cass., 20 luglio 2018, n. 34158; Cass., 23 marzo 2017, n. 7472.

[71] Cfr. M. Taruffo, voce Prova scientifica (dir. proc. civ.), in Enc. dir., 2008, pp. 971 ss., spec. p. 974. V. anche Id., La prova scientifica nel processo civile, in Riv. trim. dir. proc. civ., 2005, p. 1080.  S. Aterno, P. Mazzotta, La perizia e la consulenza tecnica, Padova, 2006, p. 149: “un quesito posto male o incomprensibile potrebbe portare il consulente tecnico a rispondere al quesito in modo scientificamente corretto, ma assolutamente inutile”.

[72] L’art. 191 c.p.c., infatti, stabilisce che nei casi di cui agli artt. 61 ss. “il giudice istruttore, con ordinanza ai sensi dell’articolo 183, quarto comma, o con altra successiva ordinanza, nomina un consulente, formula i quesiti e fissa l’udienza nella quale il consulente deve comparire”.

[73] “…come per qualsiasi mezzo di prova – in senso lato, perché, lo ho ricordato dianzi, è discussa la natura di mezzo di prova della consulenza tecnica –, il giudice deve valutare l’ammissibilità e la rilevanza della consulenza tecnica d’ufficio. La rilevanza, come di consueto, sussiste quando il fatto da accertare o da valutare attraverso la prova scientifica debba essere considerato ai fini della decisione e non sia altrimenti già provato nel processo. Per quanto riguarda l’ammissibilità, la prova scientifica, naturalmente, non deve essere esclusa dalla natura della prova stessa, che potrebbe andare contro la legge o contro altri principi fondamentali che pure devono essere tutelati (quali la libertà morale o la dignità umana), né deve sopperire ad un difetto di allegazione o di prova a carico delle parti (come nel caso di richiesta di C.T.U. c.d. meramente esplorativa)”. In termini R. Poli, Diritto alla prova scientifica, obbligo di motivazione e sindacato in sede di legittimità, in Giust. civ., 2018, II, pp. 417 ss.

[74] L’idea di una più rigida interpretazione della riserva di umanità richiesta nell’utilizzo dei sistemi di IA nel settore della giustizia rispetto all’impiego che ne sarebbe consentito sulla base dell’interpretazione delle disposizioni del regolamento europeo è condivisa, se bene intendiamo, da A. Punzi, La decisione giudiziaria nell’AI Act, cit., pp. 448 ss.

[75] Si è ampiamente richiamato sul punto il “considerando” (61).

[76] Sulla intersezione tra intelligenza artificiale e p.a. v. amplius M. C. Pollicino, Gli effetti della “sommatoria” tra il GDPR e il nuovo Regolamento sulle intelligenze artificiali nell’ambito dell’attività amministrativa, in Riv. it. inf. dir., 2025, pp. 4 ss.; R. Cavallo Perin, La responsabilità della pubblica amministrazione al tempo dell’intelligenza artificiale, in Dir. amm., 2024, IV, pp. 1059 ss.; L. Zappalà, Dalla digitalizzazione della pubblica amministrazione all’amministrazione per algoritmi: luci e ombre dell’effetto “disruptive” sui rapporti di lavoro, in federalismi.it, 2024, XXVII, pp. 232 ss.; E. Chiti, B. Marchetti, N. Rangone, L’impiego di sistemi di intelligenza artificiale nelle pubbliche amministrazioni italiane: prove generali, in BioLaw J., 2022, II, pp. 489 ss.; B. Marchetti, La garanzia dello “human in the loop” alla prova della decisione amministrativa algoritmica, cit., pp. 367 ss.

[77] L’espressione è utilizzata dalla dottrina rispetto a quella di (alias) “principio antropocentrico” soprattutto in materia di amministrativa. Si veda in particolare da J. Ponce Solé, Il regolamento dell’unione europea sull’intelligenza artificiale, la discrezionalità amministrativa e la riserva di umanità, in Riv. trim. dir. pubbl., 2024, III, pp. 825 ss.; G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo, Padova, 2023, passim.

[78] Sull’argomento campeggia la decisione 8 aprile 2019, n. 2270 (in Giorn. dir. amm., 2019, VI, pp. 781 ss., con nota di V. Canalini, L’algoritmo come “atto amministrativo informatico” e il sindacato del giudice), con la quale il Consiglio di Stato è intervenuto per la prima volta sul tema dell’utilizzo dell’Intelligenza Artificiale nella p.a. L’occasione è stata offerta dall’impugnazione della pronuncia con la quale il Tar Lazio (decisione del 1 dicembre 2016, n. 12026), rigettava il ricorso promosso da alcuni docenti della scuola secondaria di secondo grado già inseriti nelle relative graduatorie ad esaurimento, individuati come destinatari di proposta di assunzione a tempo indeterminato, in conseguenza del piano straordinario nazionale (di cui alla legge 13 luglio 2015, n. 107) nella fase “B”. I ricorrenti lamentavano di essersi ritrovati destinatari di una nomina su classi di concorso ed ordine di scuola in cui non avevano mai lavorato, benché avessero espresso preferenza per quella di secondo grado, ed in province lontane rispetto a quella di provenienza, quando poi in seguito, durante la fase “C”, i docenti collocati in graduatoria in posizione deteriore rispetto agli appellanti, hanno beneficiato dell’assunzione a tempo indeterminato nella classe di concorso prescelta e nella provincia di residenza. Le criticità derivavano dal fatto che la decisione sarebbe stata frutto di un meccanismo algoritmico “il cui funzionamento sarebbe rimasto sconosciuto) ed era sfociata in provvedimenti privi di alcuna motivazione, senza l’individuazione di un funzionario dell’amministrazione che abbia valutato le singole situazioni ed abbia correttamente esternato le relative determinazioni provvedimentali”. Nel riformare la sentenza impugnata, il Consiglio di Stato, premessi “gli indiscutibili vantaggi derivanti dalla automazione del processo decisionale dell’amministrazione mediante l’utilizzo di una procedura digitale ed attraverso un ‘algoritmo’”, ha tuttavia rilevato che: 1) “l’algoritmo a cui una amministrazione affidi un proprio processo decisionale deve essere considerato a tutti gli effetti un atto amministrativo informatico”; 2) l’utilizzo da parte della p.a. di un algoritmo il cui funzionamento deve essere conoscibile (“secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico”) e soggetto alla cognizione e al sindacato del giudice amministrativo “in tutte le sue componenti: dalla sua costruzione, all’inserimento dei dati, alla loro validità, alla loro gestione”, pena la violazione dei principi di imparzialità, pubblicità, trasparenza che informano l’attività amministrativa; 3) con particolare riferimento alla regola algoritmica: “- possiede una piena valenza giuridica e amministrativa, anche se viene declinata in forma matematica, e come tale deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza, di ragionevolezza, di proporzionalità, etc.; – non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili; la discrezionalità amministrativa è da rintracciarsi al momento dell’elaborazione dello strumento digitale; – vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning); – deve contemplare la possibilità che sia il giudice a dover svolgere, per la prima volta sul piano ‘umano’, valutazioni e accertamenti fatti direttamente in via automatica, con la conseguenza che la decisione robotizzata impone al giudice di valutare la correttezza del processo automatizzato in tutte le sue componenti”. Nella giurisprudenza successiva in materia di procedimento amministrativo analoghi principi sono stati sanciti da Cons. Stato, 13 dicembre 2019, n. 8472: l’utilizzo nel procedimento amministrativo di una procedura informatica che attraverso un algoritmo conduca direttamente alla decisione finale deve ritenersi ammissibile, in via generale, nel nostro ordinamento, anche nell’attività amministrativa connotata da ambiti di discrezionalità, a condizione che siano osservati: a) la piena conoscibilità del modulo; b) l’imputabilità della decisione e delle correlate responsabilità all’organo titolare del potere; c) il carattere non discriminatorio dell’algoritmo utilizzato.

[79] La giustizia predittiva, tradizionalmente, designa la possibilità di prevedere il possibile esito di una controversia sulla base delle precedenti soluzioni di casi analoghi o simili; nel caso di specie, essa insisterebbe su di un sistema basato su di un modello statistico, elaborato in maniera autonoma dal sistema stesso, a seguito dell’analisi di una mole significativa di atti giuridici, all’esito del quale formulare una previsione che può giungere fino al possibile esito di un giudizio. In dottrina cfr., ex multis, F. Savini, Riflessioni sul rapporto tra intelligenza artificiale e giustizia predittiva, in Dir. proc. civ. it. comparato, 2025, pp. 220 ss.; A. Simoncini, La dimensione costituzionale della giustizia predittiva. Riflessioni su intelligenza artificiale e processo, in Riv. dir. proc., 2024, pp. 389 ss.; A. Graziosi, Giurisdizione civile e nuove tecnologie. II. Intelligenza artificiale, giustizia predittiva e prevedibilità della decisione giudiziaria, cit., pp. 337 ss.; M. Biasi, A. Lombardi, Processo del lavoro e giustizia predittiva: prime riflessioni, in Riv. it. dir. lav., 2023, pp. 361 ss.; E. Battelli, Giustizia predittiva decisione robotica e ruolo del giudice, in Giust. civ., 2020, pp. 281 ss.; G. Zaccaria, Figure del giudicare: calcolabilità, precedenti, decisione robotica, cit., pp. 291 ss.; D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Foro it., 2018, XII, pp. 385 ss.

[80] Che non è aliena rispetto alla nozione di predittività, essendo entrambe “aspetti o declinazioni della medesima esigenza di certezza del diritto”. In questo senso D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, cit., p. 385. In tema di (im)prevedibilità della sentenza già P. Calamandrei, Giustizia e politica: sentenza e sentimento, in Opere giuridiche, I, Roma, 2019, (rist. a cura di M. Cappelletti), p. 646.

[81] È chiaro il riferimento alla creazione di un Tribunale “unificato” per la tutela delle persone, dei minorenni e delle famiglie, tra le cui sezioni sia favorito lo scambio delle informazioni al fine della uniformità degli orientamenti e, quindi, della prevedibilità delle decisioni. Un ruolo cardine in questo senso è attribuito ai magistrati incardinati presso l’Ufficio, nonché ai presidenti delle sezioni distrettuali e circondariali. Per una più ampia riflessione in merito, si vis, M. Morgese, sub Art. 50 R.D. 30 gennaio 1941, n. 12. Composizione dell’ufficio del tribunale per le persone, per i minorenni e per le famiglie, in R. Tiscini (a cura di), La riforma Cartabia del processo civile, cit., pp. 1180 ss., nonché Id., sub Art. 50.3 R.D. 30 gennaio 1941, n. 12. Attribuzioni del presidente della sezione distrettuale e delle sezioni circondariali, cit., 1189 ss., spec. pp. 1191 ss.

[82] Sul principio sopra richiamato in dottrina cfr., ex plurimis, F. Noceto, Chiarezza e sinteticità degli atti di parte nella recente riforma del processo civile. Minimi tentativi di inquadramento sistematico, in Riv. trim. dir. proc. civ., 2024, II, pp. 617 ss.; F. De Giorgis, Principio di sinteticità espositiva e inammissibilità del ricorso per cassazione, in Riv. dir. proc., 2020, pp. 244 ss.; G. Canale, La violazione del dovere di sinteticità e chiarezza: abuso del processo?, cit., pp. 1025 ss.; F. Di Marzo, Postfazione, in G. Conte, F. Di Marzo (a cura di), La sintesi negli atti giuridici, Milano, 2018, pp. 254 ss.; A. Panzarola, Sul (presunto) principio di sinteticità degli atti processuali civili, ivi, 2018, pp. 69 ss.; F. De Santis, La redazione degli atti difensivi ai tempi del processo civile telematico: sinteticità e chiarezza, cit., pp. 749 ss.; C. Rasia, La crisi della motivazione nel processo civile, Bologna, 2016, passim; A. Storto, Il principio di sinteticità degli atti processuali, in Giusto proc. civ., 2015, pp. 1191 ss.; G. Finocchiaro, Il principio di sinteticità nel processo civile, in Riv. dir. proc., 2013, pp. 853 ss.

[83] Si pensi, ad esempio, agli artt. 173-bis e 173-quater c.p.c., i cui ultimi commi, nell’ambito dell’esecuzione forzata, rimandano, per quanto riguarda la redazione della relazione di stima e l’avviso delle operazioni di vendita ai “modelli predisposti dal giudice dell’esecuzione”. In generale, l’art. 46, comma 4, disp. att. c.p.c., con riferimento agli atti informatici, demanda al Ministero della giustizia, sentiti il CSM e il CNF, il compito di definire gli “schemi informatici degli atti giudiziari”, stabilendone i limiti, tenendo conto “della tipologia, del valore, della complessità della controversia, del numero delle parti e della natura degli interessi coinvolti”, fermo restando che il mancato rispetto dei limiti di redazione dell’atto “non comporta invalidità, ma può essere valutato dal giudice ai fini della decisione sulle spese del processo”.

[84] In questo senso A. Bonafine, Processo telematico, cit., p. 181, ove anche ulteriori riferimenti.

[85] “Il problema della prevedibilità delle decisioni giudiziarie non è certo nuovo alla riflessione giuridica, e di sicuro non è nato con l’avvento delle tecnologie informatiche, ma anzi costituisce da sempre una delle principali questioni di teoria generale del processo, poiché è direttamente connesso, ed in qualche modo speculare, al più ampio e fondamentale tema della certezza del diritto”. In termini A. Graziosi, Giurisdizione civile e nuove tecnologie. II. Intelligenza artificiale, giustizia predittiva e prevedibilità della decisione giudiziaria, cit., pp. 337 ss., spec. p. 339.

[86] Esplicito in questo senso è l’art. 3, comma 3, del d.d.l.

[87] Sul tema si rinvia a S. Bartole, Ricorso alla regola dello “stare decisis” o sommarietà di motivazione? (A proposito dei meriti della trattazione nella stessa udienza di giudizi concernenti questioni simili), in Quad. cost., 2021, pp. 192 ss.; M. Esposito, Lo “stare decisis” al vaglio dei principi costituzionali, in Riv. dir. proc. civ., 2020, III, pp. 1007 ss.; V. Capasso, Il ricorso per cassazione avverso … la giurisprudenza. Contro uno stare “decisis” “all’italiana”, in Riv. trim. dir. proc. civ., 2019, II, pp. 627 ss.; R. Rordorf, Stare decisis: osservazioni sul valore del precedente giudiziario nell’ordinamento italiano, in Foro it., 2006, IX, pp. 279 ss.; V. Marinelli, voce Precedente giudiziario, in Enc. dir., Agg., 2002, VI, pp. 871 ss.; non potrebbe mancare il rimando agli studi di G. Gorla, Lo studio interno e comparativo della giurisprudenza e i suoi presupposti: le raccolte e le tecniche per la interpretazione delle sentenze, in Foro it., 1964, V, pp. 87 ss.; Id., Raccolta di saggi sull’interpretazione e sul valore del precedente giudiziale in Italia, in Quad. Foro it., 1966, pp. 6 ss.; Id., voce Precedente giudiziale, in Enc. giur., XXIII, Roma, 1990, pp. 4 ss. Densa è la letteratura in materia anche nell’ambito del processo amministrativo. Tra gli altri, si vedano L. R. Perfetti, Il valore del precedente nel processo amministrativo. Osservazioni a partire da Diana Santiago Iglesias, “La jurisprudencia y su función en el ordenamiento jurídico administrativo un estudio desde la óptica de los principios de igualdad y seguridad jurídica”, in P.A. Pers. amm., 2023, pp. 783 ss.; C. Lamberti, “Stare decisis”, nomofilachia e supremazia nel diritto amministrativo, in Giur. it., 2013, IV, pp. 976 ss.; E. Follieri, L’introduzione del principio dello “stare decisis” nell’ordinamento italiano, con particolare riferimento alle sentenze dell’Adunanza Plenaria del Consiglio di Stato, in Dir. proc. amm., 2012, IV, pp. 1237 ss.

[88] Cfr. l’art. 3, punto 33), del regolamento europeo sull’intelligenza artificiale.

[89] Ibidem, art. 3, punto 1).

[90] Sul punto v. in particolare A. Bonafine, L’intelligenza artificiale applicata al ragionamento probatorio nel processo civile. È davvero possibile e/o auspicabile?, in R. Giordano, A. Panzarola, A. Police, S. Preziosi, M. Proto (a cura di), Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, Milano, 2022, pp. 923 ss.

[91] In materia non è inutile ricordare, benché celebre, il c.d. “caso Loomis” (caso State v. Loomis, 13 luglio 2016, N. 2015AP157-CR), definito dalla Corte Suprema del Wisconsin circa un decennio orsono, nel quale la difesa di Eric Loomis, condannato a sei anni di carcere per alcuni fatti di rilevanza penale occorsi tre anni prima, contestava l’oscurità dell’algoritmo (nella specie non tanto opaco, quanto segreto, perché coperto da un brevetto industriale) sulla base del quale l’imputato era stato condannato in primo grado: secondo l’algoritmo “Compas” (Correctional offender management profiling for alternative sanctions), l’imputato sarebbe stato soggetto a recidiva. La difesa ricorreva, così, in appello, contestando la violazione del diritto ad un equo processo, in conseguenza del fatto, in particolare, che l’algoritmo avrebbe espresso il giudizio di pericolosità di Loomis prendendo le mosse dal rischio di recidiva calcolato sulla base di un punteggio ricavato attraverso l’esame delle risposte ad un questionario composto da 137 domande relative alle caratteristiche psicologiche della persona, al suo contegno e ai precedenti penali eventualmente esistenti. La decisione venne confermata sia in appello, sia nel successivo grado di giudizio dinanzi alla Corte Suprema del Wisconsin, la quale, pur precisando che l’autorità giudiziaria non dovrebbe fondare la propria decisione esclusivamente sulle risultanze offerte dall’algoritmo, osservava, tuttavia, che l’esito del giudizio sarebbe stato lo stesso a prescindere dall’utilizzo dell’algoritmo. Sembra utile aggiungere come, all’esito di uno studio condotto da ProPublica, pubblicato nel 2016, basato sull’analisi dei dati di utilizzo relativi a 18.610 soggetti nella Broward County, Florida, sia emerso un funzionamento discriminatorio da parte di Compas nei confronti degli afroamericani, rispetto ai quali l’algoritmo in esame avrebbe una tendenza a sovrastimare il rischio di recidiva rispetto a quello delle per­sone di pelle chiara. Cfr. J. Angwin, J. Larson, S. Mattu, L. Kirkner, Pro Publica, Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks, in https://www.propublica.org/article/ machine-bias-risk-assessments-in-criminal-sentencing, 23 maggio 2016. Sull’esigenza di garantire la non discriminazione algoritmica nella letteratura successiva cfr., ex multis, Z. Obermeyer, B. Powers, C. Vogeli, S. Mullainathan, Dissecting racial bias in an algorithm used to manage the health of populations, in Science, 2019, CCCLXVI, pp. 447 ss.; K. Kirkpatrick, It’s not the algorithm, it’s the data, in Communications of the ACM, 2017, LX, pp. 21 ss. Nella letteratura domestica, tra gli altri, cfr. M. Piastra, Il bias negli algoritmi, in Psicologia del giudicare, quad. 32, Roma, 2024, pp. 171 ss., anche ove con particolare riferimento al caso in discorso; A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw J., 2019, pp. 85 ss.

[92] Si parla, in proposito, di non-neutralità dell’algoritmo, altra faccia del principio di non discriminazione algoritmica, di cui pocanzi (oltre alla nota che precede v. retro, spec. § 3.), ossia della scarsa tendenza degli algoritmi ad operare in maniera imparziale e, dunque, ad offrire risultati oggettivi. Come osserva S. Del Gatto, Potere algoritmico, digital welfare state e garanzie per gli amministrati. I nodi ancora da sciogliere, in Riv. it. dir. pubbl. comunitario, 2020, VI, pp. 829 ss., spec. p. 835, “i software non possono essere considerati neutrali, in quanto le correlazioni tra dati risentono delle impostazioni iniziali del programmatore riportando i pregiudizi umani all’interno della macchina”. La problematica relativa alla non neutralità dell’algoritmo emerge in molteplici forme, corrispondenti ai vari ambiti di impiego dell’intelligenza artificiale. Si offrono di seguito alcuni dei principali riferimenti in materia: M. Gonzalo Quiroga, Sfide e opportunità dell’intelligenza artificiale nell’arbitrato internazionale, in Riv. arb., 2024, II, pp. 369 ss., spec. pp. 388 ss.; M. Biasi, A. Lombardi, Processo del lavoro e giustizia predittiva. Prime riflessioni, in Riv. it. dir. lav., 2023, II, pp. 361 ss., spec. pp. 367 ss.; V. Nuzzo, La intrinseca natura discriminatoria dei modelli organizzativi basati sui punteggi di eccellenza per i più affidabili e produttivi, ivi, 2023, IV, pp. 763 ss.; A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, cit., pp. 85 ss.

[93] V. retro, § 1., nt. 11.

[94] Cfr. Cons. Stato, 25 novembre 2021, n. 7891, cit., in una controversia avente ad oggetto “l’esatta perimetrazione della nozione di ‘algoritmo di trattamento’ nell’ambito e nel contesto di una procedura nazionale di gara per la fornitura di pacemaker di alta fascia”, nella quale la Commissione di gara riteneva soddisfatto il possesso di algoritmi sia per prevenzione che per il trattamento, attribuendo il punteggio massimo, solo nel caso di algoritmi “automatici”. Il Tar Lombardia, nella sentenza impugnata (31 marzo 2021, n. 843), aveva definito il concetto di “algoritmo” come “una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato (come risolvere un problema oppure eseguire un calcolo e, nel caso di specie, trattare un’aritmia)”, da non confondere con la nozione di “intelligenza artificiale”, riconducibile, invece, allo studio di “agenti intelligenti”, cioè di “sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati”. Ne sono esempio quelli “che interagiscono con l’ambiente circostante o con le persone, che apprendono dall’esperienza (machine learning), che elaborano il linguaggio naturale oppure che riconoscono volti e movimenti”. In riforma della sentenza impugnata, il Consiglio di Stato ha, invece, osservato come se, certamente, la nozione comune e generale di algoritmo riporta alla mente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato”, tuttavia, tale nozione, quando è applicata a sistemi tecnologici, è collegata al concetto di automazione, ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano.

[95] F. Fratini, Intelligenza artificiale e consulenza tecnica nel processo civile, cit., p. 1211. V., inoltre, L. Maldonado, Algoritmi predittivi e discrezionalità del giudice: una nuova sfida per la giustizia penale, in Dir. pen. cont., 2019, p. 408.

[96] Su cui cfr., tra gli altri, L. Nazzicone, La motivazione della sentenza, Milano, 2024, pp. 210 ss.; G. Zaccaria, Figure del giudicare: calcolabilità, precedenti, decisione robotica, in Riv. dir. civ., 2020, II, pp. 291 ss.; E. Gabellini, La “comodità nel giudicare”: la decisione robotica, in Riv. trim. dir. proc. civ., 2019, pp. 1307 ss.; Ead., Algoritmi decisionali e processo civile, cit., pp. 72 ss.; A. Carratta, Decisione robotica e valori del processo, in Riv. dir. proc., 2020, p. 512; A. Carleo (a cura di), Decisione robotica, Bologna, 2019, passim.

[97] È questa la proposta di M. Gradi, Burocrazia giudiziaria, cit., p. 765, secondo il quale, “la sentenza robotica potrebbe valere come ‘progetto di sentenza’ per ridurre e semplificare il lavoro del giudice, tanto in termini di accertamento dei fatti quanto di interpretazione giuridica”.

[98] Su questi profili v. A. Merone, Le prove digitali e l’uso dell’intelligenza artificiale per finalità istruttorie, cit., pp. 905 ss., spec. pp. 916 ss.

[99] Perplessità in questo senso sono state manifestate già da M. Gradi, Burocrazia giudiziaria, cit., p. 764, nel momento in cui evidenzia che la soluzione di decisioni fondate sull’algoritmo avrebbe l’effetto della scomparsa della motivazione, “perché semplicemente si accetterà la decisione proposta dal programma di intelligenza artificiale, decisione che sarà considerata sufficientemente giustificata se l’algoritmo è stato correttamente programmato e nessuno lo mette in discussione”; J. Nieva- Fenoll, Intelligenza artificiale e processo, cit., p. 107, il quale, pur riconoscendo complessivamente la necessità di dare spazio all’intelligenza artificiale nel processo civile, d’altro canto osserva come la decisione algoritmica, che prenderà il posto di quella dell’autorità giudiziaria, “sarà considerata sufficientemente giustificata se l’algoritmo è stato correttamente programmato e nessuno lo mette in discussione”.

[100] Annovera espressamente tra i principi generali in tema di utilizzo dei sistemi di IA nella giustizia la conoscibilità, trasparenza e spiegabilità l’art. 3, comma 3 del d.d.l. di cui all’a.s. n. 1146.

[101] A livello europeo il principio della c.d. trasparenza algoritmica era già stato previsto dal ricordato “GDPR”, che stabiliva l’obbligo del titolare del trattamento di fornire all’interessato le informazioni “necessarie per garantire un trattamento corretto e trasparente” (art. 13, comma 2) e il diritto corrispondente dell’interessato di essere a conoscenza della eventuale “esistenza di un processo decisionale automatizzato”, di “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato” (art. 15, comma 1, lett. h). Allo stesso modo, è stata la preoccupazione, tra le altre, di un utilizzo “in a non-transparent and non-explainable way” dell’intelligenza artificiale “for automatic decision making” ad aver determinato l’adozione delle linee guida sull’utilizzo dell’intelligenza artificiale – linee guida incentrate su di una logica di controllo e organizzazione dell’utilizzo dell’IA da parte delle organizzazioni e delle istituzioni – a livello internazionale da parte della ISO e della IEC (v. retro, § 2.).

[102] Che, dal canto suo, “non esime dalla necessità che la ‘formula tecnica’, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella ‘regola giuridica’ ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice”. Cons. Stato, 8 aprile 2019, n. 2270, cit., in tema di utilizzo di algoritmi nell’ambito del procedimento amministrativo.

[103] Di recente ha attirato l’attenzione il primo uso espresso del noto chatbot “ChatGPT” da parte del Rechtbank Gelderland olandese (decisione del 26 luglio 2024, n. 10664071, ECLI:NL:RBGEL:2024:3636), in un caso relativo ad una controversia tra due proprietari immobiliari, uno dei quali aveva sopraelevato causando al vicino un rendimento inferiore dei suoi pannelli solari, che chiedeva quindi i danni. Nella vicenda il tribunale ha dichiarato di aver adottato la decisione anche attraverso l’utilizzo di ChatGPT, al quale era stato chiesto in particolare di determinare la durata media dei pannelli solari, al fine della quantificazione dei danni risarcibili, senza, tuttavia, offrire chiarimenti in merito alla logica utilizzata, con potenziale lesione del diritto di difesa. Quanto detto induce a prestare il fianco al rilievo in forza del quale “il debutto dell’intelligenza artificiale nel processo è avvenuto in maniera un po’ scomposta”. In termini G. Finocchiaro, L’intelligenza artificiale nell’ambito giudiziario, cit., p. 425, alla quale si rinvia per una più riflessione sulla vicenda, oltre a F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, in Dir. proc. civ. it. comp., 2024, IV, pp. 922 ss., spec. p. 924; V. Capasso, Usi e abusi di ChatGPT come law e fact finder, cit., pp. 39 ss.

[104] Cons. Stato, 8 aprile 2019, n. 2270, cit.

[105] Cfr. l’art. 342 c.p.c., per l’appello, e l’art. 366 c.p.c. per il ricorso per Cassazione. Per i riferimenti in materia v. retro, § 5., nt. 82.

[106] Già circa due anni orsono il Senato aveva elaborato disegni di legge in materia di intelligenza artificiale, segnatamente il d.d.l. di cui all’a.s. del 19 ottobre 2023, n. 917, recante “Misure sulla trasparenza dei contenuti generati da IA”, il d.d.l. di cui all’a.s. del 12 marzo 2024, n. 1066, recante “Norme per lo sviluppo e l’adozione di tecnologie di intelligenza artificiale”. Tali interventi, in linea con quanto stabilito dal già ricordato art. 50, commi 2 e 4 dell’AI Act (che, salvo che si tratti di “sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare o perseguire reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato”, chiama “i fornitori e i deployers di determinati sistemi di IA”, tra gli altri, a rendere noto, ai fini della trasparenza, “che il contenuto è stato generato o manipolato artificialmente”), ancora in fase di esame, sono stati concepiti con il fine di far sì che i contenuti generati dall’IA siano chiaramente identificati come tali e siano resi riconoscibili agli utenti attraverso sistemi di etichettatura, salva la sorveglianza dell’AGCOM sul rispetto della normativa.

[107] In materia campeggia la problematica relativa all’utilizzo di tali strumenti in materia di consenso informato. Si veda Cass., 10 ottobre 2023, n. 28358: “per integrare i presupposti del libero e specifico consenso al trattamento di dati per l’uso in un servizio che garantisce l’onorabilità di persone fisiche ed enti, è richiesto che l’aspirante associato sia in grado di conoscere l’algoritmo reputazionale inteso come procedimento affidabile per ottenere un certo risultato o risolvere un certo problema; e che detto algoritmo venga descritto all’utente in modo dettagliato e non ambiguo, come capace di condurre al risultato in un tempo definito”.

[108] Lo spunto proviene oltreoceano, dove la giurisprudenza federale statunitense, in più di un’occasione, ha richiamato i difensori all’obbligo di specificare l’utilizzo (o il non utilizzo) di sistemi di intelligenza artificiale per la redazione degli scritti difensivi, precisando soprattutto che l’utilizzo dell’IA “has not resulted in the disclosure of any confidential or business proprietary information to any unauthorized party”. La principale preoccupazione è data, infatti, dal pericolo di possibili “rimaneggiamenti” di informazioni riservate: “because generative artificial intelligence programs challenge the Court’s ability to protect confidential and business proprietary information from access by unauthorized parties, it is hereby: ORDERED that any submission in a case assigned to Judge Vaden that contains text drafted with the assistance of a generative artificial intelligence program on the basis of natural language prompts, including but not limited to ChatGPT and Google Bard, must be accompanied by: (1) A disclosure notice that identifies the program used and the specific portions of text that have been so drafted; (2) A certification that the use of such program has not resulted in the disclosure of any confidential or business proprietary information to any unauthorized party; and it is further” (cfr. “Order on artificial intelligence”, dato dalla United States Court of International Trade, nella persona del giudice Alexander Vauden, in data 8 giugno 2023, reperibile sul sito della Corte: https://www.cit.uscourts.gov/sites/cit/files/Order%20on%20Artificial%20Intelligence.pdf). Al pericolo per la compromissione di dati personali si aggiunge la potenziale e spesso attuale inattendibilità delle risultanze offerte dall’algoritmo, che ha portato in qualche occasione i giudici federali a voler vietare del tutto l’impiego dell’IA per la redazione degli scritti difensivi, alla luce del fatto che “these platforms in their current states are prone to hallucinations and bias. On hallucinations, they make stuff up—even quotes and citations” (si veda più ampiamente J. Thomsen, US judge orders lawyers to sign AI pledge, warning chatbots “make stuff up”, in reuters.com, 2 giugno 2023).

[109] Il tema è già stato affrontato in altra occasione. Se vuoi, v. M. Morgese, Limiti all’obbligo di verità delle parti nel processo. Il principio di leale collaborazione per l’efficienza della giustizia civile, cit., pp. 443 ss. L’idea di un obbligo di “disclosure algoritmica” in capo alle parti, pregevole nelle sue intenzioni, non convince del tutto, anche se ci si pone nella prospettiva dei riscontri attesi, una volta che questo sia stato osservato, dalle controparti e dal giudice nel processo, non potendo certo fungere da scriminante rispetto all’eventuale impiego negli scritti difensivi di informazioni non veritiere o di altre forme di “allucinazioni” del sistema. Insomma, si direbbe che l’IA in tale contesto dovrebbe essere utilizzata “a rischio e pericolo” dei difensori. Più delicato è indubbiamente il profilo legato alla possibile “diffusione” di dati e informazioni sensibili, aspetto che, d’altro canto, una volta che questi provengano da dati (a chiunque) accessibili tramite l’utilizzo del sistema di IA, parrebbe, piuttosto, inserirsi nel contesto della più ampia riflessione intorno al notorio (su cui v. infra, ove anche riferimenti).

[110] La riflessione è offerta dalla disamina (che conduce ad una conclusione critica rispetto alla possibilità di equiparare l’interrogazione del sistema di IA e la valutazione dei fatti operata dal CTU) di F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, cit., pp. 922 ss., spec. p. 924.

[111] Cfr. F. Fratini, Intelligenza artificiale e consulenza tecnica nel processo civile, in Act. Jur. Ibero., 2024, XX, pp. 1198 ss., spec. p. 1208, nt. 32.

[112] Pare superfluo ricordare come tale disposizione, a prescindere dall’eventuale nomina di consulenti tecnici di parte, assicuri alle parti la fissazione di un termine entro il quale queste dovranno trasmettere le loro osservazioni rispetto agli esiti della consulenza tecnica.

[113] Che contribuisce a fondare la convinzione in forza della quale “in luogo della deferenza epistemica che tipicamente connota la relazione tra il giudice e l’esperto, qui l’atteggiamento appropriato alla relazione dev’essere di diffidenza, e al modo in cui lo scetticismo professionale caratterizza alcune funzioni di controllo”. In termini, F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, cit., p. 924.

[114] Si tratta di una “concezione che non era neppure immaginabile nell’impianto originario del codice”. In questo senso G. Della Pietra, La vicinanza della prova e la prova “più prossima” che c’è: internet, in Giusto proc. civ., 2018, pp. 1033 ss., spec. 1052, secondo il quale “in chiave processuale notorio non è più solo quel patrimonio di nozioni che, conosciute diffusamente da una data collettività, s’impongono nel processo senza necessità di dimostrazione”, ma è “anche quella messe di informazioni che, pur non dotate di alcuna diffusione, in un dato momento sono attingibili contemporaneamente da tutti e senza la collaborazione di alcuno”, senza tuttavia che vi sia alcuna “differenza tra un fatto di cui il giudice tiene conto, benché non provato, perché universalmente conosciuto, e un fatto che, non diversamente provato, il giudice impiega perché attinto o verificato sul web”. La letteratura su questi temi è assai densa. Si vedano S. De Gasperis, Lo stato dell’arte su fatti notori e massime d’esperienza (nota a Cass., sez. I civ., ord., 28 febbraio 2023, n. 6075, Pres. Genovese, Rel. Terrusi), in www.judicium.it, 16 aprile 2024, pp. 1 ss., secondo il quale, peraltro, la definizione di “notorio giudiziale” non sarebbe coincidente con quella di “notorio”, dal momento che la prima avrebbe ad oggetto le nozioni di fatto che il giudice ha acquisito nell’esercizio della funzione giudiziale e non in sede privata “o comunque in una veste diversa da quella istituzionale” (v. spec. p. 4, nt. 6); S. Patti, I fatti notori tra oralità e scrittura (digitale), in Riv. trim. dir. proc. civ., 2024, II, pp. 449 ss.; F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, cit., p. 925; P. Licci, L’impatto dell’intelligenza artificiale sui poteri istruttori del giudice e sulla definizione dei fatti notori, in R. Giordano, A. Panzarola, F. Police, S. Preziosi, M. Proto (a cura di), Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, op. cit., pp. 885 ss.; E. Fabiani, Progresso tecnologico e accertamento dei fatti nel processo civile: informazioni “online” e poteri d’ufficio del giudice, in Giusto proc. civ., 2021, II, pp. 337 ss.; A. Panzarola, Il notorio, la judicial notice e i concetti di prova, in Riv. dir. proc., 2016, pp. 610 ss., cui anche per una prospettiva comparatistica.

[115] V. retro, § 4.

[116] Si veda in questo senso la modifica che l’art. 17 del d.d.l. prevede di apportare all’art. 9, comma 2, c.p.c.

[117] Anche in questo caso (come è già stato con la creazione del Tribunale per le persone, per i minorenni e per le famiglie) si prevede che agli adempimenti connessi con la creazione della nuova ipotesi di competenza “si provvede avvalendosi delle ordinarie risorse umane, strumentali e finanziarie disponibili a legislazione vigente anche attraverso riorganizzazione e ripartizione programmata dei carichi di lavoro”. Sul punto, nel corso dei lavori preparatori era stato precisato che i magistrati di tribunale si avvalgono di conoscenze e di esperienze conclamate e comprovate e che già da tempo la magistratura ordinaria ha intrapreso un percorso formativo inerente la materia qui devoluta al suo giudizio, si rappresenta che la presente proposta normativa, che inserisce le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale nel perimetro della competenza esclusiva del tribunale, non è suscettibile di determinare nuovi o maggiori oneri a carico della finanza pubblica.

[118] “La verità è che il giudice non è un meccanismo: non è una macchina calcolatrice. È un uomo vivo: e quella funzione di specificare la legge e di applicarla nel caso concreto, che in vitro si può rappresentare come un sillogismo, è in realtà una operazione di sintesi, che si compie a caldo, misteriosamente, nel crogiuolo sigillato dello spirito, ove la mediazione e la saldatura tra la legge astratta e il fatto concreto ha bisogno, per compiersi, della intuizione e del sentimento acceso in una coscienza operosa. Insomma il sistema della legalità, e in genere la teoria normativa del diritto, è uno schema didattico, utile per i giuristi; ma questa scomposizione logica della sentenza somiglia alle analisi dei chimici, che anche quando sono arrivati a individuare tutte le sostanze elementari di cui è composto un organismo vivo, non sono riusciti però a imprigionare in formule quella scintilla da cui, dalla misteriosa combinazione di questi elementi, è scaturita la vita”. Si veda P. Calamandrei, Opere giuridiche, I, cit., p. 646, ove pure ricorda che se, in un saggio giovanile, aveva egli stesso rappresentato la sentenza come “progressione di sillogismi a catena” (in P. Calamandrei, La genesi logica della sentenza civile, in Studi, I, pp. 1 ss., ora in Opere giuridiche, I, cit., pp. 11 ss.), poi l’esperienza del patrocinio forense ha “dimostrato non, dico che questa rappresentazione sia sbagliata, ma che essa è incompiuta e unilaterale: chi si immagina la sentenza come un sillogismo, non vede la sentenza viva; vede la sua spoglia, il suo scheletro, la sua mummia”.

[119] Per un’approfondita analisi (critica) sulla relazione tra sillogismo giudiziale e logica dell’algoritmo si veda F. Locatelli, Il giudice virtuoso. Alla ricerca dell’efficienza del processo civile, cit., pp. 186 ss. Per una diffusa riflessione intorno al ragionamento giudiziale, anche nella prospettiva della c.d. decisione robotica, v., inoltre, L. Nazzicone, La motivazione della sentenza, cit., pp. 151 ss., spec. pp. 210 ss.

[120] Il sillogismo c.d. dimostrativo (o aristotelico) trae la conclusione muovendo dalla premessa minore, laddove la prima è conseguenza necessaria dell’applicazione di una regola scientifica o matematica. La letteratura su questi temi è sterminata. Ex plurimis, cfr. A. Carratta, Prova scientifica e ragionamento presuntivo, in Riv. dir. proc., 2022, pp. 24 ss.; R. Poli, Diritto alla prova scientifica, obbligo di motivazione e sindacato in sede di legittimità, cit., pp. 417 ss.; Id., Onere della prova. Gli standard di prova in Italia, in Giur. it., 2018, XII, pp. 2516 ss.; C. Silvestri, L’interazione tra fatto e norma nella dinamica del giudizio civile. Riflessioni in margine a diritto sostanziale e processo, in giustiziacivile.com, 2020, V, pp. 3 ss.; M. Taruffo, Note sparse su probabilità e logica della prova, in Riv. trim. dir. proc. civ., 2014, IV, pp. 1507 ss.; Id., Conoscenza scientifica e decisione giudiziaria: profili generali, in Decisione giudiziaria e verità scientifica (Atti del XVI Seminario, Milano, 11 dicembre 2004), Milano, 2005, pp. 3 ss.; nonché Id., voce Giudizio (teoria generale), in Enc. giur., XV, Roma, 1989, pp. 5 ss.; G. Ubertis, La ricostruzione giudiziale del fatto tra diritto e storia, in Cass. pen., 2006, III, pp. 1206 ss.; A. Pagliaro, voce Causalità (rapporto di), in Enc. Dir., Ann., I, Milano, 2007, pp. 170 ss.; S. Patti, Probatio e praesumptio: attualità di un’antica contrapposizione, in Riv. dir. civ., 2001, pp. 475 ss.; P. Landi, Il processo civile come conoscenza logica, in Riv. trim. dir. proc. civ., 1988, IV, pp. 1191 ss.; L. Lombardo, La prova giudiziale: contributo alla teoria del giudizio di fatto nel processo, Milano, 1999, passim; V. Andrioli, voce Presunzione (diritto civile e diritto processuale civile), in Noviss. dig. it., XIII, Torino, 1966, pp. 767 ss.

[121] In questo senso F. Cordopatri, voce Presunzione (teoria gen. e dir. proc. civ.), in Enc. dir., XXXV, Milano, 1986, pp. 274 ss.

[122] “…tanto deve essere completo, accurato, approfondito e plausibile il giudizio di merito per potersi definire dotato di un alto grado di credibilità razionale, quanto del pari deve essere completo, accurato, approfondito e plausibile il controllo di tale giudizio per poterne adeguatamente confermare o smentire l’alto grado di credibilità razionale”. R. Poli, Diritto alla prova scientifica, obbligo di motivazione e sindacato in sede di legittimità, cit., p. 480, nt. 64.

[123] In forza del principio “judex peritus peritorum” è consentito al giudice di merito “disattendere le argomentazioni tecniche svolte nella propria relazione dal consulente tecnico d’ufficio, e ciò sia quando le motivazioni stesse siano intimamente contraddittorie, sia quando il giudice sostituisca ad esse altre argomentazioni, tratte da proprie personali cognizioni tecniche. In ambedue i casi, l’unico onere incontrato dal giudice è quello di un’adeguata motivazione, esente da vizi logici ed errori di diritto”. In questo senso, tra le altre, Cass., 7 agosto 2014, n. 17757; conf. a Cass., 3 marzo 2011, n. 5148.