L’Intelligenza Artificiale per la risoluzione alternativa del conflitto Una strada percorribile?

Di Jordi Nieva-Fenoll -

Sommario: Introduzione. – 2. Intelligenza artificiale generativa. – 3. La crisi del processo: dalla giurisdizione alla restaurazione. – 4.  Mediazione o conciliazione: si applica all’IA? – 5. Raccolta di dati: scoprire le cause del conflitto. – 6. Creare soluzioni ai conflitti.

«Sono un’Intelligenza Artificiale. Non posso lavorare come mediatore perché non possiedo l’esperienza umana, le emozioni e le relazioni, che sono fondamentali per lavorare come mediatore. Le mie capacità consistono nell’analizzare e rispondere al linguaggio umano, assorbendo e utilizzando informazioni provenienti da varie fonti. Tuttavia, posso servire come strumento, fornendo informazioni o agendo come mezzo di comunicazione tra le parti in conflitto quando è presente un mediatore umano. In questo senso, posso contribuire a migliorare la comunicazione tra le parti e quindi a facilitare il processo di mediazione» [1].

1.Considerazioni introduttive.

Il processo giudiziario è da tempo in crisi. Mezzo di risoluzione dei conflitti nato probabilmente nella cultura egizia più di 5.000 anni fa[2], giunto a Roma attraverso la cultura greca[3], era uno strumento di risoluzione dei conflitti in comunità relativamente piccole. Si trattava di un mezzo per superare il carattere ‘popolare’ degli antichi processi assembleari, in cui era l’intera comunità riunita a decidere e – contemporaneamente – mediare – il conflitto, oppure a risolverlo mediante ordalia[4]. Erano, questi ultimi, d’altronde, processi – come già emerse nella cultura greca – socialmente inefficaci, proprio per il loro carattere popolare [5]. Di qui, al fine di superare tale modello ‘populista’ di processo, si ebbe la creazione della figura del giudice unico.

Se ciò vale per il passato, non vi è dubbio che l’attuale modello di processo sia in crisi perché non è più capace di rispondere alle esigenze della società moderna. La popolazione è sempre più disincantata verso un sistema giudiziario che avverte come molto distante; i giudici spesso non sono in grado di risolvere i conflitti con informazioni e tempistiche adeguate, posto che di solito non hanno a disposizione né le une né le altre. Le prove sono troppo spesso inconcludenti o insufficienti. L’onere della prova mostra di non avere efficacia risolutiva in un modello probatorio incentrato sulla regola della libera valutazione del giudice[6], e insistere su tale regola della ripartizione dell’onere della prova spesso sembra condurre a risultati ingiusti. Infine, non si hanno a disposizione tempi adeguati per risolvere un conflitto mediante la pronuncia di una sentenza appropriatamente motivata; e pare non potersi immaginare che le nostre istituzioni pubbliche siano intenzionate a creare le condizioni affinché i giudici abbiano il tempo sufficiente per individuare con precisione le posizioni delle parti, valutare correttamente le prove ed emettere una sentenza debitamente motivata. In breve, lo scenario che si schiude pare a chi scrive muoversi tra la farsa e il senso di abbandono e di sfiducia nella giustizia. Di tutto questo, peraltro, pare che non ci si renda conto in ragione semplicemente perché ci si è abituati a questa condizione drammatica e la si accetta. Viviamo questa situazione – mi sembra – con rassegnazione o stupore, o con un misto di entrambi.

In questo stato delle cose, ci viene improvvisamente detto che l’intelligenza artificiale potrebbe risolvere parte dei nostri problemi quotidiani, o semplicemente facilitarne la risoluzione. Nasce così un interrogativo urgente: è davvero possibile che l’Intelligenza Artificiale contribuisca a risolvere i problemi della giustizia? Si tratta di una domanda che evoca un dilemma che da qualche anno richiama l’attenzione della dottrina[7], laddove le autorità pubbliche non sono ancora riuscite a trovare il modo o, soprattutto, il metodo giusto per utilizzare questa tecnologia nelle aule dei Tribunali. Sembra in altri termini che si stia perdendo tempo senza riuscire ad individuare una strategia per mettere a disposizione dell’Intelligenza Artificiale la principale cosa di cui essa ha disperatamente bisogno: i dati. Ed è probabilmente da questo ritardo che deriva la lentezza con cui questa tecnologia viene introdotta nel sistema giudiziario.

Se ciò vale per il sistema giudiziario, potrebbe l’Intelligenza Artificiale avere miglior fortuna nei procedimenti di ADR? Il riferimento qui non è tanto all’arbitrato, ma alla mediazione e agli altri strumenti riparativi di risoluzione dei conflitti, che quasi sempre hanno bisogno di qualcuno che in qualche modo ‘convinca’ le parti in conflitto ad una a raggiungere una soluzione compositiva [8]; o, meglio, contribuisca a valorizzare la loro interazione di modo che esse giungano ad una soluzione consensuale del conflitto. Tale ruolo di ‘attore persuasivo’ potrebbe essere affidato all’Intelligenza Artificiale? A questo complesso tema si indirizzano le pagine a seguire.

2. Intelligenza Artificiale generativa.

Nel corso del 2023 si è assistito alla definitiva esplosione di una particolare varietà di Intelligenza Artificiale (IA), invero esistente già da qualche tempo, chiamata ‘generativa’ [9]. La particolarità di tale forma di IA consiste nel fatto che, come rilevò Alan Turing più di settant’anni fa[10], la macchina interagisce con l’essere umano quasi fingendo di agire come un altro essere umano. Così, ad esempio, è possibile porre domande o chiedere di scrivere testi a tale forma di IA, ed essa esegue siffatte richieste con maggiore o minor successo, giungendo in ogni caso a risultati che hanno sorpreso il grande pubblico. Così, tra gli altri, ChatGPT, Bard, Llama o Bing hanno conseguito una popolarità senza precedenti e sono già utilizzati quotidianamente da un tal numero di utenti che anche gli istituti di istruzione più attenti stanno lentamente modificando i loro sistemi di valutazione per impedirne l’uso da parte degli studenti, al fine di evitare che costoro non svolgano in autonomia le attività didattiche richieste ma queste si risolvano in un mero ‘plagio’ dell’applicazione[11].

V’è da dire, d’altronde, che questa tipologia di strumenti già esisteva prima della comparsa di Chat GPT, ancorché essi venissero impiegati più giocandi gratia (così, ad esempio, consentendo all’utente di conversare con ‘Siri’ o ‘Alexa’). In maniera pressoché repentina, però, il loro uso è diventato più comune, ancorché non in modo così massiccio come avvenuto, a suo tempo, per le applicazioni di messaggistica. Invero, queste ChatBot non erano altro che versioni avanzate dei motori di ricerca già esistenti in rete, come Google o lo stesso Bing, che offrivano non solo le fonti delle informazioni – cosa che le ChatBot di solito non fanno – ma anche risposte già elaborate, fornendo all’utente il testo che costui avrebbe potuto impiegare come sintesi della propria ricerca.

Questi strumenti lavorano con un’enorme quantità di dati – la stessa dei motori di ricerca – che vengono filtrati e rifiniti in base al risultato che si suppone l’utente voglia ottenere, esprimendo le risposte in un linguaggio che di solito è naturale, talvolta con errori nella formulazione, ma sempre più perfezionato grazie al ricorso a stili espressivi preconcetti, in nessun caso creativi.

Esistono anche altri strumenti generativi, come quelli per le immagini che, almeno per il momento, non assumono rilievo con riguardo all’oggetto di questo studio; come non lo sono le complessità tecniche che caratterizzano questi strumenti. Basti qui rammentare che filtraggio e sintonizzazione dei dati obbediscono alla progettazione di un algoritmo generato dall’uomo, che ovviamente ne regola le possibilità di risposta[12].

In questo modo è perfettamente possibile, ad esempio, dare priorità a talune risposte su altre, o prevedere deliberatamente l’impiego di un linguaggio che scoraggi l’utente dal seguire un certo orientamento o, al contrario, lo spinga a farlo suo. Ne discende che, dato questo scenario, l’utente dovrebbe essere pienamente consapevole di dipendere da chi ha progettato gli algoritmi e dalla manipolazione che ne potrebbe conseguire; ma spesso non è così. Ciò dipende da una – si permetta – assurda fiducia nell’oggettività della ricerca o della risposta dello strumento tecnico, nel caso dell’IA generativa, che probabilmente sparirà nl tempo, a vantaggio di un distacco dell’essere umano da questo strumento ‘persuasore’; distanza che oggi non esiste invece tra le persone allorché ‘l’umano persuasivo’ sia riuscito a conquistare la loro fiducia.

Chiaro è che la macchina può progredire nel grado di oggettività delle proprie risposte, con ciò guadagnando la fiducia degli utenti, anche se costoro dovrebbero essere consapevoli che la macchina in realtà sta solo aiutandoli a trovare una risposta elaborata invero dagli utenti stessi (come accade, ad esempio, nell’utilizzo dei social network). Tuttavia – insisto – questi ‘giochi virtuali’ segneranno con ogni probabilità soltanto questa prima generazione di utenti, laddove invece in futuro essi saranno maggiormente consapevoli e pertanto più guardinghi verso i responsi della macchina, con la conseguenza che diventerà necessario perfezionare i meccanismi per ‘generare fiducia’ nell’utente. Ciò non è impossibile, ma senza dubbio non è cosa facile nel medio e lungo termine.

In fondo, la fiducia riposta in passato nei media dell’informazione si basava sul rapporto di prossimità generato dal giornalista tra sé, l’informazione e gli utenti. Che una macchina riesca a produrre qualcosa di simile è assai più complicato. È noto, infatti, come sia ad oggi impossibile pretendere dalla macchina risposte obiettive e neutre e sarà tale consapevolezza che indurrà alla fine gli utenti a non recepirle supinamente, ma a valutarle con spirito critico.

Mi rendo conto come anche questa rappresenti una mera ipotesi di lavoro, tutta ancora da verificare. Non si può negare, infatti, che il prestigio di un’applicazione tecnica può anche finire per generare una fiducia smisurata nell’utente; fiducia di cui chi crea e gestisce l’applicazione può abusare senza che quegli se ne accorga. È ciò che succede già nei social network, dove l’utente crede di dirigere la creazione dei contenuti che vede, in quanto questo è ciò che gli viene costantemente suggerito dalle esigenze di affinamento delle ricerche. Tuttavia, da un punto di vista tecnico, ciò non è affatto vero.

3.La crisi del processo: dalla giurisdizione alla restaurazione.

È in questo quadro tanto futuristico quanto attuale, che si staglia la sfida di accettare la possibile inadeguatezza del processo giurisdizionale quale strumento di risoluzione dei conflitti.

Invero, è personale convinzione di chi scrive che un’adeguata dotazione di personale e materiale degli uffici giudiziari, unita ad una sempre più qualificata la formazione dei giudici, potrebbe consentire di preservare il ruolo che il processo giurisdizionale ha storicamente rivestito nella soluzione dei conflitti quale valido strumento di decisione delle controversie.

Ciò detto e riconosciuto, si deve tuttavia sottolineare come vi è una caratteristica del processo giudiziario che, se ben evidenziata, ne vanifica l’utilità. Paradossalmente, questa caratteristica è la certezza del diritto, e più precisamente la certezza data dalla sentenza e dalla sua intangibilità, garantita dalla res judicata. Pur ammettendosi la possibilità di una diversa evoluzione – anzi, storicamente è molto probabile che il modello di processo fosse diverso[13] – è un dato di fatto che nella nostra cultura giuridica si è voluto evitare che la conflittualità durasse senza fine. Di qui, la ricerca di meccanismi di soluzione definitiva – buona o cattiva che sia – della lite attraverso il processo. La sentenza del giudice regolerà i rapporti fra le parti in conflitto per il futuro, a prescindere dal fatto che esse ne condividano o meno il contenuto, nella speranza che essi superino con ciò il conflitto tra loro insorto.

A parere di chi scrive, sono tuttavia evidenti le distorsioni insite in questa concezione della giustizia.

Si suole ripetere che nel processo giurisdizionale deve ‘essere fatta giustizia’: ciò significa – volendo ricorrere ad una definizione essenziale, comunemente accettata – che il giudice deve emettere la sentenza nel rispetto della legge sostanziale e processuale, quale espressione dell’accordo sociale sui valori condivisi dalla comunità di riferimento[14]. Tuttavia, presupposto essenziale e indefettibile per una corretta applicazione della legge non è la scelta del metodo interpretativo della realtà, ma il puntuale e preciso accertamento di tale realtà [15]. D’altronde, in mancanza di un accertamento veritiero dei fatti, qualsiasi interpretazione della legge non potrà che condurre a una decisione ingiusta.

Ebbene, si deve constatare che è proprio il presupposto dell’accertamento veritiero dei fatti nel processo che il più delle volte manca.

Di qui, la frequente sensazione, presente in maniera più o meno esplicita nelle parti, della sostanziale ‘ingiustizia’ degli esiti del processo giurisdizionale. Una sensazione che deriva non tanto dalla frustrazione di non aver vinto la causa, ma dalla percezione che il giudice non abbia capito nulla, e che in realtà egli abbia soltanto cercato di fondare la sua decisione su pochi dettagli dotati di una parvenza di oggettività; dettagli che non tengono però conto della realtà storica degli accadimenti naturali (realtà fenomenica che, ripeto, è invece di regola ben nota a entrambe le parti).

Nei processi civili e penali, infatti, si assiste ancora oggi frequentemente alla disperata ricerca, da parte del giudice, del documento che, almeno in apparenza, abbia un’efficacia dimostrativa dirimente (quasi fossimo ancora in un regime di esclusiva ammissibilità della ‘prova legale’)[16]: un documento dotato di autenticità e attendibilità inequivoca circa il suo contenuto o una registrazione di immagini. Chi è in possesso di un mezzo probatorio di questo tipo, è spesso destinato quasi automaticamente alla vittoria nel processo, dal momento che nel processo ogni invero indispensabile analisi semiotica testuale del documento viene di regola omessa[17].

Accade spesso, quindi, quanto segue.

Nel documento si afferma A e il giudice di solito non vuole andare alla ricerca di prove adeguate a dimostrare il contesto in cui l’autore del documento ha detto A, ancorché il reperimento di tali prove potrebbe condurre a dimostrare che costui non intendeva dire A, ma B. Non vi è dubbio, però, che sia molto più semplice non andare oltre ed arrestarsi alla formulazione letterale del documento, come se questa avesse – cosa che invero non è – un valore privilegiato.

Lo stesso vale per i messaggi di testo. Di solito essi contengono una porzione della realtà che tralascia completamente ciò che è accaduto prima o dopo l’evento – teoricamente – documentato. Essi isolano l’immagine o il messaggio dal contesto, rendendoli utili, nel migliore dei casi, solo a sostenere l’ipotesi preconcetta della realtà, che invero il giudice già possedeva all’inizio del processo.

Analoghe considerazioni valgono per le immagini. Queste possono riguardare, ad esempio, i momenti precedenti a un’aggressione. È possibile che da quell’immagine l’osservatore rimanga convinto che i due soggetti ripresi si conoscessero e andassero d’accordo. Tale idea, generata dall’osservazione di quell’immagine, rende difficile ipotizzare che nel passaggio non ripreso dalle telecamere si sia perpetrato un atto di violenza sessuale. La vittima, prima dell’aggressione, d’altronde, non si aspettava la condotta violenta e, dopo averla subita, potrebbe cercare di rendersi conto dell’accaduto, anche apparentemente cercando di normalizzare quanto appena successo e chiedere spiegazioni al suo aggressore. È possibile che una persona aggredita possa volontariamente avvicinarsi di nuovo al suo aggressore? Un animale non lo farebbe mai, perché l’istinto lo porta a fuggire terrorizzato o a dimenticare rapidamente l’aggressione[18]. L’essere umano, dotato di memoria a lungo termine notevolmente superiore a quella di un animale[19], può essere incline a cercare di capire e interiorizzare l’accaduto.

Ebbene, queste dinamiche vengono spesso trascurate; con la conseguenza che possono avanzarsi ipotesi ricostruttive basate su perizie che mirano, ad esempio, ad escludere la violenza nell’aggressione soltanto perché la vittima non ha opposto resistenza, ancorché lo abbia fatto invero per evitare una danno maggiore; o su ipotesi ricostruttive fondate su l’escussione di testimoni che, a distanza di tempo dall’evento, si presentano al processo offrendo in testimonianza una ‘lezione appresa’ in qualche modo, che difficilmente rispecchia la realtà dell’accaduto. Eppure, se utili al giudice per sostenere la sua ipotesi preconcetta, egli tende ad attribuire a tali perizie e testimonianze efficacia probatoria.

È evidente come in tali casi la realtà dell’accaduto sia difficile da dimostrare, al netto di alcuni eclatanti casi di errore giudiziario, che, in maniera quasi miracolosa, sono stati provati a posteriori[20]. Questi casi del tutto eccezionali non fanno altro che dimostrare come la res judicata a volte finisca per coprire l’errori giudiziario, senza fornire certezza del diritto, ma al contrario: un senso di ingiustizia che invade la vittima, ed al contempo la sinistra vittoria del reo.

Ciò nonostante, non si può che prendere atto di come sia assai difficile impedire che casi di questo tipo accadano. La capacità giudiziale di accertamento dei fatti attraverso i mezzi di prova sarà sempre limitata, a maggior ragione se non vengono forniti al giudice gli strumenti adeguati per svolgere correttamente la propria funzione accertativa.

La situazione era fatalmente diversa quando il processo gestito dal giudice unico aveva la funzione di strumento di risoluzione dei conflitti. Ciò dipendeva dal fatto che, secoli fa, il fatto da accertare non era estraneo né alla – piccola – comunità in cui si era verificato l’evento, né al giudice, che di quella comunità faceva parte[21]. Non v’è dubbio che il coinvolgimento diretto del giudice nel contesto dell’accadimento da accertare ne minasse l’indipendenza e l’imparzialità, ossia la neutralità – come oggi la intendiamo –, tuttavia gli consentiva una conoscenza dei fatti di gran lunga superiore; obiettivo spesso non raggiunto negli odierni processi giurisdizionali.

Esiste una via d’uscita a tale situazione?

Sino a questo momento abbiamo volto l’attenzione alla ricerca di una soluzione al conflitto, tralasciando l’indagine sulle cause che lo generano: una questione, questa, che era prioritaria al tempo in cui i processi erano assembleari[22], e che certamente è rilevante oggi in seno alla mediazione e conciliazione, mezzi compositivi che in questo rappresentano un’eredità di quel passato e cui volgerà l’indagine che segue.

4.Mediazione o conciliazione: un’applicazione possibile dell’IA?

Mediazione e conciliazione non sono invero due modi diversi di risoluzione dei conflitti, ma due facce della stessa medaglia[23]. Sono termini che evocano la figura di un soggetto terzo, non sempre del tutto estraneo al conflitto, che cerca di avvicinare la posizione delle parti attraverso vari strumenti, che possono complessivamente essere compresi sotto la voce persuasione. In altri termini, a parere di chi scrive, si tratta per il mediatore di convincere le parti, in un modo o nell’altro, della necessità di porre fine a un conflitto, non mediante una decisione, ma attraverso un accordo. Tuttavia, anche se sono strumenti simili, la mediazione non va confusa con la conciliazione.

Nell’opinione di chi scrive, infatti, la mediazione non sarebbe uno strumento autocompositivo, di soluzione del conflitto, come spesso viene detto, ma eterocompositivo. Questa affermazione si fonda sulla convenzione che nella mediazione, anche se sono le parti a prestare il proprio consenso a comporre la controversia, quel mutuo consenso non sarebbe stato raggiunto senza l’intervento del mediatore. In altre parole, senza l’‘attività compositiva’ del mediatore, l’accordo non sarebbe stato conseguito; e in questa sua attività il mediatore ha utilizzato argomenti che hanno in concreto convinto le parti, più che della bontà di un accordo, del fatto che è più conveniente raggiungerlo che continuare a litigare.

Questa forma di risoluzione dei conflitti è antica, straordinariamente antica: si trova infatti nelle culture indigene di tutto il mondo, compresa quell’isola culturale che è l’America[24], separatasi dal resto del mondo abitato tra i 14.000 e gli 11.000 anni fa[25]. Non è un caso che prima del contatto con la cultura europea essa fosse praticata da molte comunità indigene come mezzo di risoluzione delle controversie. In questa sua declinazione, la mediazione si sostanziava nell’esposizione da parte dei due litiganti delle loro rimostranze davanti al gruppo-comunità, che gradualmente si schierava a favore dell’uno o dell’altro, oppure cercava di distrarli o conciliarli affinché ponessero fine al conflitto attraverso all’intervento non di uno ma di più membri della comunità contemporaneamente[26]. Questa forma di mediazione era destinata talvolta a concludersi con la decisione del gruppo di espellere – in modo più o meno violento – uno dei litiganti. In questa accezione, trova ragione l’idea per cui nella mediazione abbia la sua remota origine il processo giurisdizionale.

Nei tempi correnti, a differenza che in quelli antichi, l’idea è stata quella di affidare la conduzione della mediazione non ad un ‘gruppo di persone’, ma ad una soltanto, a cui viene affidata l’opera di persuasione delle parti in conflitto. Il mediatore si trova tuttavia di fronte allo stesso problema che segna il ruolo del giudice nel processo moderno e di cui più sopra si è detto: egli non conosce realmente il conflitto. Non era così, come visto, invece, nel sistema antico della mediazione.

È questo ciò che rende spesso le proposte di persuasione del mediatore così artificiali, e di tipo meramente transattivo. Il mediatore spesso finisce per proporre alle parti soluzioni che si basano però su uno dei valori più strettamente identificativi della nostra giustizia e cultura moderna: l’equità[27]. Di qui, l’enorme frequenza di proposte transattive.

Se si abbraccia questa visione della mediazione, la questione è la seguente: l’Intelligenza Artificiale può risultare uno strumento praticabile in questa prospettiva? [28].

Procedendo in questa direzione, il primo nodo da affrontare è quello di verificare se la persuasione possa essere, almeno in qualche misura, parametrizzabile; ossia se le strategie di persuasione possano essere oggettivizzate e, appunto, parametrate, in modo tale che una macchina possa automatizzarle.

Esistono già diversi esempi che potrebbero portare a una risposta apparentemente positiva. Già diverse aziende – Ebay, Amazon, varie compagnie aeree – utilizzano quella che viene chiamata Online Dispute Resolution (ODR). In questi sistemi, l’azienda con la quale il consumatore ha un conflitto, lo contatta, chiedendogli di esporre il caso e offrendogli soluzioni per superare il conflitto; soluzioni che, appunto, sono sempre elaborate dall’ODR sulla scorta di parametri predefiniti. Il margine di manovra di questi operatori commerciali è d’altronde piuttosto limitato. In questo modo essi sono in grado di risolvere un potenziale conflitto attraverso una breve conversazione con l’utente, risparmiando un costoso – sotto vari profili – contenzioso giudiziario[29].

Non è sempre possibile automatizzare tali procedure affidandole a un’Intelligenza Artificiale, in quanto l’utente potrebbe percepire che la trattativa è condotta da una macchina. Tuttavia, anche i margini di manovra dei partecipanti umani a queste ODR sono estremamente limitati, al punto da far assomigliare le proposte da questi avanzate a quelle di una macchina.

Quando trattiamo di questi problemi tendiamo a dimenticare che le persone hanno una dose di volontarietà che implica la creatività, caratteristica che è ancora patrimonio esclusivo degli esseri umani. Creatività che, peraltro, non è facilmente parametrabile perché, se in alcuni settori i conflitti sono spesso virtualmente identici e sistematicamente prevedibili, in casi non rari chi è chiamato a risolvere per l’azienda il conflitto con l’utente è tenuto a ragionare, accettando la soluzione proposta dal consumatore o improvvisandone una nuova che sia accettabile, sulla scorta dei vincoli non solo economici ma anche valoriali dell’azienda. È difficile che una macchina, almeno in un futuro relativamente prossimo, agisca in questo modo.

Non dimentichiamo inoltre che la persuasione a volte avviene giocando sull’elemento emotivo. L’interlocutore dell’azienda entra in empatia con l’utente, cosa che una macchina non farà mai, semplicemente perché non può farlo. Ciò che al massimo una macchina può fare è apparire emotiva, al fine di persuadere il consumatore con le emozioni. In altri termini, ciò che una macchina può fare è fingere emozioni, al fine di persuadere il consumatore con queste emozioni.

In questo senso, la macchina potrebbe trasmettere messaggi intesi a dissuadere il consumatore dal procedere con il contenzioso? Certamente sì, dato che lo stesso effetto è già ottenuto dai molti, moltissimi cartelli di divieto che esistono da tempo nella nostra vita quotidiana. E, ovviamente, nemmeno un cartello è un essere umano.

Non solo. Da anni gli psicologi utilizzano strumenti di IA per interagire con le persone autistiche, con esiti che paiono dimostrare come le macchine abbiano raggiunto un grado di connessione con loro spesso superiore a quello degli esseri umani[30].

Si può così riconoscere che la macchina sia in grado di offrire messaggi persuasivi che suggeriscono soluzioni al conflitto o che suscitano emozioni; e qualora tali messaggi non appaiano all’utente sì “‘preconfezionati’ da risultare risibili, possono sortire un qualche effetto. Vi sarà, infatti, una buona parte di questi messaggi ‘preconfezionati’ che soddisferanno le aspettative dell’utente, perché essi trasmettono la risposta che l’utente si aspetta e che risolvono il loro problema, senza che abbia luogo peraltro alcuna transazione.

Se la soluzione del conflitto si limita ad essere intesa come un invio di messaggi capaci di porre fine al conflitto o di persuadere i contendenti, l’IA può allora costituire un aiuto, nella misura in cui questi messaggi possono essere da essa compilati e, quindi, parametrizzati. Ma è questo tecnicamente fattibile?

5. Raccolta dei dati: accertare le cause del conflitto.

Si è detto di aziende che già operano con l’ODR perché i conflitti che esse devono risolvere sono quasi sempre gli stessi e le loro soluzioni sono facilmente prevedibili. Anche la parametrizzazione dell’empatia potrebbe diventare semplice se questa fosse da manifestarsi verso chi sostiene, ad esempio, di aver trascorso sei ore in un aeroporto senza cibo, in attesa di un volo alternativo che la compagnia area, per qualsiasi motivo – anch’esso parametrizzato – non ha potuto offrirgli.

Per controversie di altro tipo, però, la parametrizzazione è in generale molto più complessa, anche se non impossibile, laddove la maggior parte delle possibili ragioni alla base dei potenziali conflitti è già nota in anticipo. Nelle controversie matrimoniali, ad esempio, l’elemento emotivo è spesso in primo piano; e sovente l’emozione dominante è quella che mira a distruggere la controparte; anche questa emozione potrebbe essere utilizzata per risolvere il conflitto, in quanto ciò relega in secondo piano il problema di raggiungere un accordo adeguato che regoli i rapporti fra i coniugi dopo la fine del matrimonio.

Nei processi civili in cui l’elemento patrimoniale è di solito il fattore principale – cause che rappresentano evidentemente la gran parte del contenzioso civile – le previsioni dei possibili esiti del processo risultano di solito abbastanza convincenti, in quanto evidenziano, ad esempio, le difficoltà probatorie o le possibili diverse interpretazioni giuridiche che possono portare un giudice ad assumere una decisione contraria alle proprie aspettative. In altre parole, nei processi civili l’incertezza è uno dei migliori alleati della persuasione.

Nei processi penali, invece, le cose stanno diversamente, perché in essi si tratta principalmente di accertare se qualcuno ha commesso un reato. A riguardo, non ci siamo allontanati troppo dallo schema ancestrale che cercava soprattutto di individuare il peccatore quale violatore delle regole del gruppo[31]: la presunzione di innocenza, infatti, ha cercato di mitigare questo paradigma, anche se il c.d. giudizio di colpevolezza rimane ancora forte.

Sulla spinta – ancestrale, appunto – all’individuazione di quel ‘male’ che potrebbe minare la comunità, si è così spesso abbandonata l’indagine sulle cause della commissione del reato. Non si cerca, cioè, di capire se la persona ha commesso l’azione illecita si stata spinta da stimoli socio-culturali indotti, oltre al resto, da un’educazione insufficiente o dalla proliferazione nel suo ambiente di esempi contrari al rispetto della norma. Sarebbe proprio l’indagine di queste cause che dovrebbe rappresentare il parametro per la determinazione della durata della pena: ci si aspetta che il soggetto scopra esattamente il motivo per cui ha commesso il reato, con l’obiettivo di non commetterlo più, creando una sorta di riflesso condizionato nel soggetto.

Ebbene, un’applicazione di IA che voglia essere efficiente dovrebbe partire dalla individuazione delle cause che portano alla commissione del reato, come quelle violazioni della legge civile che inducono, ad esempio, una persona a non pagare un proprio debito. A volte saranno le difficoltà finanziarie dell’azienda, e ciò può rendere molto più fattibile la ricerca di un sostegno per l’attività aziendale piuttosto che pretendere che l’azienda debitrice paghi ciò che non può, rovinando così la sua attività e rendendola non redditizia. In altre occasioni, si sfrutteranno le lungaggini del sistema giudiziario per ritardare il momento in cui dovrà essere effettuato il pagamento, ponendo in essere comportamenti sleali che dovrebbero essere sanzionati anche attraverso la sospensione dell’attività imprenditoriale nel caso in cui venga dimostrata la malafede del soggetto; elemento, questo, che viene spesso citato nei procedimenti ma che raramente viene dimostrato, diventando più che altro un elemento pseudo-persuasivo rivolto al giudice, con lo scopo di creare un quadro mentale che lo ponga psicologicamente dalla parte di uno dei contendenti. In questa prospettiva ci si può anche riferire all’attività predatoria delle grandi aziende che abusano dei consumatori; un comportamento che di solito è oggetto di attenzione da parte delle Autorità Amministrative e delle associazioni dei consumatori, ma non così spesso dei tribunali, se non nei casi di clausole abusive, e soprattutto in ragione dell’influenza esercitata in questa prospettiva della giurisprudenza della Corte di Giustizia dell’Unione Europea [32].

È relativamente semplice compilare un elenco di queste cause di conflitto, in modo che un’applicazione di IA possa identificarle con una certa facilità, tenendo conto delle loro caratteristiche più frequenti. La parte più difficile, una volta identificate le cause, è la creazione di soluzioni per risolvere il conflitto specifico, cercando di evitare che lo stesso conflitto torni a ripetersi in futuro.

6. Creare soluzioni ai conflitti.

È proprio questo il fine ultimo di chi intende costruire un’applicazione di IA a scopo riparativo. È necessario non solo individuare le ragioni del conflitto, ma anche porvi rimedio. In questo senso, si aprono diverse alternative che, ancora una volta, dovrebbero essere parametrizzate negli algoritmi dai creatori dell’applicazione.

La prima opzione, ovviamente, è quella di ‘attribuire il diritto a chi ne ha diritto’, come dovrebbe accadere agli esiti di un processo giurisdizionale. Questa è anche una soluzione riparatoria se le parti riconoscono l’auctoritas del tribunale. Ma tale soluzione ha lo svantaggio che il prestigio sociale dell’autorità giurisdizionale è oggi, come già detto, minima. Inoltre, l’attività istruttoria è sempre più spesso molto complessa. Pertanto, anche senza escludere che la sentenza di un terzo possa contribuire alla restaurazione della situazione precedente al conflitto, pare che tale obiettivo possa essere raggiunto per altre vie. Inoltre, l’IA, pur potendo aiutare nella soluzione di casi complessi, non potrà essere utilizzata direttamente per emettere la sentenza, come invece potrà avvenire in casi prototipici o seriali. Pertanto, dovrebbero essere prese in considerazione altre opzioni, più oggettivamente parametrabili.

Un’altra possibilità è quella di partire dall’unico elemento che può unire entrambe le parti: il riconoscimento dell’esistenza di un conflitto, indipendentemente dalle ragioni alla base dello stesso (ragioni che sono certamente elementi utili in vista di una risoluzione del conflitto, ma di solito anche molto complessi da accertare). In questo scenario, un altro punto chiave è la volontà di porre fine al conflitto, che ovviamente deve esistere in entrambe le parti. Se l’esistenza del conflitto è stata riconosciuta e le cause sono state identificate, è probabile che sia più facile trovare una soluzione. Se queste cause sono legittime, almeno in linea di principio – nel contesto della mediazione è difficile andare molto più a fondo – si dovrà proporre una soluzione che favorisca chi ha questa legittimità dalla sua parte. In caso contrario, sarà necessario attivare degli elementi di dissuasioni per scoraggiare il soggetto più conflittuale. Entrambe le questioni possono essere affrontate da un’applicazione di intelligenza artificiale. Perché, in definitiva, non è difficile elencare gli svantaggi a breve, medio e lungo termine del mantenere in vita un conflitto.

Una terza e, per ora, ultima possibilità è quella di mettere le parti separatamente di fronte alle proprie ragioni. Vale a dire che, in questo caso, si dovrebbe interpellare ciascun soggetto del procedimento sul perché ritiene di avere ragione, presentandogli argomenti alternativi a ciò che dice, cercando così di rompere il suo immobilismo. In altre parole, si tratta di trovare argomentazioni per opporsi a quelle che lui pone alla base delle sue pretese. Naturalmente, una macchina può svolgere questo compito[33] anche meglio di un essere umano, nel senso in cui i partecipanti sanno che non stanno cercando di convincere la macchina, ma che l’applicazione sta semplicemente anticipando con freddezza gli ostacoli all’accoglimento delle loro pretese, informandoli delle opzioni legali e giurisprudenziali senza alcuna passione o conflitto di interessi[34]; ciò verosimilmente instillerà il dubbio in entrambi i soggetti e li predisporrà a cedere o comunque a valutare la possibilità di un accordo. In altre parole, l’obiettivo è alterare la sicurezza che essi ripongono nelle proprie posizioni. Inoltre, la macchina, a differenza dell’essere umano, non si stanca e quindi ha tutto il tempo del mondo, tanto quanto il caso necessita[35].

Un altro vantaggio che emerge chiaramente è l’apparente neutralità della macchina, cioè la sua imparzialità [36]; anche se va ricordato che questa effettiva neutralità dipende dall’onestà di chi sviluppa l’algoritmo.

Ad eccezione della prima opzione, le seconde due descrivono un’attività che può già essere svolta da applicazioni di IA generativa, come si può vedere osservando il funzionamento una qualsiasi di esse. Si tratterebbe di costruire un’applicazione con finalità più limitate di quelle generaliste esistenti, ma specializzata nella risoluzione dei conflitti in diversi campi; per poi giungere a creare un’applicazione più universale. Non dovrebbe essere difficile, anche se il tempo e la volontà dei governi e delle imprese diranno se ciò è fattibile nel prossimo futuro[37].

ABSTRACT: Il processo come strumento di risoluzione giurisdizionale dei conflitti è in crisi. Anche per questo motivo, negli ultimi anni sono state potenziate le forme di risoluzione alternativa delle controversie, senza che ciò abbia tuttavia condotto ad un sostanziale miglioramento del funzionamento della giustizia civile. L’intelligenza artificiale potrebbe essere una delle chiavi per superare questo stato delle cose, in quanto l’uso di questa tecnologia nella ricerca di soluzioni alternative del conflitto appare virtualmente in grado di aumentarne le chances di successo, recuperando anche parte dell’antichissima funzione riparatoria, ormai quasi completamente perduta, dei processi giudiziari.

ABSTRACT: The judicial process is in crisis. This is why proposals for alternative dispute resolution are proliferating, despite the fact that they have not yet, after many years, found a solution to the problem. Artificial intelligence may be one of the keys to finding a way out of this sad situation, as the use of this technology in mediation can be really efficient, even recovering part of the very old restorative function, now almost lost, of judicial processes.

(*) Traduzione a cura del Professor Vincenzo Ansanelli, Ordinario di Diritto processuale civile, Università di Genova

[1] La citazione è tratta da S.J.Heetkamp, C. Piroutek, ChatGPT in Mediation und Schlichtung-Large-Language-Modelle können schon heute in der außergerichtlichen Streitbeilegung unterstützen. Führen sie in Zukunft die Verfahren sogar selbst?, in Zeitschrift für Konfliktmanagement, 2023, 80.

[2] J. Nieva Fenoll, El origen de la justicia, Valencia, 2023, 110 e ss., ora in ed. italiana Le origini della giustizia – Perchè desoderiamo che vinca il più giusto e non il più forte¸Bologna, 2025, con traduzione di Paolo Comnoglio

[3] Erodoto, Historia, Barcellona, 2020, Libro II, in particolare § 49 s., 272 ss.; Aristotele, La constitución de los atenienses, Madrid, 2005, § 11, 43.

[4] Si veda tra gli altri Boehm, Execution within the Clan as an Extreme Form of Ostracism, in 24 Social Science Information, 1985, 311; D.P. Fry, Conflict management in cross-cultural perspective, cit., 339; B. Malinowski, Crimen y costumbre en la sociedad salvaje, Barcelona, 1982, 75.

[5] Platone, Apología de Sócrates, Madrid, 1986, 15 ss.

[6] J. Nieva Fenoll, Requiem por la carga de la prueba, in Quaestio Facti, n. 4, 2023, 39 ss.

[7] V. J. Nieva Fenoll, Inteligencia artificial y proceso judicial, Madrid, 2018; J. Bonet Navarro, La tutela judicial de los derechos no humanos. De la tramitación electrónica al proceso con robots autónomos, in Revista CEFLegal, n. 208 (maggio 2018), 77 ss.; L. Giampiero, Regulating (Artificial) Intelligence in Justice: How Normative Frameworks Protect Citizens from the Risks Related to AI Use in the Judiciary, in 8(2) European Quarterly of Political Attitudes and Mentalities, 2019, 75 ss.; T. Sourdin, Judges, Technology and Artificial Intelligence. The Artificial Judge, Cheltenham, 2021. K.B. Forrest, When Machines Can Be Judge, Jury, and Executioner. Justice in the Age of Artificial Intelligence, Singapore, 2021; S. Quattrocolo, Arificial Intelligence, Computational Modelling and Criminal Proceedings, Springer, 2020; S. Barona Vilar, Algoritmización del Derecho y de la Justicia. Dall’intelligenza artificiale alla giustizia intelligente, Valencia, 2021.

[8] M. Filzmoser, Automated vs. Human Negotiation, in 4 International Journal of Artificial Intelligence, 2010, n. S10, 64 ss.

[9] D. Ben-Ari, Y. Frish, A. Lazovski, U. Eldan, D. Greenbaum, Artificial Intelligence in the Practice of Law: An Analysis and Proof of Concept Experiment, in 23(2) Richmond Journal of Law & Technology, 2017, 31.

[10] A.M. Turing, Computing Machinery and Intelligence, in 49 Mind, 1950, 433 ss.

[11] E. Nakano, ChatGPT-Wary Universities Scramble to Prepare for New School Year, Bloomberg 15-8-2023.

[12] Cfr. W. Seymour, Detecting Bias: Does an Algorithm Have to Be Transparent in Order to Be Fair?, 2018, https://ir.shef.ac.uk/bias/pdf/seymour2018detecting.pdf.

[13] J. Nieva Fenoll, El origen de la justicia, cit., 231.

[14] J. Elster, Norms of Revenge, in 100 Ethics, 1990, 865.

[15] M. Taruffo, Idee per una teoria della decisione giusta, in Verso la decisione giusta, Torino, 2020, 360.

[16] Nörr, Romanisch-kanonisches Prozessrecht, Heidelberg, 2012, 128.

[17] D. Cassany, Tras las líneas, Barcellona, 2006, passim.

[18] F.B.M. De Waal, Chimpanzee Politics: Power and Sex among Apes, New York, 1982, 30.

[19] J. Chen, J., D. Houser, Non-human Primate Studies Inform the Foundations of Fair and Just Human Institutions, in 25 Soc Jus Res, 2012, 277 ss.

[20] Per citare la più recente sentenza del Tribunal Supremo, 2a Sezione, 531/2023, del 28 giugno 2023.

[21] L. Neudorf, Judicial independence: the judge as a third party to the dispute, Montreal, 2009, 16 ss., 24-5.

[22] Fry, Conflict management in cross-cultural perspective, cit., 339.

[23] Cfr. C. Punzi, Mediazione e conciliazione, in Riv. dir. proc., 2009, 848 ss.; C. Marques Cebola, La mediación. Un instrumento de solución de conflictos en el siglo XXI, Salamanca, 2011, 185 ss.

[24] Per ampi riferimenti si rinvia a J. Jiménez Fortea, El proceso penal de los pueblos indígenas de Latinoamérica, in Sistemas Judiciales, 2007, pp. 19 ss.

[25] G.E. Gibbon, Archaeology of Prehistoric Native America, New York, 2022, passim.

[26] B. Malinowski, Crimen y costumbre en la sociedad salvaje, Barcellona, 1982, 75.

[27] Aristotele, Ética a Nicómaco, Madrid, 2005, Lib. V, 10, 177.

[28] A. Rickert, Online-Mediation – was ist das?, in Online-Mediation, Wiesbaden, 2023, passim; A. Montesinos García, Inteligencia artificial y ODR, in Justicia algorítmica y neuroderecho: una mirada multidisciplinar, 507 ss.; F. Martín Diz, Inteligencia artificial y ADR: evolución en el arbitraje y la mediación, in La Ley. Mediación y arbitraje, n. 2 (aprile-giugno), 2020.

[29] Più in generale, F. Martín Diz, Inteligencia artificial y ADR: evolución en el arbitraje y la mediación, in La Ley. Mediación y arbitraje, 2020, 20 ss.

[30] D.A. Larson, Artificial Intelligence: Robots, Avatars, and the Demise of the Human Mediator, in 25 Ohio State Journal on Dispute Resolution, 2010, 117-8.

[31] V. J. Nieva Fenoll, El origen de la justicia, cit., 68 e ss.

[32] Corte di giustizia UE, 14 giugno 2012, causa C-618/10, Banco Español de Crédito c. Joaquín Calderón; Id., 14 marzo 2013, causa C-415/11, Mohamed Aziz c. Catalunyacaixa; Id., 14 novembre 2013, cause C-537/12 e C-116/13, Banco Popular Español c. María Teodolinda Rivas e Banco de Valencia c. Joaquín Valldeperas; anche nelle procedure fallimentari: Corte di giustizia UE, 21 aprile 2016, causa C-377/14, Radlinger e Radlingerová c. Finway a.s.

[33] V. A. Montesinos García, Inteligencia artificial y ODR, cit., 516 ss., spec. 518-9.

[34] Sarita e Harsh Kumar, Mediation and Artificial Intelligence: Future of Dispute Resolution, in 4 International Journal of Law Management & Humanities, 2021, 1472 ss.

[35] Larson, Artificial Intelligence: Robots, Avatars, and the Demise of the Human Mediator, cit.,161-2.

[36] M.K. Wambach-Schulz, Mediation und Künstliche Intelligenz, IUBH Discussion Papers – Sozialwissenschaften No. 2/2021, 4 ss.

([37]) V. A. Montesinos García, Inteligencia artificial y ODR, cit., 516 ss.