La competenza del tribunale per le cause in materia di funzionamento dei sistemi di intelligenza artificiale

Di Antonino Barletta e Aniello Merone -

Sommario: 1. Prime considerazioni. – 2. La giurisdizione ordinaria sulle cause relative al funzionamento dei sistemi d’intelligenza artificiale. – 3. La competenza del tribunale sul funzionamento dei sistemi d’intelligenza artificiale. Il coordinamento con la competenza delle sezioni specializzate in materia d’impresa sancita dall’art. 16, comma 3, lett. c), l. n. 132 del 2025. – 4. Il coordinamento con la complessiva competenza del tribunale delle imprese. – 5. Il coordinamento con la disciplina sulla competenza del tribunale (e sui riti applicabili) in relazione alle controversie in materia di: (i) trattamento dei dati personali ai sensi dell’art. 10, comma 2, d.lgs. n. 150 del 2011; (ii) discriminazione a norma dell’art. 28, comma 2, d.lgs. n. 150 del 2011; e (iii) rapporti di consumo ai sensi degli artt. 33, lett. u) e 66-bis d.lgs. n. 206 del 2005. – 6. Conclusioni.

 1.Prime considerazioni.

L’art. 9, comma 2, c.p.c., modificato dall’art. 17 l. n. 132 del 2025 con l’inserimento dell’inciso riportato in corsivo, prevede quanto segue: «il tribunale è altresì esclusivamente competente per le cause in materia di imposte e tasse, per quelle relative allo stato e alla capacità delle persone e ai diritti onorifici, per la querela di falso, per l’esecuzione forzata, per le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale e, in generale, per ogni causa di valore indeterminabile».

L’art. 3, n. 1, reg. UE 2024/1689 (“AI Act”) detta una definizione molto ampia di sistema di intelligenza artificiale o “AI” (dall’acronimo inglese di Artificial Intelligence) come qualunque «sistema automatizzato progettato per funzionare con livelli di autonomia variabili … che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali»[2]. Al considerando 12, l’AI Act precisa che la definizione di AI s’ispira a criteri di flessibilità, in modo da potersi adattare ai «rapidi sviluppi tecnologici in questo ambito».

I sistemi di AI presuppongono una capacità “inferenziale” riferita al «processo di ottenimento degli output … e alla capacità dei sistemi di AI di ricavare modelli o algoritmi, o entrambi, da input o dati»[3]. La “costruzione” di un sistema di AI richiede l’adozione di approcci di apprendimento automatico, poiché tali strutture informatiche “imparano” dai dati come raggiungere obiettivi specifici e, tramite approcci basati sulla logica e sulla conoscenza, fanno inferenze utilizzando la conoscenza codificata o la rappresentazione simbolica di compiti o richieste (prompts) da assolvere[4].

Più precisamente, il richiamo alle «cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale» concerne le controversie che possono sorgere in relazione al ricorrere dell’insieme delle operazioni e dei processi attraverso cui un sistema di AI acquisisce, elabora e produce risultati (output) a partire da dati informatici (input), in modo autonomo o semi-autonomo in relazione alla mancata o imperfetta adozione di misure dirette ad attuare i principi di trasparenza (arg. dagli artt. 1, lett. d), 13 e 50 AI Act) e alla violazione degli obblighi in tema di responsabilità dei fornitori, dei deployer e agli altri soggetti della c.d. catena del valore dell’AI (artt. 16-27 AI Act), che comportino la lesione dei diritti soggettivi sanciti dalla c.d. Carta di Nizza sui diritti fondamentali di persone fisiche e giuridiche (arg. dal considerando 1 e da quello 2, nonché dall’art. 1 AI Act)[5].

Dunque, a tutta prima, il funzionamento dell’AI sembrerebbe far riferimento a controversie qualificate meramente dal riferimento a fatti, sia pur giuridicamente rilevanti, con un approccio tecnico profondamente diverso da quello adottato in relazione alle altre ipotesi di competenza per materia già previste dall’art. 9 c.p.c. Sub Iulio, infatti, al di là della competenza residuale di cui al primo comma, la disposizione sulla specifica competenza per materia del tribunale – contenuta nel secondo comma – faceva riferimento solo a cause relative a specifiche situazioni giuridiche delle persone (status, capacità personali e diritti onorifici), oppure individuate in relazione alla rilevanza del petitum (così la querela di falso, come le cause di valore indeterminabile[6]) e ancora riguardo al tipo di azione esercitata (nel processo esecutivo). A ben vedere, però, si può ritenere che le cause relative al funzionamento dell’AI concernano un vero e proprio rapporto giuridico costituito in conseguenza al peculiare utilizzo di una capacità inferenziale inerente allo sviluppo o all’utilizzo di un sistema di AI. Il sorgere di tale rapporto è correlato alla sussistenza degli obblighi di protezione che l’AI Act sancisce nei confronti di soggetti qualificati all’interno della filiera del valore dell’AI, a tutela dei diritti fondamentali delle persone fisiche e giuridiche previsti dalla Carta di Nizza, analogamente a quanto si è osservato in dottrina riguardo alla materia della protezione dei dati personali[7]. Dunque, la nuova formulazione dell’art. 9 c.p.c., che si riferisce alle cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale, sembra preordinata soprattutto ad evitare la necessità di utilizzare il criterio delle cause indeterminabili, stante la sua non sempre lineare applicabilità. Giacché la nozione delle cause indeterminabili viene riferita con sicurezza alle controversie sui c.d. diritti della personalità solo nel caso in cui venga proposta una domanda di mero accertamento ad essi relativa. Mentre, ciò non è ove venga proposta una domanda di condanna, specie per il risarcimento del danno per lesione dei diritti della persona, anche nell’ipotesi in cui il danno risarcibile richiesto non sia esattamente quantificato (petitum illiquido) al momento dell’instaurazione del giudizio[8].

La competenza del tribunale di cui all’art. 9 c.p.c. viene così estesa a tutte le controversie che possano insorgere dall’applicazione degli obblighi di protezione sanciti dall’AI Act o dalla disciplina attuativa dei principi ivi stabiliti in relazione ai fornitori, ai deployer e agli altri soggetti della catena del valore dell’AI, qualunque sia la forma di tutela richiesta (accertamento o condanna).

In punto di disciplina sulla competenza, la tecnica legislativa qui appare assai più apprezzabile rispetto a quella che fa riferimento ad alcune specifiche tutele che possono essere richieste nel processo di cognizione in relazione a determinate materie. Difatti, il riferimento ad alcune specifiche forme di tutela avrebbe potuto dar luogo a questioni interpretative sui limiti della tutela ammissibile, come in materia antitrust[9].

Ciò assume rilievo, in considerazione della centralità della tutela preventiva nell’ambito dei rapporti giuridici caratterizzati dal ricorso alla tecnologia[10], soprattutto allo scopo di impedire il verificarsi o l’aggravarsi di lesioni future e non limitarsi soltanto a risarcire danni già verificatisi[11]. L’estensione delle attribuzioni al giudice in questa materia si collega alla necessità di normare dettagliatamente l’impiego dei sistemi di intelligenza artificiale in ambito giudiziario, come previsto dall’art. 15 della legge n. 132 del 2025, ove si consente l’utilizzo dell’AI quale strumento di supporto tecnico e organizzativo, senza tuttavia sostituire la valutazione giudiziale autonoma e critica, che deve restare di prerogativa esclusiva del magistrato[12]. Ciò posto, il ricorso all’intelligenza artificiale nei procedimenti giudiziari nei limiti previsti dall’art. 15 cit. si può tradurre in un ausilio assai utile nella raccolta dei dati, nell’analisi documentale, nella gestione e nell’organizzazione delle informazioni processuali proprio nell’ambito delle controversie in cui occorra stabilire il malfunzionamento di un sistema di AI.

Inoltre, la locuzione “funzionamento dell’intelligenza artificiale” si riferisce anche alle controversie in tema di tutela inibitoria e risarcitoria che saranno disciplinate in attuazione da parte del Governo ai sensi dell’art. 24, lett. d), l. n. 132 del 2025[13].

L’applicazione degli obblighi di protezione relativi al funzionamento dei sistemi di AI possono sovrapporsi alla disciplina di altre situazioni giuridiche per cui sono previste diverse norme di competenza, tra cui – in particolare – quelle in tema di tutela del diritto d’autore e protezione dei dati personali. Inoltre, l’art. 16, comma 3, lett. c), l. n. 132 del 2025 prevede una delega al governo in punto di competenza del tribunale dell’impresa riguardo alle controversie correlate all’applicazione di una disciplina dettata sempre nell’ambito della delega governativa di cui all’art. 16 l. n. 132 del 2025 per l’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di AI.

Dunque, nel seguito di questo commento, verranno affrontate le questioni relative al coordinamento con le norme sulla competenza riguardo alle materie appena menzionate.

Per altro verso, dovrebbero considerarsi estranee alle controversie relative al funzionamento dell’AI quelle in materia di protezione dei consumatori e di sicurezza dei prodotti, escluse dall’applicazione dell’AI Act (art. 2, paragrafo 9, AI Act). Occorre sottolineare, nondimeno, che l’emanando decreto legislativo in tema di responsabilità civile e previsione di strumenti di tutela del danneggiato, ai sensi dell’art. 25, comma 5, lett. d), l. n. 132 del 2025, consentirà d’integrare alcuni aspetti che attualmente non sono disciplinati dalle norme europee in tema di responsabilità da prodotti difettosi, neppure dopo la promulgazione della disciplina di cui alla direttiva UE 2024/2853, per quanto quest’ultima concerna anche i c.d. prodotti intelligenti, oltre software e file per la fabbricazione digitale[14]. Pertanto, si rende necessario anche coordinare la disciplina processuale relativa alla materia generale sul funzionamento dei sistemi di AI, a cui si riferisce l’art. 9 c.p.c., e quella contenuta nelle norme processuali del codice del consumo in tema di competenza del giudice del c.d. foro del consumatore (artt. 33, lett. u) e 66-bis d.lgs. n. 206 del 2005)[15], in attesa che vengano eventualmente emanate norme processuali in occasione dell’attuazione della direttiva 2024/2853[16].

2. La giurisdizione ordinaria sulle cause relative al funzionamento dei sistemi d’intelligenza artificiale.

La disposizione in commento sulla competenza sembra presupporre l’attribuzione della giurisdizione al giudice ordinario, pure in deroga ai consueti criteri di riparto tra la giurisdizione ordinaria e quella amministrativa[17].

Invero, è centrale il rilievo secondo cui le regole stabilite dall’AI Act attengano principalmente a materie in cui la tutela giurisdizionale riguarda diritti soggettivi. Più precisamente, l’AI Act è finalizzato ad attuare: (i) il principio di non discriminazione e, più in generale, un elevato livello di protezione dei diritti fondamentali delle persone sanciti dalla Carta di Nizza (considerando 7 e art. 10, paragrafo 2, lett. f), AI Act); (ii) le politiche finalizzate al rispetto del diritto d’autore e delle relative facoltà e diritti collegati sanciti dall’ordinamento europeo, con particolare riferimento alla potestà di riserva di cui all’art. 4, paragrafo 3, direttiva 2019/790 (art. 53, paragrafo 1, lett. c), AI Act); (iii) le norme armonizzate per l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di AI, dirette a facilitare l’efficace attuazione e consentire l’esercizio dei diritti degli interessati in materia di protezione dei dati personali, come – ad es. – la previsione in tema di trasparenza riguardo alla finalità originaria nella raccolta dei dati (considerando 67 e art. 10, paragrafo 2, lett. b), AI Act).

In tema di tutela giurisdizionale dei diritti soggettivi (non discriminazione e diritti fondamentali delle persone, diritto autore e privacy), di regola, la giurisdizione spetta al giudice ordinario, anche nel caso in cui la legge riconosca ad agenzie o autorità amministrative indipendenti specifiche potestà sanzionatorie[18]. In particolare, quando la lesione personale è riferibile alla materia della protezione in tema di trattamento dei dati trovano applicazione le norme di cui agli artt. 140-bis e 152 d.lgs. n. 196 del 2003, nonché all’art. 10 d.lgs. n. 150 del 2011[19].

Va subito precisato che, tra tutti gli aspetti menzionati sopra, il riferimento al principio di non discriminazione appare preminente. Esso è richiamato in relazione a numerosi aspetti della disciplina contenuta nell’AI Act e, precisamente, riguardo a: fornitori di sistemi di AI (considerando 21); sviluppo e utilizzo dei sistemi di AI (considerando 27); attribuzione di “punteggi sociali” alle persone fisiche (considerando 31); identificazione biometrica da remoto delle persone fisiche (considerando 32); identificazione o inferenza delle emozioni delle persone fisiche (considerando 33 e quello 44); classificazione e disciplina dei sistemi di AI ad alto rischio (considerando 48 ss., 68 ss.); disabilità (considerando 80); modelli di AI (considerando 110); progetti di cooperazione interdisciplinare nei sistemi di AI (considerando 142).

Del resto, nei più importanti casi giudiziari che hanno riguardato sin qui l’utilizzo dell’AI, le lesioni dei diritti fondamentali lamentate dagli attori concernevano la violazione del principio di non discriminazione (c.d. discriminazione algoritmica) [20]. Ed invero occorre sottolineare che il campo di applicazione del principio di non discriminazione finirà per risultare sempre più esteso, a causa dell’utilizzo dell’intelligenza artificiale, in conseguenza di possibili errori cognitivi (bias), assimilati durante il processo di “apprendimento”, che possono pregiudicare gruppi sociali, categorie o singoli individui indistinti. Pertanto, sempre di più il principio di non discriminazione non risulterà confinato alla tutela delle minoranze o di categorie sociali svantaggiate.

In vista dell’attuazione di un sistema di protezione dei diritti fondamentali sanciti dalla Carta di Nizza, riguardo al principio di non discriminazione nel contesto dell’AI Act, è giustificato il riconoscimento di un’ampia giurisdizione in capo al giudice ordinario in materia di funzionamento dei sistemi di AI anche nei confronti della pubblica amministrazione.

Ciò appare conforme a quanto sancito dalla Corte costituzionale a proposito del fatto che «non esiste un principio costituzionale che escluda la possibilità per il legislatore ordinario, in determinati casi (rimessi alla scelta discrezionale dello stesso legislatore), in sede di affidamento della tutela giurisdizionale dei diritti soggettivi nei confronti della pubblica amministrazione, di attribuire al giudice ordinario anche un potere di annullamento e speciali effetti talora sostitutivi dell’azione amministrativa, inadempiente rispetto a diritti che lo stesso legislatore considera prioritari, anche se ciò può comportare la necessità da parte del giudice di valutazioni ed apprezzamenti non del tutto vincolati, ma sempre riguardanti situazioni regolate da una serie di previsioni legislative, che prevedano espressamente l’esercizio di tali poteri»[21].

Nella specie, ogni qualvolta l’attore lamenti una violazione dei diritti fondamentali sanciti dalla Carta di Nizza per violazione del principio di non discriminazione, sarà possibile accedere alla tutela prevista dall’art. 28 del d.lgs. n. 150 del 2011. La disciplina consente di richiedere il risarcimento dei danni, l’interruzione di comportamenti e atti discriminatori e di adottare provvedimenti per eliminare gli effetti di tali atti. Per impedire la ripetizione della discriminazione, poi, il giudice può ordinare l’adozione di un piano di rimozione delle discriminazioni accertate, entro il termine fissato nel provvedimento. Nei casi di comportamento discriminatorio di carattere collettivo, il piano è adottato sentito l’ente collettivo ricorrente (art. 28, comma 5, d.lgs. n. 150/2011).

Sulla base della giurisprudenza di legittimità e costituzionale in materia, al giudice civile è stata attribuita una potestà giurisdizionale di speciale rilevanza[22], che può consentire di emanare nei confronti della pubblica amministrazione «ogni … provvedimento che il giudice, a sua discrezione, reputi idoneo a rimuovere gli effetti della discriminazione» [23]. In quanto, «al fine di impedire che la discriminazione possa nuovamente prodursi, il legislatore ha … attribuito al giudice l’ulteriore potere di ordinare l’adozione di un piano volto a rimuoverla». A tale potestà viene riconosciuta una latitudine tale da comprendere anche «il potere di ordinare la rimozione di norme regolamentari quando esse siano discriminatorie e, tanto più, quando esse siano causa di ulteriori atti o condotte discriminatorie»[24]. Essa, però, non esclude quella concorrente del giudice amministrativo di provvedere all’annullamento di eventuali provvedimenti discriminatori di carattere regolatorio della pubblica amministrazione con efficacia erga omnes[25].

Oltre alla tutela amministrativa prevista dall’art. 20 l. n. 132 del 2025, l’accesso alla documentazione obbligatoria ai sensi dell’AI Act (art. 77, paragrafo 1, AI Act) o l’organizzazione della prova di cui all’art. 77, paragrafo 3, AI Act possono essere richiesti al giudice ordinario anche nei confronti della pubblica amministrazione. Inoltre, contro fornitori, gestori e altri soggetti pubblici della filiera dell’AI si possono esperire tutte le forme di tutela previste dall’art. 28, comma 5, d.lgs. n. 150 del 2011, in concorso rispetto alla tutela di annullamento da parte del giudice amministrativo.

Al di fuori dei casi in cui la lesione dei diritti sia riferibile alla violazione del principio di non discriminazione – invece – devono trovare applicazione gli ordinari criteri di riparto della giurisdizione. Dunque, in generale, il sindacato sul funzionamento dei sistemi di AI nell’ambito dell’esercizio dei poteri della pubblica amministrazione è riservato al giudice amministrativo[26]. In tema di funzionamento dell’AI potranno, poi, trovare applicazione gli orientamenti sulla giurisdizione a proposito della c.d. “tutela multilivello” dei diritti delle persone, già emersi in relazione a comportamenti che rientrano nell’ambito di applicazione tanto delle norme sulla protezione dei dati personali, quanto delle disposizioni in materia di consumo[27].

3.La competenza del tribunale sul funzionamento dei sistemi d’intelligenza artificiale: il coordinamento con la competenza delle sezioni specializzate in materia d’impresa sancita dall’art. 16, comma 3, lett. c), l. n. 132 del 2025.

La legge 132 del 2025, come noto, ha anche delegato ex art. 16[28], il Governo ad adottare, entro l’ottobre del 2026, uno o più decreti legislativi che siano volti a definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale, con riferimento agli stessi ambiti già soggetti all’AI Act e nel rispetto di quanto già stabilito in quella sede. Nell’esercizio di tale delega, in particolare, il Governo dovrà attribuire alle sezioni specializzate in materia di impresa la competenza a decidere delle istanze, di carattere risarcitorio o inibitorio, a tutela dei diritti (e obblighi) gravanti sulla parte che intenda procedere all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale.

L’obiettivo è pervenire alla costruzione di un quadro regolatorio organico in materia ed il legislatore delegante, nel delineare i criteri direttivi, non si limita a prevedere l’adozione di norme sostanziali, ma include anche la predisposizione di strumenti di tutela, di un apparato sanzionatorio e la specifica individuazione del giudice competente. In tal senso, l’art. 16 ambisce a delineare un modello di disciplina complesso e integrato, nel quale l’intervento regolatorio statale è accompagnato da un presidio giurisdizionale specializzato e dotato di un bagaglio di competenze tecniche indispensabili.

Rispetto all’“apparato sanzionatorio”, peraltro, occorrerà verificare se le sanzioni ivi contemplate siano di natura civilistica, amministrativa o mista, anche al fine di poterne determinare i riflessi sulla competenza. Infatti, qualora si tratti di sanzioni puramente civilistiche, la competenza delle sezioni specializzate potrebbe estendersi anche alla loro applicazione, in quanto fisiologicamente connessa all’esercizio della giurisdizione civile; al contrario, se l’esercizio della delega dovesse portare all’introduzione di sanzioni amministrative, la competenza giurisdizionale in ordine alla loro irrogazione andrà ricondotta all’autorità amministrativa designata, salva la giurisdizione del giudice amministrativo (o civile in specifiche ipotesi) allorquando si abbia a controvertere sulla loro legittimità. Residua, da ultimo, l’ulteriore possibilità che il legislatore delegato opti per un modello “para-giurisdizionale” (analogo a quello già previsto in materia di concorrenza o mercati digitali) nel quale autorità indipendenti irrogano sanzioni e il giudice specializzato esercita un controllo giurisdizionale pieno o attenuato.

Sul piano sistematico, al netto di un margine di ragionevole incertezza interpretativa, la scelta della delega di attribuire alle sezioni specializzate le controversie summenzionate [di cui alle lettere a) e b) dell’art. 16], non sembra volta a trasformare tali sezioni in organi dotati di potere sanzionatorio diretto, ma piuttosto sottoporre alla loro cognizione tutte le controversie derivanti dall’applicazione sostanziale della disciplina, ivi incluse le questioni inerenti alle sanzioni qualora esse siano previste come conseguenza civilistica della violazione.

In ogni caso, è agevole ricavarne l’impressione che la delega finisca comunque per suggerire l’adozione di un assetto nel quale le sezioni specializzate svolgono un ruolo centrale nella interpretazione e applicazione del nuovo corpus di norme sull’addestramento dei sistemi di AI, così ponendo l’ulteriore esigenza di un coordinamento con il tenore e la portata precettiva del nuovo art. 9 c.p.c. Infatti, le due norme richiamano due distinti criteri di attribuzione della competenza che, a prima lettura, sembrano parzialmente sovrapporsi: da un lato, la devoluzione alle sezioni specializzate in materia d’impresa delle controversie riguardanti la disciplina dell’utilizzo di dati e algoritmi per l’addestramento di sistemi di AI (art. 16, co. 3, lett. c); dall’altro, la competenza esclusiva del tribunale per le cause aventi ad oggetto il funzionamento di un sistema di AI (art. 9 c.p.c.).

Si potrebbe tentare una valorizzazione del dato letterale, stante la presenza di due distinti riferimenti  (“l’utilizzo dei dati” in luogo del “funzionamento dei sistemi”), nell’ottica di pervenire ad un riparto funzionale: da un lato, il tribunale sarebbe chiamato a presidiare il controllo sistemico dell’algoritmo e dei suoi effetti sui diritti, mentre, dall’altro lato, le sezioni specializzate avrebbero il proprio spazio d’intervento rispetto alle violazioni della disciplina sull’utilizzo dei dati e degli algoritmi — vale a dire, la regolazione economico-industriale dell’AI —, con particolare riguardo ai processi di addestramento.

In via esemplificativa rientreranno nel gruppo delle controversie da devolvere alle sezioni specializzate quelle in cui una azienda accusi una concorrente di avere utilizzato, senza consenso, dataset di sua proprietà per addestrare un proprio modello di AI — lamentando profili di violazione del segreto industriale e di proprietà intellettuale ovvero di concorrenza sleale e tutela del know-how in ambito algoritmico — ovvero per violazione degli obblighi sull’addestramento e conseguente responsabilità allorquando la società lamenti nei confronti della piattaforma, l’errato utilizzo dei dataset o la mancata rimozione di dataset bias che alterano le performance del modello in ambito commerciale.

Diversamente sono da assegnare alla competenza esclusiva del Tribunale tutte quelle controversie che sorgono per lamentare gli effetti sui diritti soggettivi o sulle garanzie a tutela dell’individuo del mal funzionamento di un sistema di AI, come potrà avvenire ogni qualvolta il cittadino intenda lamentare che la decisione o la diagnosi (in ambito medico) algoritmica si è rivelata errata ovvero discriminatoria, cagionando un danno che dev’essere risarcito.

Tuttavia, non sembra difficile immaginare che i giudizi insorgenti potranno presentare una commistione di entrambi gli aspetti, coinvolgendo più cause tra di loro connesse (che riguardano l’utilizzo dei dati ai fini di addestramento che a loro volta si riflettono sul funzionamento dei sistemi, andando ad incidere negativamente sul diritto dei singoli), e rendendo necessaria l’adozione di un criterio di prevalenza, che dovrebbe indurre a guardare alla competenza esclusiva del tribunale ogni volta che l’oggetto principale del giudizio sia la tutela di un diritto soggettivo del singolo.

Sul punto, giova ricordare il recente contrasto giurisprudenziale[29] rispetto alla possibilità di ricondurre alla disciplina della competenza il rapporto tra sezioni ordinarie e sezione specializzata in materia di impresa che siano incardinate nel medesimo ufficio giudiziario, risolto dall’intervento delle Sezioni Unite[30] con la sentenza Cass. Sez. Un., 23 luglio 2019, n. 19882[31].

Alla luce dell’insegnamento della Suprema Corte, è ormai chiaro che, allorquando la declinatoria sia pronunciata da una sezione specializzata per l’impresa a favore di un tribunale diverso da quello nel quale detta sezione è incardinata ovvero da un tribunale (che non sia dotato della sezione specializzata) in favore di una sezione specializzata incardinata presso un diverso ufficio giudiziario, verrà in rilievo una questione di competenza territoriale; al contrario, quando il rapporto coinvolge una sezione ordinaria e una sezione specializzata in materia di impresa, entrambe facenti parte del medesimo ufficio giudiziario, il problema non attiene alla competenza, ma rientra nella mera ripartizione degli affari interni all’ufficio giudiziario[32].  Infatti la specializzazione per materia non costituisce di per sé un indice sintomatico di diversità in termini di competenza tra ufficio ed ufficio, proprio perché il riferimento ad un giudice altamente specializzato risponde all’esigenza di una migliore organizzazione e qualità della risposta di giustizia, che non è connaturata al profilo della competenza.

Ne discende allora che nell’ipotesi in cui più cause in materia di AI, tra di loro connesse, pendano dinanzi alla sezione ordinaria e alla sezione specializzata in materia di impresa presenti nel medesimo tribunale, la questione non andrà risolta tramite l’applicabilità degli artt. 39 e 40 c.p.c., bensì dando applicazione agli artt. 273 e 274 c.p.c.[33] e disponendo la riunione di fronte al giudice a cui va attribuita la causa che è possibile qualificare come principale.

 

4.Il coordinamento con la complessiva competenza assegnata al tribunale delle imprese.

Il tema del “regolamento di confini” tra la competenza del tribunale ordinario per le cause relative al funzionamento dei sistemi di intelligenza artificiale e la competenza del tribunale delle imprese non si esaurisce nell’ambito del rapporto analizzato al § che precede, ma individua ulteriori profili di potenziale sovrapposizione, con riferimento a molte delle materie progressivamente devolute a (quelle che in principio erano) le sezioni specializzate.

Operazione, quest’ultima, che è resa difficoltosa non tanto in relazione al perimetro dei limiti esterni di ciascuna competenza, quanto (e ancor prima) in relazione alla rintracciabilità di contorni interni della competenza e natura del c.d. tribunale (o meglio “sezioni”) delle imprese, che nel tempo ha vissuto una evoluzione non sempre lineare.

Come noto, l’istituzione delle sezioni specializzate per le materie della proprietà industriale ed intellettuale risale al d.lgs. 168/2003, con l’obiettivo di concentrare il relativo contenzioso, da sempre specialistico, innanzi ad una ristretta cerchia di giudici fortemente specializzati e muniti di quelle capacità e conoscenze indispensabili per assicurare un governo coerente della materia. In questo modo s’intendeva anche promuovere, in un contesto internazionale segnato da una crescente concorrenza tra gli ordinamenti, la competitività del sistema giustizia, ponendolo nella condizione di garantire tempi di definizione più circoscritti ed esiti maggiormente prevedibili per quelle controversie in cui è (tradizionalmente) parte una società di medie o grandi dimensioni[34].

Successivamente il codice di proprietà industriale (d.lgs. n. 30/2005), aveva previsto all’art. 134, l’applicabilità del c.d. rito sommario, ma a seguito della declaratoria di illegittimità costituzionale operata dalla Consulta con la pronuncia del 17 maggio 2007, n. 170, è intervenuta la legge 99/2009 che ha trasformato la portata precettiva della norma, offrendo una elencazione puntuale[35], seppur non tassativa (data la perdurante vigenza dell’art. 3 del d.lgs. n. 168/2003) delle materie di competenza delle sezioni specializzate[36]. Elencazione che, peraltro, a partire dal 2012[37], ha visto ingrossare sensibilmente le proprie fila, dapprima nell’ottica di una modifica onomastica in “sezioni specializzate in materia di impresa”[38], poi di un riferimento a tutti i giudizi coinvolgenti (come parti) le imprese, in qualunque forma costituite, con sede all’estero[39], fino all’introduzione[40] del codice della crisi d’impresa (d.lgs. n. 14/2019), che ha devoluto alle sezioni specializzate la competenza sulle procedure concorsuali e sulle cause che da esse derivano, relative alle imprese in amministrazione straordinaria e ai gruppi di imprese di rilevante dimensioni[41] o affidando alla competenza di queste ultime le azioni nei confronti degli amministratori ex art. 2409 c.c. anche nelle S.r.l. senza organi di controllo. Materie a cui si è aggiunta (in forza della legge 31/2019, poi entrata in vigore il 20 maggio 2021) la competenza per le c.d. class action[42], la cui collocazione all’interno del codice di rito ambirebbe a renderla rimedio di carattere generale (non più limitato alla disciplina dei consumatori) a tutela di tutti quei diritti che, principalmente per la loro scarsa rilevanza economica, non vengono attivati in forma individuale dai rispettivi titolari.

Peraltro, la competenza territoriale delle sezioni non è sempre la medesima, atteso che per alcune materie quella assegnata a specifici uffici si dilata, consentendo loro di diventare gli unici effettivamente competenti (rectius operanti)[43].

Pertanto, sebbene l’esigenza di separare il “contenzioso specialistico” dal “contenzioso ordinario” all’interno del medesimo ufficio non possa dirsi esigenza nuova, rispetto all’elenco che precede qualche difficoltà operativa sembra possa essere scorta con specifico riferimento a quelle materie in cui la lesione del diritto in capo al singolo si ricolleghi al funzionamento di un sistema di intelligenza artificiale che sia di proprietà o gestito da una società con sede all’estero ovvero a quelle violazioni che per la loro portata seriale e sistematica, legata a bias strutturali dell’algoritmo, possano tradursi in richieste di risarcimento collettivo nelle forme della class action.

Orbene, anche in questi casi non potrà che venire in soccorso il criterio già offerto dalle Sezioni Unite con la sentenza del 23 luglio 2019, n. 19882, che ha ricondotto il rapporto tra sezione ordinarie e specializzate all’ambito dei criteri di attribuzione piuttosto che al tema della competenza. Distinguo che, sia consentito ribadirlo, non rileva solo a fini sistematici ma involge rilevanti aspetti processuali, quali ad esempio la proponibilità del regolamento di competenza, che dovrà essere esclusa, rimettendo al Presidente del tribunale, in virtù del proprio potere organizzativo, il compito di assegnare la controversia alla sezione e al giudice che egli ritenga dotato delle attribuzioni nella relativa materia.

5.Il coordinamento con la disciplina sulla competenza del tribunale (e sui riti applicabili) in relazione alle controversie in materia di: (i) trattamento dei dati personali ai sensi dell’art. 10, comma 2, d.lgs. n. 150 del 2011; (ii) discriminazione a norma dell’art. 28, comma 2, d.lgs. n. 150 del 2011; e (iii) rapporti di consumo ai sensi degli artt. 33, lett. u) e 66-bis d.lgs. n. 206 del 2005.

Non presenta profili problematici il coordinamento della disciplina del nuovo art. 9 c.p.c. sulla competenza per materia del tribunale riguardo alle controversie relative al funzionamento dell’AI con le disposizioni che prevedono norme speciali sempre in tema di competenza ratione materiae del tribunale per le controversie relative a trattamento dei dati personali (art. 10, comma 2, d.lgs. n. 150 del 2011), discriminazione (art. 28, comma 2, d.lgs. n. 150 del 2011) e rapporti di consumo (artt. 33, lett. u) e 66-bis d.lgs. n. 206 del 2005). Appunto perché tali disposizioni sono convergenti nell’individuare il tribunale come giudice competente per materia.

Nondimeno, se una lesione di diritti soggettivi è causata dall’uso dell’AI, si può verificare la necessità di coordinare norme sulla competenza funzionale per territorio diverse e in conflitto tra loro[44].

Questa eventualità, del resto, non è nuova. L’utilizzo di Internet o di altri sistemi informatici ha già favorito, ad es., fenomeni di c.d. patrimonializzazione dei dati personali[45], che hanno comportato, sul piano processuale, la riferibilità delle tutele richieste alla disciplina tanto del foro del consumatore (residenza o domicilio elettivo del consumatore), quanto della competenza ratione loci in tema di protezione dei dati personali (residenza del titolare del trattamento o residenza dell’interessato)[46]. Per appianare il conflitto tra tali disposizioni si è affermato un indirizzo nel senso della prevalenza del foro del consumatore[47]. In proposito, sono state addotte prima ragioni attinenti soprattutto alla successione di leggi nel tempo (stante la posteriorità della disciplina del foro del consumatore, non esclusa dalla più recente riforma della disciplina – anche processuale – in tema di protezione dei dati personali)[48], poi anche considerazioni attinenti alla prevalenza delle «esigenze di tutela, anche sul terreno processuale, che sono alla base dello statuto del consumatore»[49]. Queste ultime considerazioni sembrano in effetti convincenti e meritano adesione, con la precisazione che la prevalenza del foro del consumatore su quello in materia di privacy riguarda meramente la disciplina applicabile in punto di competenza territoriale dell’unico giudice al quale è possibile proporre il cumulo delle domande riferibili alle diverse discipline applicabili. Pertanto, al giudice del prevalente foro consumeristico sarà possibile esercitare – ad es. – il diritto al risarcimento del danno ai sensi dell’art. 82 reg. 2016/679 per violazioni della disciplina europea in tema di protezione dei dati personali. Mentre per l’individuazione del rito applicabile deve trovare applicazione l’art. 40 c.p.c. in tema di connessione tra cause tra riti diversi[50].

Per altro verso, l’utilizzo massivo dell’AI potrà porre un’analoga questione interpretativa nel caso di connessione e cumulo di cause in materia consumeristica e di discriminazione. Difatti, l’AI può determinare problemi ed errori cognitivi (bias) anche nel dispiegarsi dei rapporti di consumo[51]. Sul piano processuale, ciò potrebbe determinare un nuovo problema interpretativo in ordine all’eventualità di una connessione tra cause in materia di consumo e di discriminazione, con un possibile conflitto tra la disciplina applicabile al foro della residenza consumatore, derogabile a favore di quest’ultimo[52], e a quello, rigorosamente inderogabile, in materia di discriminazione del domicilio del ricorrente (art. 28, comma 2, d.lgs. n. 150 del 2011)[53].

In questo caso, la prevalenza del foro consumeristico non può ritenersi predominante sotto il profilo di una supposta maggiore pregnanza della relativa protezione, visto il più rilevante status del soggetto discriminato e il maggior vigore della tutela stabilita in questo ambito. Tuttavia, anche in questo caso riteniamo che, sul piano processuale della competenza, sia prevalente il foro del consumatore, in considerazione della maggiore flessibilità di tale foro speciale in senso unilateralmente favorevole a quest’ultimo[54]. Nell’ambito del giudizio avanti il giudice del foro del consumatore devono però trovare applicazione le disposizioni speciali previste in relazione alle cause in cui vengano chiesti provvedimenti volti a contrastare atti o comportamenti discriminatori[55].

6.Conclusioni

 

Le controversie di cui al nuovo art. 9 c.p.c. in punto di competenza del tribunale riguardano il funzionamento dei sistemi automatizzati con capacità inferenziali, che influenzano ambienti fisici o virtuali con implicazioni sui diritti fondamentali. La competenza del tribunale si estende a tutte le controversie relative all’AI, incluse quelle sulla violazione del principio di non discriminazione, sulla protezione dei dati personali e sul diritto d’autore.

La giurisdizione per controversie sull’AI spetta al giudice ordinario, anche in deroga ai criteri usuali, per tutelare diritti soggettivi lesi dalla violazione del principio di non discriminazione. Quest’ultimo principio, centrale nell’AI Act, è essenziale per proteggere i diritti fondamentali, specialmente in caso di errori cognitivi (bias) che possano causare improprie disparità causate da algoritmi o sistemi di AI.

In tale ambito, il giudice ordinario ha rilevanti potestà per contrastare eventuali discriminazioni, anche tramite l’emanazione di provvedimenti nei confronti della pubblica amministrazione diretti alla rimozione di atti e norme regolamentari discriminatorie, in concorso con la giurisdizione del giudice amministrativo in tema di annullamento dell’atto amministrativo discriminatorio. Allo stesso modo, deve ritenersi possibile richiedere l’accesso alla documentazione obbligatoria sulla base dell’AI Act anche tramite il ricorso al giudice ordinario.

Al di fuori di questa ipotesi, in caso di lesioni di diritti legate all’AI, si applicano gli ordinari criteri di riparto della giurisdizione ordinaria con il giudice amministrativo. Dunque, le controversie relative al funzionamento dei sistemi di AI nell’ambito dell’esercizio dei poteri della pubblica amministrazione dovrebbero, di regola, essere riservate al giudice amministrativo.

Per altro verso, l’esigenza di coordinamento tra la competenza generale del tribunale e quella delle sezioni specializzate in materia di impresa, sembra assecondare la logica di un riparto funzionale, che assegna alle seconde le controversie che attengono all’uso dell’AI nei rapporti tra imprese ed al primo tutto il contenzioso che intercetta gli effetti del funzionamento dell’AI sui diritti fondamentali della persona, in ragione di una competenza che dovrà prevalere nelle ipotesi di connessione tra cause e che evidenzia altresì l’esigenza di preservare la possibilità per il cittadino di accedere a un giudice ordinario in grado di assicurare tutela effettiva dei diritti fondamentali nonostante preminenti profili di specializzazione tecnica.

Infine, il coordinamento della nuova disciplina sulla competenza del tribunale per le controversie sull’intelligenza artificiale con le norme speciali sulla competenza ratione materiae per il trattamento dei dati personali, la discriminazione e i rapporti di consumo non presenta problemi. Tuttavia, l’uso dell’AI potrebbe causare conflitti di competenza territoriale per cause connesse, come nel caso di lesioni di diritti soggettivi, con la prevalenza del foro consumeristico per la sua maggiore flessibilità a favore del consumatore.

[1] Lo scritto è destinato al Commentario alla legge 132 del 23 settembre 2025 sull’intelligenza artificiale, a cura di C. Contessa, P. Del Vecchio, A.M. Gambino, in corso di pubblicazione. Esso è il risultato di un lavoro svolto in modo coordinato da parte degli autori, in cui i paragrafi 1, 2 e 5 sono del Prof. Antonino Barletta ed i paragrafi 3 e 4 sono del Prof. Aniello Merone. Le conclusioni sono di entrambi gli autori.

[2] Sul concetto di AI e sui relativi, principali, profili giuridici cfr. G. Sartor, L’intelligenza artificiale e il diritto, Torino, 2022; G.M. Riccio, G. Ziccardi, G. Scorza (a cura di), Intelligenza artificiale. Profili giuridici, Padova, 2022; A. Pajano, F. Donati, A. Perrucci, Intelligenza artificiale e diritto: una rivoluzione? Diritti fondamentale, dati personali e regolazione, I, Bologna, 2022. Per una prima panoramica sull’AI Act sotto il profilo della protezione dei dati personali cfr. G. Ziccardi, Una lettura dell’Artificial Intelligence Act: norme, etica, adempimenti, attuazione, in AA.VV., Intelligenza artificiale, Diritto, giustizia, economia ed etica, Torino, 2025, 15 ss.; F. Donati, La protezione dei diritti fondamentali nel regolamento sull’intelligenza artificiale, in Riv. AIC, 2025, n. 1, § 1 ss., oltre agli ampi riferimenti bibliografici ivi citati.

Riguardo alla formazione della disciplina europea sull’AI, finalità e caratteri di tale approccio si veda l’approfondito commento di O. Pollicino e G. Muto, a commento dell’art. 16 in questo Commentario.

[3]  Così considerando 12 AI Act.

[4]  Cfr. considerando 12 AI Act.

[5]  Dal considerando 1 e dal considerando 2, nonché dall’art. 1, paragrafo 1, AI Act si ricava che il regolamento mira a migliorare il funzionamento del mercato interno UE creando un quadro giuridico uniforme per lo sviluppo, la commercializzazione, la messa in servizio e l’uso dei sistemi di AI. Esso promuove un’AI antropocentrica e affidabile, garantendo al tempo stesso un alto livello di tutela della salute, della sicurezza, dei diritti fondamentali, della democrazia, dello Stato di diritto e dell’ambiente, e incentivando innovazione e occupazione. La tutela dei diritti fondamentali rappresenta il fulcro dell’intero impianto normativo: il regolamento intende prevenire e contrastare gli effetti nocivi che l’uso improprio o non controllato dei sistemi di AI potrebbe avere sulla vita delle persone e sulla società. In questo senso, rafforza anche la protezione della democrazia, dello Stato di diritto e dell’ambiente, riconoscendo che un impiego non etico o poco trasparente della tecnologia può minacciare i principi su cui si fonda l’Unione. Accanto alla protezione dei diritti, il regolamento promuove un equilibrio tra sicurezza e innovazione, incoraggiando lo sviluppo di soluzioni tecnologiche che rispettino regole chiare e responsabilità precise per chi le progetta o utilizza.

[6]  Per l’opinione maggioritaria, l’indeterminabilità si riferisce alle cause il cui oggetto non sia suscettibile di valutazione economica: cfr. G. Gionfrida, Competenza civile, in Enc. dir., VIII, Milano, 1961, 59 s.; T. Segrè, Della competenza per materia e valore, in Commentario al codice di procedura civile, diretto da E. Allorio, I, Torino, 1973, 134; U. Rocco, Trattato di diritto processuale civile, II, Torino, 1957, 59. In giurisprudenza, cfr., tra le più recenti, Cass. Sez. II, 21 dicembre 2017, n. 30732; Cass. Sez. III, 7 febbraio 2011, n. 3024; Cass. Sez. III, 30 ottobre 2007, n. 22943. Diversamente, però, A. Levoni, Competenza nel diritto processuale civile, in Dig. it., disc. priv. sez. civ., III, Torino, 1988, § 8, secondo cui l’indeterminabilità si riferisce all’illiquidità del petitum mediato in relazione alle cause concernenti sia diritti di carattere patrimoniale, in assenza della possibilità per l’attore di riferirsi ex ante a criteri idonei alla quantificazione del valore, sia cause aventi ad oggetto beni della vita che per la loro natura non patrimoniale non sono suscettibili di valutazione economica.

[7]  Cfr. spec. C. Castronovo, Situazioni soggettive e tutela nella legge sul trattamento dei dati personali, in Europa e diritto privato, 1998, 653 ss. Analogamente, C. Scognamiglio, Buona fede e responsabilità civile, in Europa e diritto privato, 2001, 361.

[8]  Cfr. Cass. 30 ottobre 2007, n. 22943, cit., secondo cui «la non sottoponibilità a stima economica del diritto ed in particolare di diritti come quelli della personalità può giustificare la valutazione della indeterminabilità del valore della domanda e, quindi, l’applicazione del criterio residuale della competenza per valore del tribunale, soltanto allorquando la domanda abbia ad oggetto l’accertamento dell’esistenza del diritto come tale, a prescindere dalla richiesta di una somma di danaro. Non esistendo in tal caso un’apposita norma dettante il criterio di stima è, infatti, giocoforza dare rilievo alla ontologica natura non economica del diritto e, quindi, considerarlo come di valore non determinabile. Quando invece l’accertamento del diritto della personalità viene richiesto con una domanda intesa soltanto la sua lesione e ad ottenere il risarcimento per equivalente delle sue conseguenze, la domanda è certamente riconducibile all’ambito dell’art. 14 ed ai criteri di stima ivi indicati». Si noti, peraltro, che non è certa neppure la possibilità di chiedere il risarcimento del danno alla persona non esattamente quantificato nel suo ammontare al momento della proposizione della domanda: sul punto cfr., s.v., il nostro Sull’oggetto del processo di risarcimento: le potestà delle parti e i poteri del giudice, in Studi in onore di Franco Cipriani, I, Napoli, 2020, 3 ss.

[9]  L’art. 33, comma 2, l. n. 267 del 1990, modificato dal d.l. n. 1 del 2012, prevede quanto segue: «le azioni di nullità e di risarcimento del danno, nonché i ricorsi intesi ad ottenere provvedimenti di urgenza in relazione alla violazione delle disposizioni di cui ai titoli dal I al IV sono promossi davanti al tribunale competente per territorio presso cui è istituita la sezione specializzata di cui all’articolo 1 del decreto legislativo 26 giugno 2003, n. 168, e successive modificazioni». Sul punto rimandiamo, s.v., al nostro La competenza sull’inibitoria antitrust, in Riv. dir. proc. 2006, 499 ss.

[10]  Si veda il fenomeno delle c.d. inibitorie dinamiche recentemente oggetto di un interessante approfondimento: M. Stella, Access provider e tutela inibitoria, in Riv. dir. priv., 2023, 891 ss., 895 ss. L’importanza della tutela inibitoria in materia di funzionamento dell’intelligenza artificiale emerge anche dalla previsione di cui all’art. 24, comma 5, lett. a), l. n. 132 del 2025.

[11]  Anche la responsabilità invero deve assumere una “funzione preventiva” in relazione alle controversie che possano insorgere in relazione all’utilizzo di tecnologie particolarmente innovative, A. Albanese, Mobilità del futuro e funzione preventiva della responsabilità civile, in Europa e dir. priv., 2023, 439 ss., 455 ss.

[12]  La possibilità di delegare l’accertamento del fatto all’intelligenza artificiale è stata unanimemente respinta dalla dottrina: cfr. A. Carratta, Decisione robotica e valori del processo, in Riv. dir. proc., 2020, 491 ss.; B. Cavallone, Le prove nel nuovo millennio. Programmi per il passato, in Riv. dir. proc., 2022, 543; F. Donati, Intelligenza artificiale e giustizia, in Rivista AIC, 2020, 415 ss. Ciò, forse, può spiegare perché il disegno di legge sull’AI (inizialmente all’art. 14) prevedeva un uso molto limitato nell’attività giudiziaria, per nulla riferibile ad aspetti inerenti all’accertamento del fatto, posto che la disposizione in materia consentiva l’utilizzo dei sistemi di AI «esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale». Questa impostazione è stata oggetto di critica da parte della Commissione europea nell’ambito del parere circostanziato C(2024) 7814, trasmesso il 5 novembre 2024, come risulta dal resoconto sommario n. 214 della seduta del 27 novembre 2024 della IV Commissione permanente del Senato. Difatti, la Commissione europea ha invitato il legislatore italiano ad armonizzare la norma sull’utilizzo dell’AI nell’attività giudiziaria con l’art. 6, paragrafo 3, dell’AI Act, che non preclude l’impiego di sistemi di AI classificati come “ad alto rischio”, purché non presentino «un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale». Sul punto cfr. A. Punzi, La decisione giudiziaria nell’AI Act, in Giur. it., 2025, 448 ss.

D’altra parte, per quanto non sia certo alieno da criticità, l’utilizzo dell’AI per l’acquisizione di strumenti di valutazione delle prove, in vista della formazione del convincimento giudiziale sui fatti, rappresenta uno degli aspetti più promettenti degli strumenti di AI (cfr. P. Comoglio, Nuove tecnologie e disponibilità della prova, Torino, 2018, 328 ss.; F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, in Dir. proc. civ. it. e comp., 2024, 922 ss.; per il processo penale R. Borgogno, Prova scientifica e accertamento del nesso di causalità, in Aa.Vv., Prassi e tecnica della consulenza forense, Torino, 2023, 526; L. Donati, La verità giudiziale tra rarefazione tecnologica e solidità della tradizione processuale, in Aa.Vv., Verità e giustizia nel processo penale, Roma, 2025, 177; nella letteratura anglosassone J. He, C Yang, Testimony by LLMs, in AI & Society, 2025, § 1 ss.). Un importante impiego sul piano istruttorio nel processo di sistemi di AI può riguardare proprio l’accertamento dei malfunzionamenti di altri sistemi AI (J. Tritscher, A. Krause, A. Hotho, Feature relevance XAI in anomaly detection: Reviewing approaches and challenges, in Front. Artif. Intell, 2023, 1 ss.). In quanto, non può certo escludersi a priori la possibilità di applicare in modo proficuo e conforme alle garanzie essenziali del giusto processo (art. 111, comma 2, Cost.) tecnologie già impiegate per la sorveglianza automatizzata e la prevenzione proattiva delle c.d. “anomalie prestazionali” rispetto agli iniziali parametri progettuali di sistemi di AI. Difatti, tali tecnologie sono capaci di condurre analisi su dati contestuali, rinvenendo pattern e correlazioni tra eventi che suggeriscano la presenza di errori localizzati o problematiche sistemiche, come input errati e distorsioni nei dati. L’addestramento dei sistemi AI alla diagnosi avanzata permette di identificare con precisione le cause dei malfunzionamenti, distinguendo guasti tecnici, vizi dei dati e carenze architetturali, in linea con i dettami dell’AI Act e delle analisi in tema di responsabilità oggettiva o per colpa (J. Tritscher, A. Krause, A. Hotho, Feature relevance XAI in anomaly detection: Reviewing approaches and challenges, cit., 2 ss.).

[13]  In proposito, rammentiamo che la Commissione aveva presentato una proposta di direttiva sulla responsabilità civile da intelligenza artificiale che poneva non pochi problemi di compatibilità con il sistema processuale in materia di formazione del convincimento del giudice e regola di giudizio sul fatto (cfr. L. Arnaudo, R. Pardolesi, Ecce robot. Sulla responsabilità dei sistemi adulti di intelligenza artificiale, in Danno e resp., 2023, 409 ss.; F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, cit., 926 ss.). La proposta è stata ritirata dalla Commissione europea, a seguito da una delibera di “sostegno” al suo superamento da parte della Commissione per il mercato interno del Parlamento europeo, sulla base del rilievo che un eccesso di regolamentazione in questo settore avrebbe potuto determinare una limitazione della competitività. Sul punto il legislatore delegato avrà il compito di stabilire «nei casi di responsabilità civile, [la] previsione di strumenti di tutela del danneggiato, anche attraverso una specifica regolamentazione dei criteri di ripartizione dell’onere della prova, tenuto conto della classificazione dei sistemi di intelligenza artificiale e dei relativi obblighi come individuati dal regolamento (UE) 2024/1689» (art. 24, lett. d), l. n. 132 del 2025).

[14]  Cfr. M. Franzoni, Note sulla nuova direttiva sul danno da prodotti, in Danno e resp., 2025, 157 ss.; A. Fusaro, Intelligenza artificiale e responsabilità da prodotti difettosi: la direttiva 2024/2853, in Nuove leggi civ. comm., 2025, 488 ss.

[15]  In sé, il coordinamento tra l’art. 9 c.p.c. e gli artt. 33, lett. u) e 66-bis d.lgs. n. 206 del 2005 sembrerebbe porre problemi limitati dal fatto che la prima regola la competenza per materia del tribunale (inderogabile ai sensi dell’art. 6 c.p.c.) e la seconda la competenza territoriale applicabile ai rapporti di consumo. Nondimeno, come vedremo più avanti in questo commento, le controversie da funzionamento dell’AI, almeno quando concernono persone fisiche, possono porre facilmente anche profili relativi al trattamento dei dati personali, per cui è prevista una diversa competenza territoriale (art. 10, comma 2, d.lgs. n. 150 del 2011) e richiedere l’applicazione delle norme sulle controversie in materia di discriminazione, ove è sancita ulteriormente una competenza territoriale (art. 28, comma 2, d.lgs. n. 150 del 2011).

[16]  V. sotto il paragrafo 5.

[17]  Sugli ordinari criteri di riparto tra giurisdizione ordinaria e amministrativa cfr., per tutti, A. Travi, Lezioni di giustizia amministrativa 14a ed., Torino, 2023, 120 ss.

[18] G. Costantino, Note su Authorities e giurisdizione, in Riv. dir. proc., 2019, 39 ss.

[19] Sulla giurisdizione riguardo alle azioni in materia di protezione dei dati personali cfr. s.v. il nostro commento agli artt. 140-bis e 152 d.lgs. n. 196 del 2003 e all’art. 10 d.lgs. n. 150 del 2011, in Commentario al Codice della privacy, 2a ed., a cura di R. Sciaudone, Pisa, 2023, 543 ss., 579 ss., 720 ss.; P. Mazza, Profili processuali del diritto alla protezione dei dati personali nel regime del Reg. UE 2016/679 (GDPR) e del riformato D.Lgs. n. 196/2003, in Corr. giur., 2021, 961 ss.; A. Carratta, Aspetti processuali della disciplina sul trattamento dei dati personali (l. 31 dicembre 1996, n. 675), in Riv. dir. proc., 2000, 138 ss.

[20]  Il rischio di discriminazione algoritmica è stato evidenziato inizialmente soprattutto negli Stati Uniti in relazione ai primi casi di utilizzo dell’intelligenza artificiale in ambito giudiziario. Ci riferiamo al noto caso in ambito penale State v. Loomis, 881 N.W.2d 749 (Wis. 2016), su cui cfr. Criminal Law – Sentencing guidelines – Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing, in Harvard Law Rev., 2017, [Vol. 130:1530]. Più recentemente, nel 2019, è stato avviato il caso Fair Housing Opportunity v. Facebook, Inc. avanti il U.S. District Court for the Southern District of New York, poi definito nel 2022 con un accordo transattivo ad esito del quale sono state concordate modifiche di un sistema di AI per ovviare a rischi discriminatori. Sempre in tema di discriminazione algoritmica negli Stati Uniti cfr. Mobley v. Workday, Inc., 740 F. Supp.3d 796 (2024) su cui cfr. A. Morris, Mobley v. Workday: An Evolving AI Compliance Landscape, 30 Ill. Bus. L.J. (2025), 67 ss. Sui pericoli dell’utilizzo dei sistemi di AI in senso discriminatorio in sede di assunzione e nei rapporti di lavoro negli Stati Uniti, M. LeRoy, Algorithmic Bias in Hiring: Amending title VII to Prohibit AI Discrimination (2025), 51 J Legis, 261 ss. In Olanda, cfr. Trib. distr. Aja, 5 febbraio 2020, ECLI:NL:RBDHA:2020:865, con il quale è stato ordinato d’interrompere l’utilizzo di un sistema informatico per il contrasto di frodi in materia di sussidi, indennità e imposte per difetto di trasparenza e verificabilità dei risultati. In Italia cfr. Trib. Bologna, 31 dicembre 2020, in relazione al caso Deliveroo su cui V. Capuozzo, Il diritto costituzionale al lavoro nell’era delle piattaforme digital: la risposta italiana al caso dei riders, in Cura, lavoro, diritti L’Unione europea e le sfide della contemporaneità, a cura di B. Guastaferro, L. Tebano, Napoli, 2022, 37 ss., spec. 48 ss. In Francia, cfr. Trib. Nanterre, ord. 14 febbraio 2025, con cui è stato ordinato ad un’impresa di procedere alla consultazione preventiva di un ente rappresentante dei lavoratori, in vista del successivo avvio dell’addestramento di un sistema di AI che prevedeva l’utilizzo dei dati relativi ai lavoratori, in via accessoria rispetto alla tutela dei loro diritti fondamentali.

[21] Così Corte cost. 11 maggio 2001, n. 140, c.vi nostri.

[22] Cfr. Cass. Sez. Un., 30 marzo 2011, n. 7186, richiamata più recentemente anche da Corte cost., 12 febbraio 2024, n.15. Cfr. in dottrina S. Barbareschi, L’ordinato funzionamento delle fonti interne e il concorso degli strumenti di tutela dei diritti. Considerazioni sulla sentenza n. 15 del 2024, in Nomos, 2024, 2; G. Patarini, Le peculiarità del procedimento antidiscriminatorio ex art. 28, d. lgs. 150 del 2011 e i rapporti fra norme interne e norme dell’Unione Europea. Nota a Corte cost. sentenza n. 15 del 2024, in Riv. AIC, 2024, 114 ss.

[23] Così Corte cost. 12 febbraio 2024, n. 15, c.vi nostri.

[24] Gli incisi riportati nel testo sono ancora di Corte cost. 12 febbraio 2024, n.15.

[25] Cfr. Cons. St. 6 marzo 2023, n. 2290, richiamata da Corte cost. 12 febbraio 2024, n. 15.

[26] Il rilievo svolto nel testo è attualmente pacifico: cfr. G. Pesce, Il giudice amministrativo e la decisione robotizzata. Quando l’algoritmo è opaco, in www.judicium.it, 2020; F. Costantino, Algoritmi, intelligenza artificiale e giudice amministrativo, in Giur.it., 2022, 1527 ss.; E. Tagliasacchi, Il sindacato del giudice sull’attività amministrativa algoritmica tra etica benthamiana e “black box”: il futuro ha un cuore antico?, in Contr. imp., 2025, 30 ss. L’entrata in vigore del nuovo art. 9 c.p.c. non dovrebbe alterare l’attuale quadro dei rapporti tra la giurisdizione ordinaria e quella amministrativa, in relazione all’aspetto qui considerato.

[27] Cfr. Cons. St., 29 marzo 2021, n. 2630, con nota di F. Midiri, Proteggere i dati personali con le tutele del consumatore, in Giornale dir. amm., 2021, 609 ss.

[28] Al cui commento si rinvia.

[29] Inizialmente, si era affermato l’orientamento che riconduceva sempre il rapporto tra le sezioni specializzate e la sezione ordinaria ad una questione di competenza (così, Cass. 25 sett. 2009, n. 20690; Cass. 18 mag. 2010, n. 12153; Cass. 23 sett. 2013, n. 21762; Cass. 24 lug. 2015, n. 15619; Cass. 28 feb. 2018, n. 4706; in dottrina G. Balena, L’istituzione del tribunale delle imprese, in Giusto processo civile, 2012, 335 ss.; P. Celentano, Le sezioni specializzate in materia di impresa, in Società 2012, 815; P. Comoglio, Il giudice specializzato in materia d’impresa. Problemi e prospettive, Torino 2014, 131 ss.; L. Baccaglini, Sezioni specializzate per l’impresa e competenza per materia, in Riv. dir. proc., 2016, 857 ss.) mentre in seguito ha acquisito maggior vigore la posizione che attribuisce al rapporto un rilievo esclusivamente tabellare (cfr. Cass. 23 mag. 2014, n. 11448; Cass. 15 giu. 2015, n. 12326; Cass. 27 ott. 2016, n. 21774; Cass. 7 mar. 2017, n. 5656; Cass. 22 mar. 2017, n. 7227; Cass. 24 mag. 2017, n. 13138; in dottrina, si veda A. Giussani, L’attribuzione delle controversie industrialistiche alle sezioni dell’impresa, in (a cura di) A. Giussani, Il processo industriale, Torino 2012, 3 ss., sp. 5 ss. Si veda F. Santagada, La competenza per connessione delle sezioni specializzate per l’impresa, in Riv. dir. proc., 2014, 6, 1361 ss., sp. 1376-1378; M. Ciccone, Sui rapporti tra sezioni specializzate per l’impresa e sezioni ordinarie del tribunale, in Giur.it. 2018, 2674 ss.; P. Farina, Contributo allo studio del principio di specializzazione del giudice, Torino 2020, 291 ss.

[30] La questione era stata sollevata con ordinanza Cass, Sez. I, 30 gennaio 2019, n. 2723, in Dir. ind. 2019, 195, con nota di I.M. Prado, Competenza/distribuzione interna: verso il giudizio delle Sezioni Unite e in Judicium 2019 163 ss., con nota di A. D’Addazio, La tormentata qualificazione del riparto delle funzioni tra sezioni specializzate in materia d’impresa e sezioni ordinarie: (finalmente) la parola alle Sezioni Unite.

[31] Cass. Sez. Un., 23 luglio 2019, n. 19882, in Riv. dir. proc., 2021, 336, con nota di G. Ruffini, Sul controverso rapporto tra sezioni specializzate e ordinarie del medesimo ufficio giudiziario e in Le Società, 2020, 225, con nota di G. Romano, Le Sezioni Unite intervengono sul rapporto tra sezioni specializzate in materia di impresa e sezioni ordinarie del medesimo tribunale.

[32] Per tale motivo la sentenza ha dichiarato l’inammissibilità del regolamento di competenza di cui all’art. 45 c.p.c. quando sia proposto tra sezioni ordinarie e specializzate dello stesso tribunale. Si veda, sempre con riferimento alla pronuncia delle Sezioni Unite, G. Fanelli, Tra la sezione specializzata in materia d’impresa e la sezione ordinaria di uno stesso tribunale non si pongono problemi di competenza in senso tecnico, in Judicium.it. Peraltro, la pronuncia poneva in evidenza alcune criticità dottrinali e applicative, in particolare in ordine alla garanzia del “giudice naturale” specializzato, alla consistenza della specializzazione nelle sezioni, e alle conseguenze pratiche dell’erronea assegnazione.

[33] Come osserva G. Ruffini, Sul controverso rapporto tra sezioni specializzate, cit., 347, l’eventuale doglianza riguardo alla pretesa «violazione dei criteri per l’assegnazione degli affari» secondo criteri di attribuzione interna, può essere unicamente veicolata, nel corso del processo, al capo dell’ufficio.

[34] In senso analogo, G. Romano, Il tribunale delle Imprese. Aspetti problematici, in Giustiziacivile.com, 31 maggio 2019, 3,

[35] L’art. 134 del codice recita: «Sono devoluti alla cognizione delle sezioni specializzate previste dal decreto legislativo 27 giugno 2003, n. 168: a) i procedimenti giudiziari in materia di proprietà industriale e di concorrenza sleale, con esclusione delle sole fattispecie che non interferiscono, neppure indirettamente, con l’esercizio dei diritti di proprietà industriale, nonché in materia di illeciti afferenti all’esercizio dei diritti di proprietà industriale ai sensi della legge 10 ottobre 1990, n. 287, e degli articoli 81 e 82 del Trattato che istituisce la Comunità europea, la cui cognizione è del giudice ordinario, e in generale in materie che presentano ragioni di connessione, anche impropria, con quelle di competenza delle sezioni specializzate; b) le controversie nelle materie disciplinate dagli articoli 64, 65, 98 e 99 del presente codice; c) le controversie in materia di indennità di espropriazione dei diritti di proprietà industriale, di cui conosce il giudice ordinario; d) le controversie che abbiano ad oggetto i provvedimenti del Consiglio dell’ordine di cui al capo VI di cui conosce il giudice ordinario». Per una ricostruzione generale della disciplina della competenza territoriale nel cod. prop. ind., si veda A. Giussani, Corso di diritto processuale delle imprese, Milano, 2015, 28 ss.

[36]Peraltro, l’art. 19, comma 8, della l. 23 luglio 2009, n. 99 aveva disposto l’immediata applicabilità della nuova versione dell’art. 134 c.p.i. anche ai giudizi pendenti, a meno che non fosse già intervenuta una pronuncia sulla competenza.

[37] Il riferimento è al d.l. n. 1/2012, poi convertito con modifiche con la legge n. 27/2012 che oltre ad ampliare il novero delle materie di competenza delle sezioni specializzate, ne aveva anche ridisegnato la competenza per territorio, aumentandone il numero delle sezioni sino a 22, istituendone una per capoluogo di Regione, Valle d’Aosta esclusa, ma con la contemporanea presenza delle sezioni di Catania e Palermo, Brescia e Milano, e da ultimo la sezione distaccata di Bolzano, su cui G. Finocchiaro, Nasce il nuovo tribunale delle imprese di Bolzano, in Guida dir., 2014, 11, 101 ss.

[38] Che avrebbe dovuto preparare l’introduzione dei “Tribunali delle imprese” (rimasta solo sulla carta).

[39] Così il d.l. n. 145/2013 poi convertito con modifiche dalla legge n. 9/2014. Giova evidenziare che ai sensi dell’art. 4, comma 1-bis, d.lgs. 168/2003, le sezioni specializzate investite di questo tipo di controversie sono solo 11. Si veda in argomento M. Farina, Brevi note sul Tribunale delle società con sede all’estero, in Judicium.it

[40] Giova ricordare che il d.lgs. 19 gennaio 2017 n. 3, di attuazione della direttiva 2014/104/UE in materia di violazioni delle disposizioni del diritto della concorrenza degli Stati membri e dell’Unione europea, in virtù dell’art. 18, ha modificato la geografia giudiziaria delle sezioni specializzate. In argomento si veda P. Licci, La competenza delle Sezioni Specializzate (art. 18), in B. Sassani (a cura di) Il private enforcement antitrust dopo il d.lgs. 19 gennaio 2017 n. 3, Pisa, 2017, 77 ss.

[41]  Come chiarito da Cass. Sez. VI-I, 9 luglio 2021, n. 19618 che «il senso specifico della previsione è nel chiarire che la richiamata (nuova) individuazione del tribunale competente in rapporto alla sede delle sezioni specializzate rileva non solo per l’accertamento dello stato di insolvenza ma anche per i procedimenti di regolazione della crisi (o dell’insolvenza) come definiti e disciplinati dal previgente titolo III della l. fall., e per le controversie che ne possano derivare se attinenti alle imprese ammesse all’amministrazione straordinaria». Per una trattazione aggiornata dei profili processuali delle amministrazioni straordinarie, cfr. S. Caporusso, L’amministrazione straordinaria ordinaria e speciale, in G. Trisorio Liuzzi (a cura di), Diritto della crisi d’impresa, Bari, 2023, 731 ss.; A. Tedoldi, Amministrazioni straordinarie delle grandi imprese, in Crisi, insolvenza, sovraindebitamento, Pisa, 2022, 457 ss.

[42] La legge 12 aprile 2019, n. 31, «Disposizioni in materia di azione di classe», ha introdotto l’intero capo VIII bis del libro IV del c.p.c., dedicato ai procedimenti collettivi, dettando gli articoli che vanno dall’840-bis all’840-sexiesdecies c.p.c. e contestualmente abrogando gli articoli da 139 a 140-bis del codice di consumo (d.lgs. n. 206 del 2005) sull’azione di classe, ma non anche l’art. 37 del medesimo codice, sulle azioni inibitorie di clausole vessatorie nei contratti con i consumatori. In argomento, B. Sassani, Il difficile cammino dell’azione di classe risarcitoria, in Foro it., 2022, V, 239 ss.; A. Giussani, Class action e finanziamento delle liti, in Riv. trim. dir. proc. civ., 2022, 303 ss.; C. Consolo, L’azione di classe, trifasica, infine inserita nel c.p.c., in Riv. dir. proc., 2020, 714 ss.;

[43]  Ad esempio, per le controversie relative alla violazione della normativa interna sulla concorrenza ed europea in materia antitrust le sezioni specializzate effettivamente competenti si riducono a tre (Milano, Roma, Napoli) soltanto, su tutto il territorio nazionale.

[44] V. sul punto le considerazioni svolte nel paragrafo 1 di questo commento.

[45] G. Cassano, Sulla c.d. patrimonializzazione del dato personale e relativa cessione. Il caso della pubblicità personalizzata in internet, in Contr., 2024, 690 ss.; A. Morace Pinelli, La circolazione dei dati personali tra tutela della persona, contratto e mercato, in Nuova giur. civ. comm., 2022, 1322 ss.

[46] Il concetto di “residenza” in entrambi i casi si deve intendere come “residenza abituale”: in relazione alla disposizione relativa alla tutela dei dati personali cfr. il nostro commento all’art. 10 d.lgs. n. 150 del 2011, in Commentario al Codice della privacy, cit., 722; riguardo alla disciplina consumeristica cfr. Cass. Sez. VI-2, 14 aprile 2021, n. 10278.

[47] Cfr. Cass. Sez. VI-3, 10 febbraio 2016, n. 2687, in Nuova giur. civ. comm., 2016, 1163, con nota di A. Barba, Considerazioni a margine di un’ordinanza in tema di foro del consumatore, secondo cui, ove la controversia in materia di trattamento dei dati personali sorga nell’ambito di un rapporto di consumo, la competenza territoriale spetta al tribunale del luogo di residenza o domicilio del consumatore, ai sensi dell’art. 33, lett. u), d.lgs. n. 206 del 2005, che prevale sul foro previsto dagli artt. 152 d.lgs. 196/2003 e 10 d.lgs. 150/2011. Il cit. arresto della S.C. contiene una puntuale ricostruzione degli orientamenti sul punto: Cass., Sez. III, 14 ottobre 2009, n. 21814, in Foro it., 2010, I, 2443 ss., la quale si è basata sul principio della successione delle leggi nel tempo per stabilire la prevalenza del foro del consumatore rispetto al foro previsto dal codice per la protezione dei dati personali. Successivamente, si è optato per un argomento più solido, fondato sull’inderogabile esigenza di tutela che giustifica il foro del consumatore (Cass. Sez. VI-3, 12 marzo 2014, n. 5705; Cass., Sez. I, 9 ottobre 2015, n. 20304), a cui ha aderito anche la stessa Cass. Sez. VI-3, 10 febbraio 2016, n. 2687, cit.

[48] V. nota precedente e la ricostruzione contenuta in Cass. Sez. VI-3, 10 febbraio 2016, n. 2687, cit.

[49] Così Cass. Sez. VI-3, 10 febbraio 2016, n. 2687, cit.

[50] Cfr. F.P. Luiso, Diritto processuale civile, IV, Milano, 2025, 117.

[51] Cfr. R. Senigaglia, Consumatore, vulnerabilità e principio di trasparenza tra razionalità e bias cognitivi, in Nuove leggi civ. comm., 2024, 1522 ss., 1532 ss.

[52] Cfr., tra le più recenti, Cass. Sez. II, 13 luglio 2023, n. 20153; Cass. Sez. VI-1, 20 aprile 2022, n. 12541, in relazione all’interpretazione degli artt. 33, lett. u) e 66-bis d.lgs. n. 206 del 2005. V. sopra anche nota 47.

[53] Notoriamente, la nozione di domicilio rimanda al luogo ove la persona ha stabilito il centro principale dei propri affari e interessi (Cass. Sez. VI-1, 17 settembre 2020, n. 19431; Cass. Sez. VI-2, 16 settembre 2011, n. 21370) e, dunque, a un concetto analogo a quello di residenza abituale previsto per la disciplina del foro del consumatore.

[54] Secondo un consolidato orientamento giurisprudenziale (cfr. Cass. Sez. VI-1, 20 aprile 2022, n. 12541; Cass. Sez. VI-3, 19 giugno 2014, n. 13944; Cass. Sez. VI-3, 16 aprile 2012, n. 5974, in Corr. giur., 2012, 1345), il consumatore può rivolgersi a un giudice competente per territorio in base agli artt. 18, 19 e 20 c.p.c. o indicato nel contratto, diverso da quello stabilito dagli artt. 33, lett. u) e 66-bis d.lgs. n. 206 del 2005. Poiché il giudice non può dichiarare la propria incompetenza a danno del consumatore. Difatti, l’eccezione d’incompetenza ex art. 66-bis d.lgs. n. 206 del 2005 non può essere proposta dal professionista o rilevata d’ufficio, a meno che non sia a vantaggio dell’interesse del consumatore stesso.

[55] Alla causa risarcitoria per lesioni da comportamenti discriminatori attuati tramite l’AI ai danni del consumatore, cumulata con altre cause in materia di consumo (ad es., quelle relative alla nullità di protezione di un contratto discriminatorio), si applicherebbe, senza dubbio, la speciale disciplina in materia di onere della prova prevista dall’art. 28, comma 4, d.lgs. n. 150 del 2011, pur nell’ambito del giudizio condotto nel foro consumeristico. Questa disposizione stabilisce che, quando il ricorrente fornisce elementi di fatto, anche basati su dati statistici, che lasciano presumere l’esistenza di atti, patti o comportamenti discriminatori, spetta al convenuto l’onere di provare che la discriminazione non è avvenuta. All’evidenza, si tratta di una disciplina meno imperfetta rispetto a quella che sarebbe stata introdotta nell’eventualità – per il momento venuta meno – in cui fosse stata varata la proposta di direttiva in tema di responsabilità civile da intelligenza artificiale (v. nota 13), che stabiliva un onere della prova a carico del convenuto sul presupposto che la domanda giudiziale fosse plausibile. Per un approfondimento sul punto della peculiarità della domanda giudiziale e sull’onere della prova secondo tale proposta di direttiva F. Auletta, Accertamento del fatto e intelligenza artificiale nel processo civile, cit., 926 ss. La sentenza emessa nel giudizio risarcitorio dal giudice del foro consumeristico potrebbe contenere, inoltre, i provvedimenti di cui all’art. 28, comma 5, d.lgs. n. 150 del 2011.

La disciplina dell’art. 28, commi 4 e 5, d.lgs. n. 150 del 2011 potrà fornire un modello per l’attuazione della delega legislativa riconosciuta al Governo ai sensi dell’art. 24, comma 5, lett. d), l. n. 132 del 2025 in relazione alla più ampia materia della responsabilità civile e alla previsione di strumenti di tutela del danneggiato, anche attraverso una specifica regolamentazione dei criteri di ripartizione dell’onere della prova, tenuto conto della classificazione dei sistemi di intelligenza artificiale e dei relativi obblighi individuati dall’AI Act. In caso di difformità della nuova disciplina da parte del legislatore delegato rispetto alle norme dell’art. 28 d.lgs. n. 150 del 2011, le domande relative a comportamenti discriminatori rimarrebbero soggette a queste ultime disposizioni.

Infine, anche in questo caso, per stabilire il rito applicabile, si deve fare riferimento all’art. 40, commi 3-6, c.p.c., ove è contenuta la disciplina della connessione tra cause appartenenti a riti diversi.