Intelligenza artificiale, tra essere e res. Alla ricerca della responsabilità extracontrattuale o di una efficace garanzia patrimoniale nell’ottenere un risarcimento?

Di Cristiano Iurilli -

SOMMARIO: 1. Economia, diritto e responsabilità. 2. Essere o res quale soggetto responsabile di un danno risarcibile? 3. Dalla responsabilità, all’imputabilità ed alla ricerca di una garanzia di solvibilità del soggetto responsabile? 4. La Proposta di Direttiva sulla A.I. Liability. Profili di sintesi. 5. La difficile riconduzione della responsabilità da I.A. alla colpa rispetto ai principi sottesi alla responsabilità oggettiva o alla responsabilità del produttore per prodotto difettoso. 6. Conclusioni.

 

1.Economia, diritto e responsabilità.

La rilevanza gius-economica del fenomeno “intelligenza artificiale” ha recentemente innescato un ardore interpretativo volto essenzialmente a ricondurre un prodotto della società ad un prodotto del diritto e ciò (specialmente a seguito della pubblicazione dell’A.I. Act) in funzione della necessaria ricerca di una adeguata regolamentazione normativa tendenzialmente a base comunitaria, in un’ottica di agevolazione “economica” del fenomeno ma anche di determinazione chiara di regole “trasversali” e comuni a tutto il territorio UE, anche e specialmente in tema di responsabilità derivante dall’utilizzo dell’I.A.

Potremmo affermare, riprendendo un concetto recentemente richiamato da illustre dottrina, che “…l’argomento della responsabilità civile per i danni derivanti dalla utilizzazione dei dispositivi di intelligenza artificiale costituisca, da anni, un trend topics, della letteratura civilistica [1].

Tuttavia tale ardore scaturisce anche da un parallelo iper-attivismo legislativo, non solo comunitario bensì anche a livello di singoli Stati membri, ove talvolta si denota una chiara volontà di realizzare sovrastrutture normative le quali, se da un lato hanno o dovrebbero avere lo scopo di eliminare eventuali ostacoli all’uso dell’intelligenza artificiale[2], dimostrano una loro scarsa attenzione sia alla tradizione giuridica dei singoli Stati membri sia alla stessa normativa comunitaria già vigente, mediante un approccio che intenderebbe “parcellizzare” la norma al fenomeno, ma senza dimostrare alcuno sforzo interpretativo e, sovente, presentando dunque delle soluzioni normative parziali ovvero riconducibili a finalità differenti rispetto a quelle riferibili all’esteriorità, rectius, alla presentazione degli scopi della norma medesima: chiaro è il nostro riferimento alla proposta di direttiva sulla responsabilità civile extracontrattuale sull’intelligenza artificiale, recentemente ed opportunamente ritirata, ma dall’analisi della quale possono emergere utili spunti di riflessione.

È altrettanto chiaro come rispetto ad un fenomeno così rilevante non solo sotto il profilo sociale bensì economico, i vari legislatori si trovino a tracciare un percorso normativo “stretto” e politicamente mirato a non limitare eccessivamente l’economia di mercato connessa allo sviluppo del fenomeno: da questo punto di vista la determinazione di forme di responsabilità, specialmente extracontrattuale, in funzione di garantire adeguate forme risarcitorie a favore dei fruitori di sistemi di I.A. compromessi nei loro diritti, può divenire un “peso” nella scelta del migliore sistema normativo adottabile.

2.Essere o res quale soggetto responsabile di un danno risarcibile?

Un quesito deve essere oggetto di analisi per la ricerca di una possibile risposta logica, socio-economica ma specialmente giuridica sul tema della responsabilità extracontrattuale da I.A.: l’intelligenza artificiale è il mostro di Frankenstein ideato da Mary Shelley[3]?

Ovvero, l’intelligenza artificiale[4] è un essere o una res?

E se “essere”, è riconducibile ad una persona fisica, rectius, ad una personificazione digitale di una persona fisica ovvero ad una pseudo-clonazione di capacità cognitive, oppure è riconducibile ad un animale, ovvero ancora ad una persona giuridica e, dunque, ad un soggetto di diritto?[5]

E se “res” è un bene, un bene di consumo riconducibile alla categoria delle relazioni business to consumers o è un servizio, sia esso o meno contenuto in un supporto fisico, la cui rilevanza prescinda dalla caratterizzazione soggettiva dell’utente-fruitore?[6]

Le risposte a queste domande[7] sono prodromiche all’analisi di un argomento che sta assumendo grande interesse ed attualità, ovvero la ricerca di una comune, rectius “comunitaria” forma di responsabilità extracontrattuale riferibile all’intelligenza artificiale così come definita nel recente A.I. Act nonché, alla luce dei più recenti interventi normativi nonché proposte (come rilevato, ritirate) di direttive comunitarie sulla A.I. Liability, rispondere al quesito, posto dalla dottrina specialistica in tempi non sospetti, e cioè “… se la responsabilità da entità intelligenti sia davvero estranea alla genesi dei nostri ordinamenti [8].

La collocazione giuridico-soggettiva dell’I.A. non è dunque operazione di scuola fine a se stessa bensì funzionale alla ricerca di forme (il plurale è d’obbligo per quanto si evidenzierà nel prosieguo della trattazione, anche in relazione alla circostanza secondo cui, oltre alla tematica relativa alla responsabilità extracontrattuale, in tema di I.A. si dovrebbe anche affrontare il problema di ipotesi di responsabilità da inadempimento contrattuale od ancora da responsabilità per non conformità contrattuale del “prodotto” I.A., in relazione a danni patrimoniali e non, conseguenza della fruizione del bene) di responsabilità “coerenti” con detta collocazione all’interno dell’ordinamento giuridico in quanto, come osservato in dottrina, è irrisolta la questione dell’individuazione di un singolo responsabile per l’attività dell’intelligenza artificiale, dal momento che il risultato finale costituisce il frutto del lavoro congiunto, coordinato e complementare di più elementi che operano in batteria all’interno di un medesimo sistema[9].

Peraltro l’analisi giuridica dell’essenza del prodotto “intelligenza artificiale” non può prescindere da una sintetica analisi tecnica sulla tecnologia medesima e sulle possibili e variegate forme di utilizzo della medesima che, come noto, può comprendere uno spettro di tecnologie computazionali progettate per simulare le funzioni cognitive umane[10], tra cui apprendimento, ragionamento e risoluzione dei problemi. Si pensi, a mero titolo esemplificativo, al campo sanitario ed alla diagnostica per immagini, dove gli algoritmi di I.A. migliorano l’accuratezza nell’interpretazione di immagini complesse, riducendo così significativamente il margine di errore umano ovvero all’utilizzo di sistemi informativi geografici combinato con modelli di I.A. facilita una comprensione più approfondita dell’epidemiologia del cancro; si pensi alla sua applicazione nel marketing aziendale ed allo sfruttamento delle tecnologie di I.A. per analizzare enormi quantità di dati, consentendo di identificare tendenze e prendere decisioni strategiche informate in modo rapido; si pensi altresì a controlli pandemici, effettuati a livello statale, comunitario o internazionale, mediante l’utilizzo di I.A.

Ad ogni modo, il problema, in nuce, è la corretta identificazione giuridica dell’I.A. funzionale alla ricerca di adeguate forme di responsabilità extracontrattuale.

Sulla relazione tra I.A. e persona fisica non riteniamo possibile giungere a ritenere gli agenti artificiali, pur se sufficientemente avanzati e con capacità di “possibile” auto-apprendimento, equiparabili all’essere umano in quanto trattasi sempre di un surrogato artificiale degli individui: tale conclusione deve essere posta a valle di un ragionamento non solo biologico, non solo giuridico bensì anche morale e, come già richiamato in altra sede, che trova una base interpretativa anche nel diritto naturale[11], con la conseguenza che sarebbe difficilmente immaginabile paventare una loro tutela al pari di un essere vivente intelligente o, in senso più esteso, al pari di un soggetto giuridico meritevole di tutela[12].

E probabilmente è proprio il significato ontologico di intelligenza, anche ove si volesse parlare di “programmi informatici intelligenti”[13] che deve portare ad escludere una possibile equiparazione con l’essere umano, ove il concetto citato è caratterizzato da plurimi elementi quali gli aspetti cognitivi, emotivi e sociali[14], difficilmente riconducibili all’I.A.

Il tentativo dunque di riconoscere agli agenti artificiali, pur se sufficientemente avanzati (ossia intelligenti, capaci di apprendere e di autodeterminarsi)[15] una qualsivoglia personalità (anche giuridica, ma in relazione alla quale non si comprenderebbe il motivo, giuridico, per equiparare un agente artificiale ad una persona giuridica, se non mediante una ulteriore e diremo inutile fictio iuris), sarebbe strumentale sia alla esigenza di tutelare quella entità ove assurta alla dignità di “essere” sia per essere considerata come soggetto cui imputare dirette responsabilità[16]: ma allora ci troveremmo dinanzi ad una mera finzione giuridica per gestire più efficacemente i rischi e semplificare l’allocazione della responsabilità, facilitando la soddisfazione dell’interesse risarcitorio del danneggiato con la chiara individuazione del soggetto responsabile.

Non a caso in dottrina[17] si evidenzia sovente come l’individuazione del danneggiante assume particolare importanza in quest’ambito, giacché è inevitabile che la responsabilità venga condivisa tra più soggetti (che intervengano nel ciclo di vita di tali sistemi, creandoli, eseguendone la manutenzione o controllandone i rischi associati) quali: l’ideatore-autore-progettista dell’algoritmo, veicolante l’apprendimento; l’“addestratore”, figura identificabile in colui che “addestri” un’entità artificiale intelligente o comunque la esponga ad esperienze che siano congrue ad indirizzarlo ovvero ad istruirlo; colui che lo utilizzi o lo “produca” o lo incorpori in un prodotto oppure in un componente dello stesso; il programmatore del software; il proprietario del database; il fornitore di rete ed, in alcuni casi, anche l’utilizzatore (user) o il “titolare” (a vario titolo) ovvero il “custode” del dispositivo digitale”.

Allo stesso modo, si ritiene come anche il possibile rinvio, richiamato in dottrina[18], all’art. 2052 c.c. vada respinto, sia in quanto a livello naturalistico ed ontologico l’I.A. non può essere equiparabile all’“animale” sia in quanto seppure la norma sia attuabile in astratto, dal momento che il comportamento degli animali è imprevedibile come potrebbe essere quello dei dispositivi intelligenti, da un altro punto di vista, mentre nel primo caso il proprietario effettua un controllo sulla capacità di reazione dell’animale, per mezzo dell’addomesticamento, differentemente, il titolare/utilizzatore/custode di tali dispositivi, oltre a non conoscerne, di base, i meccanismi di funzionamento e di reazione al mondo esterno, avrebbe in taluni casi una limitata possibilità di incidere sulle loro condotte[19], specialmente allorquando l’algoritmo possa orientarsi verso decisioni non conformi o comunque differenti da quelle in origine impostate dallo sviluppatore.

Ed allora la residua ma riteniamo unica interpretazione ontologica dell’I.A., è quella che la deve ricondurre ad un bene, ad un prodotto o ad un servizio, certamente di produzione umana, chiaramente immesso sul commercio da un’entità giuridica ed economica, e dal cui utilizzo ed applicazione possono sorgere delle conseguenze afferenti ad una forma di responsabilità extracontrattuale e che ancor più chiaramente riporta l’interprete ad ipotesi di responsabilità già oggetto di normazione ed applicazione nel nostro ordinamento e ricondotte a forme di responsabilità oggettiva, o più in particolare a forme di responsabilità per esercizio di attività pericolose ovvero ancora, da ultimo, a responsabilità per danno da prodotto difettoso, quest’ultima in taluni casi interpretata proprio in coordinamento con l’art. 2050 c.c.[20]

3.Dalla responsabilità, all’imputabilità ed alla ricerca di una garanzia di solvibilità del soggetto responsabile?

Gli sforzi interpretativi per ricondurre l’I.A. ad una determinata categoria giuridica riteniamo siano stati (ed attualmente siano) funzionali alla ricerca di un soggetto responsabile a cui imputare le conseguenze dannose del “fatto illecito” anche se, ragionando più approfonditamente anche sul testo della (ritirata) proposta di direttiva sull’A.I. Liability, probabilmente quello che il legislatore comunitario voleva raggiungere era uno scopo differente e sottostante a quello enunciato nel testo ed oggetto di numerosi commenti in dottrina: introduzione di una nuova forma comunitaria di responsabilità contrattuale o mera introduzione di regole processuali volte a garantire l’identificazione di un responsabile e, de relato, garantire un risarcimento del danno effettivo?

Riteniamo infatti come il problema non sia quello di ricercare una adeguata o nuova forma o nuova regolamentazione sulla responsabilità extracontrattuale[21] a base comunitaria, sussidiaria o sostitutiva degli istituti classici caratterizzanti gli ordinamenti dei rispettivi Stati membri bensì sia quello di garantire una chiara metodica di imputabilità della responsabilità nonché la solvibilità di un soggetto responsabile nei confronti di un possibile danneggiato[22]: quest’ultimo aspetto forse non preso in adeguata considerazione.

Il problema, che ancora una volta ricordiamo non è eminentemente giuridico bensì anche e specialmente economico, si trasferisce dalla ricerca di nuove forme di responsabilità extracontrattuale a quello della garanzia patrimoniale per garantire efficacia al risarcimento di un danno: l’imputazione della responsabilità diviene un problema non tanto di riconduzione della I.A. ad una persona, fisica o meno, bensì diviene quello di ricercare un soggetto responsabile e ripartire correttamente la responsabilità tra coloro che cooperano alla creazione e al funzionamento del dispositivo I.A.[23]: autori dell’algoritmo, fornitori, distributori, importatori e distributori e produttori di prodotti.

Ma di certo non si può onerare il danneggiato che intenda richiedere un risarcimento del danno da responsabilità extracontrattuale, di ricercare, nella c.d. catena di valore, chi sia il danneggiante a cui imputare, magari a titolo di colpa, il danno cagionato.

Ma un’ulteriore riflessione non può peraltro prescindere dall’analisi del documento della Commissione Europea[24], in tema di “Approvazione del contenuto del progetto di comunicazione della Commissione sulle pratiche vietate di intelligenza artificiale” ove, ai sensi del punto 2.4. (Ambito personale: attori responsabili), si afferma esplicitamente che “le presenti linee guida si concentreranno solo sui fornitori e sui distributori”: queste linee guida, pur non vincolanti, dovrebbero assumere un ruolo determinante nel fornire chiarezza interpretativa sull’articolo 5 dell’A.I. Act, che elenca le pratiche vietate in quanto ritenute incompatibili con i principi fondamentali dell’Unione, tra cui il rispetto della dignità umana, la tutela dei diritti fondamentali e la protezione della sicurezza pubblica.

Ma a ragion di logica, ove se ne volesse apprezzare il contenuto in relazione ai soggetti responsabili, ci troveremmo dinanzi ad una limitazione di forme di responsabilità extracontrattuale unicamente in relazione ai soggetti testé citati che, chiaramente, non coprono tutta la possibile filiera produttiva e distributiva di una I.A. che poi si rilevi essere oggetto di pratica vietata, allorquando si ponga il problema di collegare a detta I.A. una forma di responsabilità extracontrattuale.

4.La Proposta di Direttiva sulla A.I. Liability. Profili di sintesi.

La necessità di una individuazione di una “uniforme forma” di responsabilità extracontrattuale in tema di I.A. nasce già nel  2019 con la pubblicazione di una relazione finale intitolata “Liability for Artificial Intelligence and other emerging digital technologies[25], ove si procede ad un esame critico del sistema della responsabilità extracontrattuale in vigore nel territorio europeo nella sua applicazione alle nuove tecnologie robotiche, evidenziandosi come l’adeguatezza e la completezza dei regimi di responsabilità di fronte alle sfide tecnologiche sono di fondamentale importanza per la società: “Se il sistema è inadeguato o imperfetto o presenta carenze nel gestire i danni causati dalle tecnologie digitali emergenti, le vittime potrebbero finire per non essere risarcite in modo totale o parziale, anche se un’analisi equa complessiva potrebbe giustificare l’indennizzo. L’impatto sociale di una potenziale inadeguatezza nei regimi legali esistenti, nell’affrontare i nuovi rischi creati dalle tecnologie digitali emergenti, potrebbe compromettere i benefici attesi[26].

Sulla base di tali argomentazioni, si rilevava come il diritto degli Stati membri dell’UE in materia di illecito civile sia in gran parte non armonizzato, ad eccezione del diritto sulla responsabilità per danno da prodotto evidenziandosi, forse superficialmente, come a livello nazionale, si può generalmente osservare che le leggi degli Stati membri non contengono (ancora) norme sulla responsabilità specificamente applicabili ai danni derivanti dall’uso di tecnologie digitali emergenti come l’intelligenza artificiale.

Secondo lo studio in analisi, “In generale, queste leggi nazionali sugli illeciti civili includono una norma (o norme) che introducono la responsabilità per colpa con un ambito di applicazione relativamente ampio, accompagnata da diverse norme più specifiche che modificano le premesse della responsabilità per colpa (in particolare la distribuzione dell’onere della prova della colpa) o stabiliscono una responsabilità indipendente dalla colpa (solitamente chiamata responsabilità oggettiva o responsabilità basata sul rischio), che assume anche molte forme che variano in relazione all’ambito della norma, alle condizioni di responsabilità e all’onere della prova”.

Se poi si procede ad analizzare la nota esplicativa accompagnatoria della proposta di direttiva sull’adattamento delle norme sulla responsabilità civile extracontrattuale all’intelligenza artificiale[27] si evidenziava come “la responsabilità si è classificata tra i primi tre ostacoli all’uso dell’I.A. da parte delle aziende europee. È stata citata come l’ostacolo esterno più rilevante (43%) per le aziende che stanno pianificando di adottare l’I.A., ma non l’hanno ancora fatto”, mediante un approccio non solo giuridico bensì, come già evidenziato, economico.

Dunque, secondo il ragionamento posto alla base del tentativo comunitario di introdurre una forma “trasversale e comune” di responsabilità da I.A., le attuali norme nazionali sulla responsabilità, in particolare quelle basate sulla colpa, non sarebbero adatte a gestire le richieste di risarcimento danni per danni causati da prodotti e servizi abilitati dall’I.A., poiché le sue caratteristiche specifiche, tra cui complessità, autonomia e opacità, potrebbero rendere difficile o proibitivamente costoso per le vittime identificare la persona responsabile e dimostrare i requisiti per una richiesta di risarcimento danni di successo.

Questa declarata difficoltà nel ricercare forme comuni di responsabilità avrebbe altresì come conseguenza la creazione di uno stato di incertezza giuridica (ed economica) per le aziende partecipanti all’ “intera filiera I.A.” per la difficoltà di prevedere l’applicazione delle norme sulla responsabilità esistenti e quindi a valutare e assicurare la propria esposizione alla responsabilità.

Tuttavia, ove si analizzi, seppur brevemente, il contenuto di quella che doveva essere una rivoluzione in tema di responsabilità extracontrattuale, si denota come il contenuto fosse “alieno” dagli apparenti scopi prefissati, poiché non tanto di introduzione di una nuova forma di responsabilità extracontrattuale si discuteva, bensì di onere della prova[28] e di necessità di assicurare un risarcimento effettivo, peraltro facendo un costante riferimento, quasi esclusivo, al concetto di “colpa”, mirando a fornire una base efficace per richiedere un risarcimento in relazione alla colpa consistente nel mancato rispetto di un obbligo di diligenza ai sensi del diritto dell’Unione o nazionale.

Ai concetti di onere della prova e colpa, il testo collegava la necessità di garantire alle vittime di danni causati dall’I.A. di ottenere una protezione equivalente a quella delle vittime di danni causati dai “prodotti” in generale, con chiaro riferimento a possibili adattamenti della normativa sulla responsabilità del produttore per prodotti difettosi che, notoriamente, copre la responsabilità senza colpa del produttore per prodotti difettosi, che comporta il risarcimento di determinati tipi di danni, subiti principalmente da individui.

 

5.La difficile riconduzione della responsabilità da I.A. alla colpa rispetto ai principi sottesi alla responsabilità oggettiva o alla responsabilità del produttore per prodotto difettoso.

Se la tradizione civilistica in ambito comunitario trova sovente il fondamento della responsabilità extracontrattuale sul principio della colpevolezza (ove dunque la “colpa” assurge a criterio di imputazione della responsabilità), è altrettanto chiaro, anche sulla base delle premesse afferenti la corretta individuazione giuridica dell’I.A., come tale criterio, a base eminentemente personalistica e soggettiva, non riesca ad attagliarsi alle nuove tecnologie: colpa e dovere di diligenza sarebbero dunque concetti riconducibili, direttamente o indirettamente, ad un comportamento umano ma non alle dinamiche sottese all’utilizzo di I.A. ove il discrimen tra facoltà di autoapprendimento, potere auto decisionale della “macchina” e controllo umano, diviene assolutamente labile ed indecifrato nell’attuale contesto tecnologico ma anche indecifrabile pro futuro.

“Chi è”, “cosa è” il danneggiante ed “a chi” attribuire (anche se in ultima istanza) la responsabilità per la causazione del danno, divengono problemi insormontabili ove si continuasse a ragionare utilizzando le classiche dinamiche riconducibili alla colpevolezza. Vi è dunque, a parere di chi scrive, la necessità di ricondurre tale tipologia di responsabilità (e ciò a causa della peculiarità dell’entità-prodotto causativa dell’evento dannoso) a forme di no-fault liability in una visione normativa non focalizzata unicamente sulla ricerca del danneggiante inteso quale diretto responsabile del fatto, non essendo sempre possibile, nel settore in analisi, identificare in un comportamento umano la fonte di un evento dannoso, bensì sulle esigenze di tutela del danneggiato.

L’imputabilità di un danno a titolo soggettivo non sembra dunque riconducibile al “prodotto” I.A. dovendo la funzione riparatoria del danno porre in secondo piano il principio della colpevolezza[29], così superando il c.d. primato della colpa.

Quindi il ricorso a forme di responsabilità oggettiva, oltre a porre la vittima in una posizione più semplice nei confronti dell’assolvimento degli oneri probatori su di essa gravanti in giudizio, mirerebbe a realizzare una più efficiente allocazione delle conseguenze negative derivanti da lesioni di interessi giuridicamente rilevanti.

Per il nostro ordinamento si pensi, come più volte rilevato in dottrina[30], alla possibile applicazione del disposto di cui all’art.2050 c.c. in tema di responsabilità per esercizio di attività pericolose, ove si giungesse alla conclusione che l’attività di produrre, intermediare, distribuire e mettere a disposizione prodotti “I.A.” sia riconducibile al concetto di “attività pericolosa”, in relazione alla quale la ravvisabilità di tale responsabilità connessa alla mancata adozione di misure idonee ad evitare il danno (che dunque imporrebbe a chi esercita attività pericolosa di adottare adeguate misure preventive) sarebbe altresì conforme ai contenuti della regolamentazione comunitaria in tema di I.A. ed alle dinamiche “di controllo e prevenzione” ad essa sottese e poste a carico dei produttori di I.A[31].

È altrettanto probabile tuttavia che tale interpretazione potrebbe astrattamente scontrarsi con i contenuti dell’I.A. Act, ed in particolare con la differenziazione delle classi di rischio poiché, artatamente, si potrebbe giungere ad affermare, sempre in via di interpretazione, una possibile e limitata applicazione dell’art. 2050 c.c. unicamente ai sistemi di I.A. ad alto rischio così come indicati dall’art.6 dell’A.I. Act.[32], mediante un’azione interpretativa che affianchi ovvero equipari i concetti di attività pericolosa e sistema I.A. “ad alto rischio”, con esclusione dunque della risarcibilità dei danni derivanti da sistemi non inclusi nel citato articolo 6.

Ed allora più utile sembra il richiamo alla Product Liability Directive, peraltro oggetto di citazione espressa anche nei considerando dell’A.I. Act nonché disciplina essenzialmente connessa alla categoria della responsabilità oggettiva, la cui applicazione (mediante eventuali ed opportune modifiche normative) potrebbe coniugare l’esigenza di ricercare una unitaria forme di responsabilità per danno derivante da I.A. e l’utilizzo di una modalità risarcitoria “facilitativa” sia per l’onere della prova sia per la ricerca dell’ “ultimo” soggetto eventualmente responsabile, nella catena produttiva, residuando poi il problema dell’assicurare al danneggiato un risarcimento c.d.”solvibile”.

Dunque una autonoma disciplina comunitaria, ultronea rispetto alla disciplina riconducibile alla responsabilità del produttore, sarebbe solo il frutto di una azione di sovra normazione, senza plausibile utilità pratica.

Ricordiamo infatti come già nel considerando (2) della Direttiva (UE) 2024/2853 del Parlamento Europeo e del Consiglio del 23 ottobre 2024 sulla responsabilità per danno da prodotti difettosi (che abroga la direttiva 85/374/CEE del Consiglio) si afferma che “La responsabilità oggettiva degli operatori economici rimane l’unica soluzione adeguata per affrontare il problema di una giusta ripartizione del rischio inerente alla produzione tecnologica moderna” ed al considerando (13) che “I prodotti nell’era digitale possono essere tangibili o intangibili. Sul mercato è sempre più diffuso il software, come i sistemi operativi, il firmware, i programmi per computer, le applicazioni o i sistemi di I.A., e la sua importanza a fini di sicurezza dei prodotti è sempre maggiore”.

La normativa in esame si ispira, come già in passato, ad un principio di favor per il danneggiato: il legislatore aggrava la posizione del produttore ponendo in capo a quest’ultimo il rischio del verificarsi di un danno dovuto alla difettosità del prodotto e riconosce al consumatore danneggiato il diritto al risarcimento del danno ogni qual volta riesca a fornire la prova del danno, del difetto del prodotto e del nesso di causalità tra danno e difetto.

La direttiva si pone pertanto l’obiettivo di alleggerire la posizione processuale del danneggiato, non richiedendo che egli fornisca la prova dell’elemento soggettivo dalla colpa del produttore, la responsabilità del quale verrà accertata anche qualora il difetto non dovesse dipendere dalla mancanza di diligenza nella progettazione o nella fabbricazione del prodotto o, ancora, nelle informazioni che devono essere fornite al consumatore.

Circa l’applicabilità della citata disciplina, in ambito oggettivo, non pare revocabile in dubbio come l’I.A. sia riconducibile alla definizione contenuta nell’art.4, secondo cui: a) per prodotto deve intendersi ogni bene mobile, anche se integrato in un altro bene mobile o in un bene immobile o interconnesso con questi; include l’elettricità, i file per la fabbricazione digitale, le materie prime e il software; b) per servizio si intende un servizio digitale integrato in un prodotto o interconnesso con questo in modo tale che la sua assenza impedisce al prodotto di svolgere una o più delle sue funzioni; c) per componente, intendendosi qualsiasi articolo, tangibile o intangibile, materia prima o servizio correlato integrati in un prodotto o interconnessi con questo.

Così facendo non solo si supera il problema identificativo dell’I.A. come prodotto o servizio, essendo entrambi riconducibili alla normativa in esame, bensì si può ragionevolmente ricondurre il concetto di “algoritmo” alla definizione di componente.

Se l’aspetto definitorio non fa sorgere particolari problemi applicativi della direttiva citata all’I.A. più problematici sono altri aspetti.

Ci riferiamo innanzitutto all’art. 7 relativo alla difettosità del prodotto, ove si afferma che nel valutare il carattere difettoso di un prodotto sono prese in considerazione tutte le circostanze, tra cui “….  e) il momento in cui il prodotto è stato immesso sul mercato o messo in servizio oppure, qualora il fabbricante mantenga il controllo sul prodotto dopo tale momento, il momento in cui il prodotto è uscito dal controllo del fabbricante”, in relazione al dettato di cui all’art.11, secondo cui un operatore economico non è responsabile del danno causato da un prodotto difettoso se prova   “… c) che è probabile che il difetto che ha causato il danno non esistesse al momento in cui il prodotto è stato immesso sul mercato, messo in servizio o, nel caso di un distributore, messo a disposizione sul mercato, o che tale difetto è sopravvenuto dopo tale momento; e) che lo stato oggettivo delle conoscenze scientifiche e tecniche al momento dell’immissione del prodotto sul mercato o della sua messa in servizio oppure durante il periodo in cui il prodotto è stato sotto il controllo del fabbricante non permetteva di scoprire l’esistenza del difetto”.

Anche nella nuova formulazione dunque, il tempo in cui il prodotto è stato immesso sul mercato diverrebbe fondamentale ai fini di una esenzione di responsabilità, essendo qualsiasi difetto sopravvenuto successivamente a quel momento non imputabile al produttore.

Pur tuttavia detta previsione mal si accompagna alle caratteristiche essenziali dell’I.A., ove il c.d. “rischio da sviluppo”, ossia il caso in cui il difetto esistesse già al momento della messa in circolazione del bene, pur tuttavia non potendo essere identificato non solo dallo stesso produttore, ma da qualunque soggetto sulla base delle conoscenze tecniche e scientifiche esistenti in quel dato momento storico deve essere mitigato, appunto pro danneggiato, in relazione alla continua evoluzione del sistema I.A. nel corso del tempo: si tratterebbe dunque di attribuire rilevanze al concetto di “evoluzione esponenziale”, in funzione della inapplicabilità alle ipotesi di responsabilità da prodotto I.A., alla lett. e) dell’articolo 11 già citata.

Qualora anche si addivenisse alla determinazione, ex ante, di adeguate norme tecniche al momento, ed anzi prima della messa in commercio del prodotto, queste ultime sarebbero destinate a divenire presto obsolete[33].

A fortiori, la stessa prospettiva viene in rilievo con riferimento ai prodotti dotati di capacità di auto-apprendimento, dovendosi in tal caso dilatare il perimetro della nozione di “difetto” ampliandolo a vizi non genetici del dispositivo[34].

Il problema della limitazione della responsabilità derivante da rischi di sviluppo è tuttavia preso in considerazione dalla medesima direttiva all’articolo 18, rubricato “Deroga all’esonero da responsabilità basato sui rischi di sviluppo”, secondo cui “1. In deroga all’articolo 11, paragrafo 1, lettera e), gli Stati membri possono mantenere nei loro sistemi giuridici le misure esistenti in base alle quali gli operatori economici sono responsabili anche se dimostrano che lo stato oggettivo delle conoscenze scientifiche e tecniche al momento dell’immissione del prodotto sul mercato o della sua messa in servizio oppure durante il periodo in cui il prodotto è stato sotto il controllo del fabbricante non permetteva di scoprire l’esistenza del difetto…. 2. In deroga all’articolo 11, paragrafo 1, lettera e), gli Stati membri possono introdurre o modificare nei loro sistemi giuridici le misure in base alle quali gli operatori economici sono responsabili anche se dimostrano che lo stato oggettivo delle conoscenze scientifiche e tecniche al momento dell’immissione del prodotto sul mercato o della sua messa in servizio oppure durante il periodo in cui il prodotto è stato sotto il controllo del fabbricante non permetteva di scoprire l’esistenza del difetto”.

Se da un lato la stessa Unione Europa dimostra una certa sensibilità al problema, riteniamo incorra in un errore di sistema: se effettivamente si intende ricercare un sistema comune di responsabilità basato su regole uniformi, sarà necessario non delegare ai singoli Stati membri l’attuazione della richiamata deroga bensì prevederne un’omogenea applicazione.

L’ultima norma a cui assegnare rilevanza applicativa alla responsabilità da I.A. risulta essere l’articolo 8, ove si procede ad un elenco degli operatori economici responsabili del danno, individuati nel fabbricante di un prodotto difettoso; nel fabbricante di un componente difettoso, se tale componente è stato integrato in un prodotto o interconnesso con un prodotto sotto il controllo del fabbricante e lo ha reso difettoso; nel caso di un fabbricante di un prodotto o di un componente stabilito al di fuori dell’Unione, e fatta salva la responsabilità di tale fabbricante: nell’importatore del prodotto o componente difettoso; nel rappresentante autorizzato del fabbricante; e se non vi è un importatore stabilito nell’Unione o un rappresentante autorizzato, il fornitore di servizi di logistica; in qualunque persona fisica o giuridica che modifichi in maniera sostanziale un prodotto al di fuori del controllo del fabbricante e lo metta successivamente a disposizione sul mercato o lo metta in servizio; in ciascun distributore del prodotto difettoso se: a) il danneggiato chiede a tale distributore di identificare un operatore economico tra quelli di cui al paragrafo 1 e stabilito nell’Unione, o il proprio distributore che gli ha fornito tale prodotto e b) tale distributore omette di identificare un operatore economico o il proprio distributore di cui alla lettera a) entro un mese dal ricevimento della richiesta di cui alla lettera a)[35].

L’analisi del dettato normativo richiamato porta certamente a due considerazioni: in primis la direttiva risulterebbe assegnare responsabilità diretta a soggetti che intervengano nella fase antecedente alla immissione sul mercato, assegnando agli altri che intervengano successivamente unicamente responsabilità eventuali ed eccezionali; comunque l’elencazione di cui sopra ben si attaglia alle dinamiche della catena di valore che caratterizzerebbe i sistemi di I.A.

6.Conclusioni.

L’analisi del contesto normativo nazionale in tema di forme di responsabilità oggettiva, in connessione con la Product Liability Directive, dovrebbe portare l’interprete ed il legislatore comunitario ad affermare l’esistenza di adeguate e valide forme di tutela del danneggiato da sistemi di I.A., non risultando necessario procedere a quella che più volte abbiamo definito come azione di sovra normazione comunitaria.

Ove si volesse ricercare un ambito di intervento legislativo questo non riteniamo debba essere individuato nell’introduzione di nuove forme di responsabilità extracontrattuali a livello comunitario bensì nel garantire maggiormente gli interessi del soggetto leso sotto due ambiti: l’aspetto processuale in relazione alla individuazione del legittimato passivo di una azione risarcitoria, e la ricerca di una adeguata solvibilità del responsabile per garantire un risarcimento effettivo.

Sotto il primo aspetto, se ad esempio l’articolo 8 della Product Liability Directive elenca una serie di possibili responsabili del danno, prevedendo all’articolo 12 anche forme di responsabilità solidale ove vengano individuati una pluralità di operatori economici responsabili, ci si deve chiedere se l’attuale sistema di identificazione del legittimato passivo, a fini processuali garantisca facilità e celerità della richiesta di risarcimento del danno oppure ancora una volta ci si trova dinanzi ad un onere, in capo al danneggiato, di porre in essere delle attività di ricerca, anche di informazioni, prodromiche all’azione giudiziaria.

Sul punto si ritiene di dover applicare il concetto “dell’esteriorità apparente” od ancora “all’apparenza dell’essere produttore” in relazione alla “presentazione” del sistema I.A. nei confronti di chi ne usufruisce: l’I.A. pur se identificabile come prodotto o servizio, deve essere considerata come una fotografia esteriore di un processo articolato, fatto di analisi, sviluppi, algoritmi e marchi esteriori, ove l’apparente fotografia esterna di tali processi è da considerare come ultimo anello di una catena di valore.

Da ciò emergerebbe la necessità di riconoscere al danneggiato la facoltà di agire in giudizio nei confronti di chi presenta all’esterno il prodotto I.A., salva poi l’analisi di possibili responsabilità solidali o azioni di regresso all’interno della catena di produzione.

Il secondo aspetto risulta ancor più delicato.

Il tema della solvibilità del danneggiante riveste specifica importanza anche nel contesto comunitario ove sovente, in molti ambiti, si parla di garantire un risarcimento del danno effettivo.

La medesima Product Liability Directive all’articolo 8 afferma che “Qualora le vittime non ottengano un risarcimento perché nessuna delle persone di cui ai paragrafi da 1 a 4 può essere ritenuta responsabile a norma della presente direttiva, o perché le persone responsabili sono insolventi o hanno cessato di esistere, gli Stati membri possono ricorrere ai sistemi di indennizzo settoriali nazionali esistenti o istituirne di nuovi nell’ambito del diritto nazionale, preferibilmente non finanziati da entrate pubbliche, per risarcire adeguatamente i danneggiati a causa di prodotti difettosi”: dunque il tema è all’ordine del giorno.

Se non è revocabile in dubbio che i sistemi di I.A. contribuiranno all’evoluzione umana è altrettanto indubbia la loro rischiosità nei confronti dell’essere umano sia per danni patrimoniali che non.

Se dunque si volesse creare un sistema risarcitorio effettivo che ampli quella stretta via di cui si è discusso in precedenza e si voglia controbilanciare le esigenze dello sviluppo economico ed imprenditoriale di tali sistemi con la tutela dei singoli fruitori dei medesimi, è necessario dare attuazione concreta al dettato del richiamato articolo 8, paventando l’ipotesi di applicazione, ai sistemi di I.A., di dinamiche simili a quelle introdotte dalla Legge di Bilancio 2024 che ha istituito l’obbligo di sottoscrivere una polizza assicurativa contro i danni da eventi catastrofici (terremoti, alluvioni, frane, ecc.)[36] per tutte le imprese con sede legale in Italia.

È chiaro che il riferimento all’evento atmosferico è assolutamente non riconducile al settore I.A., per il quale invece si ritiene applicabile la ratio sottesa alla norma: si tratterebbe dunque di una sorta di assicurazione obbligatoria connessa allo sviluppo, alla produzione, alla commercializzazione ed alla presentazione finale di uno strumento idoneo ad “invadere” profondamente la vita dell’essere umano.

[1] SCOGNAMIGLIO C., Responsabilità civile ed intelligenza artificiale: quali soluzioni per quali problemi? in Resp. Civ. e prev., 2023, 1073.

[2] Come si legge nella Relazione esplicativa alla Proposta di direttiva sull’adattamento delle norme sulla responsabilità civile extracontrattuale sull’intelligenza artificiale (Brusselles, 28.9.2022 (COM 2022), 496 Final), “… la responsabilità si è classificata tra i primi tre ostacoli all’uso dell’IA da parte delle aziende europee. È stata citata come l’ostacolo esterno più rilevante (43%) per le aziende che stanno pianificando di adottare l’I.A., ma non l’hanno ancora fatto”.

[3] In tal senso, nella Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), come richiamata da FANETTI S., Intelligenza artificiale, personalità e responsabilità extracontrattuale, in Isaidat Law Review – Issue 2/2022, 5 e ss.

[4] Non è un caso se si ritiene di dover utilizzare il carattere minuscolo.

[5] Sul tema cfr., CAPILLI G., I criteri di interpretazione delle responsabilità, in G. ALPA (cur.), Diritto e intelligenza artificiale, Pisa, 2020, 473.

[6] Ex multis, sul tema, STANZIONE P., Biodiritto, postumano e diritti fondamentali, in AA.VV. Studi in memoria di Bruno Carboni, Napoli, 2010, 1061 ss.

[7] Sul tema, SANTOSUOSSO A., Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Milano, 2020, 2 e ss.

[8] RUFFOLO U., Le responsabilità da produzione e gestione di intelligenza artificiale self-learning, in XXVI Lezioni di diritto dell’intelligenza artificiale, Torino, 2021, 132.

[9] FERRARI I., Indagine comparata sulla giurisprudenza in materia di responsabilità civile per i danni arrecati dall’uso dei sistemi di intelligenza artificiale, in Lavorodirittieuropa, Rivista nuova di diritto del lavoro, 3/2022, 6.

[10] Si pensi alla differenziazione tra l’I.A. debole che si specializza in compiti specifici e l’I.A. generale che tendenzialmente mira a replicare un’intelligenza simile a quella umana in diversi campi.

[11] IURILLI C., Il diritto naturale come limite e contenuto dell’intelligenza artificiale. Prime riflessioni sul nuovo Regolamento Europeo “AI Act”, in Judicium, 2024/06.

[12] RUFFOLO U., Il problema della “personalità elettronica, in J. Ethics Leg. Technol., 2020, 2(1), 82.

[13]MCCARTHY J., What is artificial intelligence? 2004, 2, in cse.unl.edu/~choueiry/S09-476-876/Documents/whatisai.pdf.

[14] È necessario richiamare le esasperazioni dell’approccio all’I.A. da parte di taluni ordinamenti giuridici come richiamati da FANETTI, op. cit. 14, ove l’A. rileva: “Ultimamente vi sono stati anche casi di conferimento di diritti in capo ai robot. Si tratta di azioni sporadiche, che appaiono simboliche, se non paradossali. Così, in Arabia Saudita nell’ottobre 2017 è stata attribuita la cittadinanza a un robot umanoide con sembianze femminili chiamato Sophia. Si tratta del primo caso a livello mondiale in cui uno Stato abbia riconosciuto una sorta di personalità a un’entità robotica”.

[15] BERTOLINI A., Artificial Intelligence and civil liability, European Parliament Legal Affairs, Policy Department for Citizens’ Rights and Constitutional Affairs Directorate-General for Internal Policies, July 2020, 36.

[16] RUFFOLO U., Il problema della “personalità elettronica”, in J. Ethics Leg. Technol., 2020, 2(1), 85.

[17] D’ALFONSO G., Intelligenza artificiale e responsabilità civile. Prospettive europee, in Revista de Estudios Jurídicos y Criminológicos, n.º 6, Universidad de Cádiz, 2022, 166.

[18] DRIGO A., L’evocativa integrazione analogica all’art. 2052 c.c. per i sistemi di Intelligenza artificiale: un’analisi critica, in Giustiziacivile.com.

[19] Ex multis, cfr. NADDEO F., Intelligenza artificiale: profili di responsabilità, in Comparazione e diritto civile, 2020, 1158.

[20] Per un’approfondita analisi delle varie ipotesi e forme di responsabilità cfr., RUFFOLO U., Intelligenza artificiale e diritto: una rivoluzione? vol.2, 229 e ss. (ed in spec. per le relazioni tra responsabilità da prodotto difettoso e art. 2050 c.c., 249 e ss.).

[21] Sul tema, ex multis in dottrina: AMIDEI A., Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo, in Giur.it, 2021 100; FARO S., FROSINI T.E., PERUGINELLI G., Dati e algoritmi. Diritto e diritti nella società digitale, Bologna, 2020; PERLINGIERI P., GIOVA S., PRISCO I. (a cura di), Rapporti civilistici e intelligenze artificiali: attività e responsabilità, Napoli, 2020; RUFFOLO U. (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Torino, 2020.

[22] Secondo SCOGNAMIGLIO, op. cit., “L’ancora assai recente novità rappresentata dalla Proposta di direttiva del Parlamento Europeo e del Consiglio sull’adattamento delle regole di responsabilità extracontrattuale alla materia dell’intelligenza artificiale offre tuttavia un elemento di notevole rilievo, sia pure entro i limiti di un dato normativo ancora in progress e che, dunque, potrebbe essere anche significativamente modificato prima di venire approvato, pure nell’impostazione di fondo sottesa ad esso quanto al criterio di imputazione dell’obbligo risarcitorio. Basti considerare, a quest’ultimo proposito, che — già il 9 febbraio 2023 — è stato diffuso dalla BEUC (e cioè dalla organizzazione dei consumatori europei) un position paper fortemente critico proprio sul punto appena evocato, che assume naturalmente un particolare rilievo nel disegno complessivo della materia: si è sottolineato, in quella prospettiva, che la Proposta di direttiva rappresenterebbe un passo indietro rispetto alle linee ispiratrici della disciplina in materia di responsabilità da prodotto difettoso, nella misura in cui prefigura un approccio basato sull’incidenza sul danneggiato da un dispositivo di intelligenza artificiale dell’onere di provare la sussistenza di una condotta qualificata da colpa in capo a chi si sia avvalso del dispositivo stesso”.

[23] FANETTI, cit., 163.

[24] 4 febbraio 2025, C (2025), 884. ll documento della Commissione analizza nel dettaglio le otto categorie di pratiche vietate, chiarendone la portata applicativa e le eventuali eccezioni: manipolazione e inganno (art.5(1)(a)): proibizione di sistemi che utilizzano tecniche subliminali o strategie manipolative per distorcere il comportamento degli individui in modo significativo, alterandone la capacità decisionale; sfruttamento di vulnerabilità (art.5(1)(b)): divieto di impiegare I.A. per approfittare di vulnerabilità legate all’età, a disabilità o a condizioni socio-economiche, inducendo gli utenti a compiere scelte svantaggiose o dannose; social scoring (art.5(1)(c)): proibizione dell’uso di I.A. per classificare gli individui in base a comportamenti sociali, personali o professionali, qualora ciò comporti trattamenti ingiustificati o discriminatori; predizione del rischio criminale (art.5(1)(d)): divieto di sistemi di I.A. che valutano il rischio di commissione di reati basandosi esclusivamente su profilazione automatizzata o caratteristiche personali; scraping massivo di immagini facciali (art.5(1)(e)): proibizione della raccolta indiscriminata e senza consenso di dati biometrici (ad esempio, attraverso il prelievo di immagini da Internet o CCTV) per la creazione di database di riconoscimento facciale; riconoscimento delle emozioni (art.5(1)(f)): divieto di utilizzare I.A. per inferire le emozioni di individui in contesti lavorativi o scolastici, salvo specifiche deroghe per motivi di sicurezza o sanitari; categorizzazione biometrica per dati sensibili (art.5(1)(g)): divieto di impiegare I.A. per dedurre caratteristiche sensibili, come razza, religione, opinioni politiche, orientamento sessuale o appartenenza sindacale; identificazione biometrica remota in tempo reale (art.5(1)(h)): proibizione dell’uso di sistemi di riconoscimento biometrico remoto negli spazi pubblici per finalità di law enforcement, salvo eccezioni limitate e rigorosamente regolamentate.

[25] Commissione Europea, Expert Group on Liability and New Technologies – New Technologies Formation, “Liability for Artificial Intelligence and other emerging digital technologies”, novembre 2019.

[26] Rif. a pag. 13 del documento citato.

[27] Brusselles, 28.09.2022, COM (2022), 496 Final, 2022/0303 COD.

[28] Il testo stabiliva, per coloro che chiedono un risarcimento per danni, la possibilità di ottenere informazioni sui sistemi di I.A. ad alto rischio da registrare/documentare ai sensi dell’A.I. Act. Oltre a ciò, le presunzioni confutabili daranno a coloro che chiedono un risarcimento per danni causati da sistemi di I.A. un onere della prova più ragionevole e una possibilità di successo con giustificate richieste di responsabilità.

[29] Secondo BIRNBAUM S., Unmasking the Test for Design Defect: From Negligence [to Warranty] to Strict Liability to Negligence, in Vanderbilt Law Review, 33, 593, (1980), 596. “Clearly, traditional negligence and warranty causes of action posed serious impediments to the injured consumer’s ability to recover. […] By the 1950s and early 1960s, it was becoming increasingly clear that considerations of public policy would yield a sufficient rationale for adopting a strict liability cause of action for claims based on defective products.”.

[30] In dottrina, ex multis, cfr., RUFFOLO U., Artificial intelligence e responsabilità. Persona elettronica e teoria dell’illecito, in Intelligenza artificiale e diritto: una rivoluzione, Vol 2, 248 e ss.; AL MUREDEN E. Autonomous vehicles e responsabilita` nel nostro sistema ed in quello statunitense, in Giur. It., 2019, 7, 1704-1715.

[31] Si vada quanto richiamato alla nota 31.

[32] I sistemi di I.A. ad alto rischio sono quelli descritti dall’art. 6. Si tratta essenzialmente di due categorie di prodotti: i prodotti o le componenti di prodotti che richiedono una valutazione di conformità ai fini dell’immissione sul mercato secondo la legislazione UE armonizzata citata nell’allegato II al Regolamento e i sistemi di I.A. indipendenti (così detti stand alone sysitems) che rappresentano una minaccia per la salute, la sicurezza o i diritti fondamentali e che sono elencanti nell’allegato III. Come previsto dall’art. 7 del Regolamento tale lista dovrà essere aggiornata dalla Commissione europea in concomitanza con i più recenti sviluppi tecnologici. L’uso di questi sistemi di I.A. è soggetto a una serie di limiti e di requisiti, in particolare aventi a che fare con procedure di controllo e di monitoraggio che possono essere suddivise in due fasi: una prima fase ha luogo prima della immissione sul mercato del sistema e richiede la designazione obbligatoria, da parte degli Stati membri, di una autorità nazionale di notifica, la quale a sua volta dovrà designare gli organismi preposti alla valutazione della conformità del sistema di I.A. ai requisiti richiesti dal Regolamento; tale valutazione, se positiva, condurrà all’emissione del marchio di conformità CE.

I sistemi che non rientrano nelle menzionate categorie si considerano sistemi a rischio limitato o minimo. In questi casi il legislatore non assoggetta i dispositivi di I.A. alle due fasi di controllo e monitoraggio appena descritte, ma lascia libero il fornitore di creare il proprio codice di condotta al quale attenersi (per quanto riguarda i sistemi a rischio minimo).

[33] MONTINARO R., Responsabilità da prodotto difettoso e tecnologie digitali tra soft e hard law, in Persona e Mercato, 2020/4, 379-380.

[34] DI DONNA L., Software intelligenti e responsabilità del produttore, in Intelligenza artificiale e rimedi risarcitori, 2022, 100.

[35] Per maggiori approfondimenti sull’identificazione del produttore, si rinvia a AMIDEI A., La responsabilità del produttore tra novella e sistema. Contributo allo studio dei criteri di imputazione, Napoli, 2025, 61 e ss.

[36] Entro il 31 marzo 2025 le imprese sono state obbligate a stipulare una polizza assicurativa contro i danni derivanti da calamità naturali ed eventi catastrofali con una compagnia di assicurazioni che è obbligata ad assicurarle. Per le imprese dei settori pesca e acquacoltura il termine è posticipato al 31 dicembre 2025.  In base a quanto previsto dal Decreto Legge 31 marzo 2025, n. 39, il termine entro il quale è necessario assicurarsi si differenzia in base alle dimensioni dell’impresa. Si ricorda che è stato pubblicato in Gazzetta Ufficiale, Serie Generale, il decreto del Ministero dell’Economia e delle Finanze del 30 gennaio 2025, n. 18, recante il regolamento sulle modalità attuative e operative degli schemi di assicurazione dei rischi catastrofali (anche note come polizza catastrofale o polizza cat-nat) ai sensi dell’art. 1, c. 105, L. 213/2023.