Il giudice amministrativo e la decisione robotizzata. Quando l’algoritmo è opaco.

Di Giovanni Pesce -

1.La pubblica amministrazione che utilizza macchine intelligenti per la propria attività, quasi mai, al pari dei comuni cittadini, è nelle condizioni di conoscere nel profondo il meccanismo algoritmico, cioè la logica sottesa all’algoritmo e la sua base di conoscenza[1].

L’inaccessibilità della logica sottesa al funzionamento dell’algoritmo si riverbera sul piano procedurale sulla estrema difficoltà di rendere conoscibili i singoli passaggi sulla cui base la decisione (in questo caso, amministrativa) viene assunta dalla macchina. Come nel caso degli algoritmi che sfruttano le reti neurali, capaci di elaborare in modo autonomo le regole di funzionamento con modalità che sfuggono agli stessi programmatori del sistema[2].

In queste ipotesi, il problema della conoscenza dell’algoritmo nella fase istruttoria del procedimento assume significato pregnante, considerato che la p.a. non solo si scontra con il problema della opacità tecnica ma deve tutelare sul piano giuridico anche gli interessi economici che derivano dai diritti di proprietà intellettuale e dal segreto industriale. Ostacoli che si riverberano, a loro volta, con le norme poste a presidio delle garanzie di partecipazione al procedimento e di accesso agli atti.

2.I confini tra potere pubblico ed uso dell’algoritmo, sul versante interno Stato-cittadini, con i relativi limiti in ordine all’utilizzo della decisione automatizzata nel contesto dell’attività vincolata e dell’attività discrezionale della p.a., sono stati esaminati una prima volta dalla sentenza del Consiglio di Stato (VI sezione) dell’8 aprile 2019 n. 2270, con la quale, in sintesi: a) si ritiene doverosa declinazione dell’art. 97 Cost., coerente con l’attuale evoluzione tecnologica, l’assenza di intervento umano in un’attività di mera classificazione automatica di istanze numerose, secondo regole predeterminate (elaborate dall’uomo) e l’affidamento di tale attività a un efficiente elaboratore elettronico; b) si afferma che la regola tecnica che governa ciascun algoritmo resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata da quest’ultima, anche se ciò avviene in via esclusiva; c) si deduce che la regola algoritmica, quindi, ossia il software, deve essere considerato a tutti gli effetti come un “atto amministrativo informatico” e deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili; d) si onera la p.a. di costantemente aggiornare e perfezionare l’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning); e) si statuisce sia  che l’algoritmo deve essere pienamente conoscibile in sé sia che il giudice amministrativo possa valutarne la correttezza del processo automatizzato in tutte le sue componenti e nella pienezza del sindacato giurisdizionale[3].

Il giudice amministrativo afferma (dandolo per scontato) che il responsabile del procedimento, che per legge “accerta di ufficio i fatti, disponendo il compimento degli atti all’uopo necessari” (art. 6 l.n. 241/90), debba identificarsi in un essere umano, non in una macchina, cui spetta anche adottare i criteri, che una macchina può elaborare. La stessa sentenza riconosce perciò la piena legittimità dell’utilizzo di algoritmi di apprendimento progressivo (o machine learning), con l’unico caveat di perfezionarne l’uso: se necessario, evidentemente.

3.Dopo la decisione n. 2270 del 2019, questi ultimi aspetti sono stati oggetto di una seconda e per certi versi più rilevante sentenza del Consiglio di Stato: la n. 8472/2019[4]. Ancora una volta era insorta una controversia promossa da docenti immessi in ruolo nella c.d. fase C del piano straordinario assunzionale di cui alla l. n. 107 del 2015, avverso gli esiti della procedura nazionale di mobilità attuata con Ord. MIUR n. 241 del 2016 in attuazione dell’art. 1, comma 108, della citata legge. In particolare, la contestazione riguardava l’esito della procedura la quale, svolta sulla base di un “algoritmo tuttora sconosciuto” (dicono i giudici), ha disposto i trasferimenti senza tener conto delle preferenze espresse, pur in presenza di posti disponibili nelle province indicate, in evidente contrasto “con il fondamentale principio della strumentalità del ricorso all’informatica nelle procedure amministrative”[5] Nella prospettazione dei docenti, il meccanismo straordinario di mobilità si è rivelato pregiudizievole per coloro i quali, immessi in ruolo nella fase C, sono stati trasferiti in province più lontane da quella di propria residenza o quella comunque scelta con priorità in sede di partecipazione alla procedura, benché in tali province di elezione fossero disponibili svariati di posti.

4. Il giudice amministrativo, dopo aver ribadito il principio per cui la “formula tecnica”, che di fatto rappresenta l’algoritmo, deve essere corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile[6], afferma che in senso contrario “non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza[7].

L’argomento, apparentemente secondario nell’economia processuale ma di cruciale snodo, trova un significativo precedente nella sentenza del TAR Lazio n. 3742/2017[8], nel cui giudizio l’amministrazione aveva fornito a parte ricorrente un memorandum, con le istruzioni espresse in lingua italiana e in forma di algoritmo in quanto descrittive della sequenza ordinata dei relativi passaggi logici. Adempimento che se “permette evidentemente di assicurare la comprensibilità del funzionamento del software anche al cittadino comune” non è stato considerato sufficiente al fine di avere “piena contezza anche del programma informatico che può aversi solo con l’acquisizione del relativo linguaggio sorgente, indicato nel ricorso come codice sorgente, del software relativo all’algoritmo di cui trattasi”. Il giudice vuole sapere molto più della mera descrizione dell’algoritmo e del suo funzionamento in lingua italiana, che “non assolve alla medesima funzione conoscitiva data dall’acquisizione diretta del linguaggio informatico sorgente[9].

Si pone dal giudice così, anzitutto, un significativo argine alla opacità algoritmica dovuta ad ostacoli giuridici, destinato tuttavia a pesare non poco nei rapporti negoziali tra imprese produttrici di sistemi informatici e p.a., considerato peraltro che queste ultime non sono state coinvolte nel processo[10].

5. Superato questo ostacolo, affrontato per la verità senza particolari problemi dal Consiglio di Stato attraverso un rinvio alla categoria generale del potere autoritativo[11], la questione processuale poteva dirsi chiusa.

L’esito del contenzioso è sfavorevole alla p.a. perché l’impossibilità di comprendere le modalità con le quali, attraverso l’algoritmo, sono stati assegnati i posti disponibili di docente, costituisce di per sé un vizio tale da inficiare la procedura e più radicalmente “il metodo in quanto tale per il difetto di trasparenza dello stesso”.

La conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.

Si può immaginare, quindi, il problema generato da una decisione algoritmica annullata dal giudice a valle di un procedimento complesso coinvolgente migliaia di persone, la cui esecuzione comporta enormi sforzi organizzativi per la p.a. a causa di errori, tutto sommato, poco imputabili alla stessa amministrazione e molto all’opacità del sistema-macchina ed alle difficoltà procedurali: il risultato raggiunto è diametralmente opposto ai benefici che il ricorso alle ICT[12] da parte dell’amministrazione intendeva perseguire.

6. La sentenza in esame assume rilievo, però, non tanto per l’esito, da ritenersi prevedibile visto il precedente n. 2270/2019, quanto per le considerazioni logico-giuridiche che ne costituiscono il substrato. Tutte, significativamente, riconducibili al diritto sovranazionale: il Regolamento europeo n. 679/2016; la Carta sulla Robotica; la Convenzione europea sui diritti umani. Come se l’invocato principio di trasparenza, per quanto rafforzato e diretto alla “piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico” non fosse comunque sufficiente ad illustrare la motivazione in quello che appare, senza dubbio, un “leading case”.

6.1. Partendo dall’assunto che il Regolamento europeo in materia di protezione dei dati personali (GPDR 2016/679) persegue “l’intento di arginare il rischio di trattamenti discriminatori per l’individuo che trovino la propria origine in una cieca fiducia nell’utilizzo degli algoritmi”, il giudice amministrativo individua i diritti dei soggetti coinvolti dall’attività amministrativa informatizzata in termini istruttori e decisori: (a) richiamando gli articoli 13 e 14 del Regolamento, secondo cui  nell’informativa rivolta all’interessato deve essere data notizia dell’eventuale esecuzione di un processo decisionale automatizzato, sia che la raccolta dei dati venga effettuata direttamente presso l’interessato sia che venga compiuta in via indiretta; (b) ricordando la garanzia che spetta all’interessato allorché il processo sia interamente automatizzato essendo richiesto, almeno in simili ipotesi, che il titolare debba fornire “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”,  con il presidio dell’articolo 15 del Regolamento che contempla, a sua volta, la possibilità di ricevere informazioni relative all’esistenza di eventuali processi decisionali automatizzati.

Il riferimento al Regolamento in esame porta il giudice amministrativo ad applicare, per la prima volta (a quanto risulta) al procedimento amministrativo, l’articolo 22, paragrafo 1, del predetto Regolamento, che riconosce alla persona il diritto di non essere sottoposta a decisioni automatizzate prive di un coinvolgimento umano e che, allo stesso tempo, producano effetti giuridici o incidano in modo analogo sull’individuo.

Il richiamo viene fatto sia per individuare “un espresso limite allo svolgimento di processi decisionali interamente automatizzati” sia, soprattutto, per giustificare “l’individuazione di un centro di imputazione e di responsabilità, che sia in grado di verificare la legittimità e logicità della decisione dettata dall’algoritmo[13].

Occorre riflettere bene sul significato di questa disposizione e sulla relativa -non del tutto scontata- applicabilità piena al procedimento amministrativo condotto con modalità automatizzata.

L’art. 22, paragrafo 1, del Regolamento europeo sulla privacy dispone che “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.

Al paragrafo 2 dell’art. 22, il Regolamento precisa però che “Il paragrafo 1 non si applica nel caso in cui la decisione:

1.sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento;

2.sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato;

3.si basi sul consenso esplicito dell’interessato.

Il paragrafo 3 stabilisce:

Nei casi di cui al paragrafo 2, lettere a) e c), il titolare del trattamento attua misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione”.

Infine, il paragrafo 4 chiude la norma:

Le decisioni di cui al paragrafo 2 non si basano sulle categorie particolari di dati personali di cui all’articolo 9, paragrafo 1, a meno che non sia d’applicazione l’articolo 9, paragrafo 2, lettere a) o g), e non siano in vigore misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato”.

A sua volta, l’art. 9, paragrafo 1, contiene il divieto di “trattare dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona”. Disposizione che però non si applica nelle numerose ipotesi di cui al successivo paragrafo 2, richiamato dall’art. 22 e per quanto qui rileva:

lettera a): “l’interessato ha prestato il proprio consenso esplicito al trattamento di tali dati personali per una o più finalità specifiche, salvo nei casi in cui il diritto dell’Unione o degli Stati membri dispone che l’interessato non possa revocare il divieto di cui al paragrafo 1”;

lettera g): “il trattamento è necessario per motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri, che deve essere proporzionato alla finalità perseguita, rispettare l’essenza del diritto alla protezione dei dati e prevedere misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato”.

Ciò chiarito, giova ricordare che il diritto in esame già era previsto da più di un decennio in una precedente norma comunitaria (art. 15 della Direttiva 95/46), ma la relativa previsione non è stata risolutiva (come, si teme, non lo sarà quest’ultima) nelle relazioni tra utenti e p.a., per l’ovvia predominanza della seconda sui primi, potendo difficilmente l’utente opporre allo Stato il proprio diniego di trattamento dei propri dati e, quindi, lo stesso utilizzo della tecnologia: se lo facesse, non potrebbe più interloquire -telematicamente[14]– con esso (ciò, peraltro, è vero pure con i privati) e sarebbe letteralmente “tagliato fuori” da ogni ambito dell’azione amministrativa. Da qui la scontata deroga indicata al par. c) del paragrafo 2 della norma in esame.

Secondo una tesi, che appare condivisibile, la fattispecie individuata dall’art. 22 del Regolamento del 2016, il cui ambito di applicazione va ben oltre la decisione amministrativa, non sarebbe formulata in realtà con riferimento al potere di adottare la decisione amministrativa automatizzata, ma alle sole garanzie dell’individuo a non essere sottoposto a tale tipo di decisione a meno che non ricorrano determinate condizioni[15]. Appare indubbio, infatti, che la stessa norma non autorizza né riduce il potere della p.a. di adottare decisioni automatizzate, proprio in virtù del complessivo assetto di permessi e divieti di cui ai singoli paragrafi sopra richiamati (specie, il par. 2, lett. b), se è vero i poteri pubblici già dispongono di adeguata base legale per utilizzare le ICT (la legge n. 241/90 ed il Codice dell’amministrazione digitale, con la copertura dell’art. 97 Cost.).

6.2. Il secondo ordine di argomentazioni del giudice amministrativo rinvia alla Carta della Robotica, approvata nella seduta del 16 febbraio del 2017 dal Parlamento Europeo, secondo cui “l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; (…) tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente; (…) nell’ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati“. Il rinvio alla Carta, che riguarda però il solo settore civile, serve essenzialmente al giudice per rafforzare l’inquadramento teorico sul tema della imputabilità della decisione robotizzata, più che alla legittimità in sé del procedimento amministrativo.

6.3. Il terzo ordine di argomentazione, più rilevante, rinvia ad altrettanti principi, scolpiti nel diritto extra-statuale.

a) Il principio di conoscibilità, per cui ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata. Il principio, ad avviso del giudice formulato in maniera generale e, perciò, applicabile sia a decisioni prese da soggetti privati che da soggetti pubblici, costituisce diretta applicazione specifica dell’art. 42 della Carta Europea dei Diritti Fondamentali (“Right to a good administration”), laddove afferma che quando la Pubblica Amministrazione intende adottare una decisione che può avere effetti avversi su di una persona, essa ha l’obbligo di sentirla prima di agire, di consentirle l’accesso ai suoi archivi e documenti, ed, infine, ha l’obbligo di “dare le ragioni della propria decisione”. Il diritto alla conoscenza dell’esistenza di decisioni che ci riguardino prese da algoritmi e, correlativamente, come dovere da parte di chi tratta i dati in maniera automatizzata, di porre l’interessato a conoscenza, va accompagnato -prosegue il giudice- da meccanismi in grado di decifrarne la logica. In tale ottica, il principio di conoscibilità si completa con il principio di comprensibilità, ovverosia la possibilità, per riprendere l’espressione del Regolamento sulla privacy, di ricevere “informazioni significative sulla logica utilizzata”.

b) Il secondo principio del diritto europeo rilevante in materia è definibile come il principio di non esclusività della decisione algoritmica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (il citato art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano. Il richiamo al principio di non esclusività compiuto dal giudice amministrativo risente, innegabilmente, dell’influenza di riferimenti etici che, secondo autorevoli teorici del diritto e della scienza, devono governare l’impiego della IA nel settore pubblico[16]. In particolare, nello “Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems” presentato alla Commissione dall’European Group on Ethics in Science and New Technologies[17], sono individuati nove “principi etici e requisiti pre-democratici” che dovrebbero fornire una guida futura per legislatori, regolatori e giudici: dignità umana[18]; autonomia[19]; responsabilità[20]; giustizia, equità e solidarietà[21]; democrazia[22]; “rule of law and accountability”[23]; sicurezza, integrità fisica e mentale[24]; protezione dei dati e privacy[25]; sostenibilità[26]. Si tratta della “visione antropocentrica” della IA richiamata dalla Commissione UE nella Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni dell’aprile 2019[27], affidata alle seguenti parole: “La strategia europea per l’IA e il piano coordinato sull’IA indicano chiaramente che la fiducia è una condizione indispensabile per assicurare un approccio antropocentrico all’IA: l’intelligenza artificiale non è fine a se stessa, ma è uno strumento a servizio delle persone che ha come fine ultimo quello di migliorare il benessere degli esseri umani”. Il presupposto per ottenere una “intelligenza artificiale affidabile” è legato a tre elementi: i) il rispetto del principio di legalità (rule of law) da parte dell’IA; ii) l’osservanza dei principi etici; iii) la prova di solidità del sistema. Sulla base di questi tre elementi la Commissione individua (con una operazione di sintesi rispetto alle indicazioni di EGE) sette requisiti fondamentali che le applicazioni di IA dovrebbero soddisfare per essere considerate affidabili: intervento e sorveglianza umani, robustezza tecnica e sicurezza, riservatezza e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale, accountability.

c) Infine, viene richiamato dai giudici di Palazzo Spada il principio di non discriminazione algoritmica (ricavabile dal considerando n. 71 del Regolamento 679/2016), secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e che impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti. Anche in questa ipotesi, si tratta di un richiamo, opportuno, alla cornice ed alla visione di insieme della materia, utilizzato dal giudice come elemento di indirizzo della futura attività amministrativa fondata sul procedimento robotizzato.

7.Il vademecum tracciato dal Consiglio di Stato consente di trarre qualche indicazione di sintesi sull’uso dell’algoritmo da parte della p.a., sulla cui ammissibilità e legittimità peraltro non si nutrono dubbi in ogni ambito di attività, sia essa vincolata o discrezionale.

L’efficacia dell’azione amministrativa non può essere considerata in questa materia preminente, dovendosi individuare un bilanciamento tra due tipologie di interessi: l’interesse ad una procedura prevedibile, snella, trasparente, efficace, che tipicamente si ritiene raggiungibile con la delega alla macchina e all’uso di ICT; l’interesse, più tradizionale ma ineliminabile in una certa misura, al mantenimento in capo all’essere umano del controllo del potere delegato alla macchina, che può e deve essere di regola revocabile[28].

Se si torna al caso affrontato dal giudice amministrativo con le due sentenze del 2019, la verifica del bilanciamento degli interessi può apparire più complessa.

Leggendo l’Ord. ministeriale 241/2016 del MIUR non si ha tanto la certezza che sia stato utilizzato un procedimento interamente robotizzato (anzi, l’esame del testo di legge e della stessa Ord. min. sembra condurre ad una prevalenza dell’essere umano), quanto una generale impressione di macchinosità della fase procedurale, resa ancor più oscura in qualche passaggio delegato alla macchina. Per cui, da criteri (umani) oscuri, non poteva che scaturire dalla macchina un output non desiderabile.

L’interesse ritenuto meritevole di apprezzamento non sembra però coincidere con la copertura di tutte le cattedre vacanti (elemento di natura discrezionale che il giudice non può valutare), ma con l’interesse privato all’ottenimento di una sede in linea quanto più possibile con la preferenza espressa dal docente e riconducibile esclusivamente a ragioni personali[29]. Un interesse che meritava forse di essere bilanciato meglio, secondo la volontà della legge, con quello pubblico alla copertura delle sedi “nel limite dei posti vacanti   e disponibili” (articolo 1, comma 98 e ss. l.n. 107/2015), rispetto al quale l’ordine di preferenza non poteva prevalere (“In caso di indisponibilità sui posti per tutte le province, non si procede all’assunzione”). Se ci riflette, ogni volta che si partecipa ad un concorso pubblico non si può sapere in anticipo se si riuscirà ad occupare una certa sede né assumono rilievo le preferenze personali dei candidati.

L’uso della macchina e della decisione automatizzata non sembra aver travalicato di per sé i limiti etico-giuridici sopra indicati, semmai il procedimento umano non è stato condotto in modo impeccabile: come accade spesso. L’essere umano, nel procedimento in esame, ha mantenuto o poteva mantenere, stando alle norme che regolano il caso concreto, il controllo del segmento procedurale gestito dall’algoritmo.

L’elemento negativo, fortemente censurato dal giudice, ha riguardato a ben vedere l’opacità del passaggio procedimentale fondato sull’algoritmo più che l’algoritmo in sé o il modo con il quale esso è stato istruito. Elemento che ha finito per travolgere la procedura e lo stesso interesse pubblico. Non sembra invece che possa estendersi il giudizio negativo sull’algoritmo di per sé utilizzato, anche se il punto non sembra essere stato oggetto di disamina particolare dal giudice e dalle parti (a quanto si comprende) né in primo né in secondo grado, ribaltandosi piuttosto sull’amministrazione un difetto di prova in ordine alle operazioni algoritmiche. Ciò che finisce ad avviso del giudicante per incidere sullo stesso principio di legalità della decisione robotizzata, che deve invece essere sempre provata ed illustrata sul piano tecnico, come precisa la sentenza, quantomeno “chiarendo le circostanze prima citate, ossia le istruzioni impartite e le modalità di funzionamento delle operazioni informatiche se ed in quanto ricostruibili sul piano effettuale perché dipendenti dalla preventiva, eventualmente contemporanea o successiva azione umana di impostazione e/o controllo dello strumento”.

Sarebbe stato interessante in questo senso accertare, per esempio, tramite una consulenza tecnica, l’input che era stato fornito alla macchina e le istruzioni oggetto di delega umana.

8.La chiave di volta del contenzioso è retta dalla violazione delle regole procedimentali poste a presidio della conoscenza della fase dell’istruttoria. Nel momento in cui il diritto di accesso agli atti non ha potuto avere un esito pienamente satisfattivo agli occhi dell’interessato e soprattutto del giudice, a fronte della opposizione dell’impresa privata che aveva programmato l’algoritmo rispetto alla quale nulla ha opposto la p.a., il piano della questione si è spostato dal fatto e dai dati raccolti ai principi generali che regolano l’attività amministrativa. Un giudice, come quello amministrativo, abituato ad utilizzare pieni poteri nei confronti della p.a. omissiva o recalcitrante, ha fatto largo uso anche di scienza propria ed ha colto l’occasione di affermare il proprio autorevole punto di vista sull’intera materia della delega algoritmica e dell’uso della IA da parte della p.a., in una chiave che appare comunque meno conservatrice rispetto alla posizione attuale della giurisprudenza[30].

9.Emblematico del background culturale in cui mostra di muoversi il Consiglio di Stato è il richiamo (fugace ma significativo) alla sentenza della Corte suprema del Wisconsin relativa al controverso caso Loomis[31], che merita un accenno in questa sede. In breve, il programma Compas (acronimo di Correctional offender management profiling for alternative sanctions) è stato concepito per prevedere il rischio di recidiva. Funziona attraverso un algoritmo predittivo, coperto da brevetto, che prende in considerazione alcune risposte date a un questionario di 137 domande. L’algoritmo elabora i dati ottenuti dal fascicolo dell’imputato e dalle risposte fornite nel colloquio con lo stesso. Compas poi assegna i punteggi, su scala, dai quali evidenziare la probabilità della commissione di nuovi reati[32]. Come si evince dai resoconti[33], nel febbraio del 2013 Eric Loomis, mentre guidava un’automobile usata durante una sparatoria nel Wisconsin, veniva arrestato con l’accusa di non essersi fermato al controllo della polizia. A seguito di contestazione di vari capi di imputazione, tutti in recidiva, il giudice che ha stabilito la pena non si è basato solo sulla fedina penale, ma anche sul punteggio assegnato all’imputato da Compas che aveva individuato in Loomis, che pure aveva ammesso i fatti contestati, un soggetto ad alto rischio di recidiva. Quest’ultimo, per la prima volta negli USA e forse nella storia, si è opposto alla sentenza emessa anche sulla base di un algoritmo predittivo, fondato su un questionario di 137 domande potenzialmente discriminatorie specie per persone provenienti da certe aree urbane o appartenenti a minoranze. La questione è giunta sino alla Corte suprema del Wisconsin, dinanzi alla quale è stata denunciata la violazione del diritto ad ottenere un processo equo e non discriminatorio del diritto umano. La Corte ha riconosciuto la legittimità dell’uso del sistema Compas perché la scelta della sanzione, alla fine, è sempre rimessa nelle mani del giudice, non della macchina che funge da mero strumento di ausilio, si suppone disinteressato ed oggettivo, alla decisione dell’essere umano.

In realtà, la fiducia nel sistema giudiziario, più che in quello dell’apparato amministrativo, può valere sino ad un certo punto. Il modo in cui la conoscenza viene rappresentata dall’uomo alla macchina ha una influenza rilevante sulle decisioni ed operazioni dell’algoritmo, potendo la selezione delle informazioni essere più o meno accurata ed oggettiva, più o meno imparziale piuttosto che libera o condizionata da valori individuali. Nel caso Loomis, la difesa dell’imputato era convinta che l’algoritmo, mai reso trasparente, era stato programmato (o poteva esserlo) sulla base di conoscenze ed esperienze (vita familiare; pregresse condotte; razza di provenienza; etc.) in grado di condizionare il giudizio sulla persona, alterandolo rispetto all’ipotesi contraria di valutazione posta in essere senza l’uso della macchina.

La Corte suprema, facendo leva sull’onnipotenza e saggezza di quel sistema giudiziario, ha respinto l’argomento senza neppure accertare il codice sorgente.

In questo senso, nella fattispecie, il nostro giudice amministrativo si mostra a prima vista più garantista, facendo prevalere sulle ragioni dell’impresa privata quelle del cittadino, in nome della trasparenza amministrativa che, secondo la nostra giurisprudenza, deve prevalere di regola sulla opacità del sistema, a maggior ragione se informatico.

La diversa impostazione tra la Corte americana e le nostre, peraltro, risente anche del differente modo di intendere, almeno nel settore tecnologico, il concetto giuridico di trasparenza, sul quale una più attenta riflessione si impone in futuro, al pari della complessiva relazione tra giudice e p.a.[34].

Secondo una tesi, ad esempio, nell’ambito delle ICT, ove si assiste ad un sistema multi-agente in cui gli attori in capo sono molti (lo Stato, le imprese multinazionali, le istituzionali sovranazionali, il mercato, i cittadini) si dovrebbe passare ad una concezione innovativa della trasparenza. Una tecnologia è tanto più “trasparente” quanto è “più invisibile”, cioè idonea a svolgere in modo efficace ed affidabile, ma impercettibile, i compiti ad essa affidati dall’essere umano.  Deve cioè funzionare al meglio, non essere resa necessariamente conoscibile a terze parti in tutti i suoi elementi tecnici e ciò per evitare conflitti esasperati tra lo Stato e l’impresa che progetta e fornisce gli algoritmi. Si tratta, in altri termini, di declinare in forma diversa alcune categorie dell’interesse (pubblico e privato), la cui cura deve passare da uno Stato multi-agente che utilizza tecnologie sicure, scevre da pregiudizi di partenza ed affidabili tecnicamente, nel rispetto di tutti i valori di cui sono espressione i vari agenti convolti nel sistema[35].

10.Non sempre dietro la selezione delle informazioni alla macchina si nasconde un pregiudizio, evidentemente. Ad esempio, l’algoritmo della “buona scuola”, cassato dal giudice, non era (ma non abbiamo la prova inconfutabile) condizionato da pregiudizi sociali o politici, quanto verosimilmente da errori nella rappresentazione della realtà, trasferita alla macchina dall’uomo. Una volta assegnato il posto del professore in base alle esigenze regionali, non aveva senso impedire correzioni -anche automatiche della sede- legate all’anagrafe o alla presenza di figli.

E’ sicuro, però, che i cd. bias cognitivi[36] possono influenzare la macchina ed in una certa misura potrebbero essere ineliminabili ed anzi il fatto che essi esistano potrebbe rivelarsi la migliore garanzia  che l’intero procedimento resti nei confini dell’umano e non del virtuale.  Se non si trovano meccanismi idonei a conoscere in anticipo, se non a correggere, i bias cognitivi, si rischia di pregiudicare sia l’interesse pubblico sia quello privato: si raggiunge, cioè, un obiettivo del tutto opposto rispetto a quello che intende promuovere l’uso delle ICT da parte della p.a. (efficienza, rapidità, contenimento dei costi, trasparenza, prevedibilità e neutralità della decisione).

Se la delega informatica contiene un bias cognitivo, cioè una base di conoscenze orientata e non oggettiva, che pesa sulla decisione finale in ragione dell’istruttoria condotta in virtù dell’algoritmo, l’intero provvedimento rischia di essere annullato dal giudice, se non altro, per violazione del principio di imparzialità. Lo sforzo, quindi deve essere concentrato sul modo di riconoscere gli errori (inevitabili) e per raggiungere questo obiettivo occorre sapere come e da chi sono stati selezionati i dati che rappresentano la base di conoscenza dell’algoritmo (l’input). In definitiva, è dirimente conoscere la logica del funzionamento dell’istruttoria algoritmica che, se resta opaca, non permette di rilevare il bias e di contestare se del caso la decisione finale.

11.In chiusura, se, da un lato, il Consiglio di Stato ribadisce la natura servente dell’algoritmo per la p.a. (secondo il canone “la macchina per l’uomo, non viceversa”), dall’altro lato, pone le premesse per un esplicito superamento anche dei limiti di utilizzo dell’algoritmo e della stessa Intelligenza Artificiale nei diversi ambiti dell’attività amministrativa.

In particolare, pare superato il più controverso dei limiti, rappresentato sino ad ora dalla discrezionalità amministrativa[37]. Sul punto la sentenza stabilisce con chiarezza che “In disparte la stessa sostenibilità a monte dell’attualità di una tale distinzione, atteso che ogni attività autoritativa comporta una fase quantomeno di accertamento e di verifica della scelta ai fini attribuiti dalla legge, se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità…..Piuttosto, se nel caso dell’attività vincolata ben più rilevante, sia in termini quantitativi che qualitativi, potrà essere il ricorso a strumenti di automazione della raccolta e valutazione dei dati, anche l’esercizio di attività discrezionale, in specie tecnica, può in astratto beneficiare delle efficienze e, più in generale, dei vantaggi offerti dagli strumenti stessi”[38]. Ma ciò non implica il superamento del valore in sé della discrezionalità amministrativa, quanto di una diversa declinazione del problema[39]. Il tema del presente è il quomodo, non più l’an della decisione amministrativa robotizzata.

[1] Vi sono autori che hanno dedicato ampi studi all’argomento dell’opacità dell’algoritmo e relativa impossibilità di comprenderne il funzionamento logico. Si rinvia a F. Pasquale, The Black box society, The Secret Algorithms That Control Money and Information, pp. 144 e ss.., Harv. Un. Press, 2015.

[2] M. Durante, Potere computazionale, Torino, 2019, p. 244.

[3] Con il relativo annullamento dell’atto impugnato, in quel caso concreto, per violazione dei principi di imparzialità, pubblicità e trasparenza, poiché non era dato comprendere per quale ragione le legittime aspettative di soggetti collocati in una determinata posizione in graduatoria di un concorso pubblico fossero andate deluse.

[4] Cons. Stato Sez. VI, Sent., 13-12-2019, n. 8472 in www.giustizia-amministrativa.it

[5] In concreto, come chiarisce bene il TAR Lazio nella sentenza n. 3742/2017 della III bis (che si segnala anche perché affronta il tema dell’accesso agli “atti algoritmici”), l’algoritmo di cui trattasi era stato predisposto da parte della società H.S. su incarico del MIUR al fine di consentire all’amministrazione di potere agevolmente gestire in concreto la procedura della mobilità dei docenti. Il predetto algoritmo, a quanto è dato di capire, ha gestito in modo automatico e per mezzo di un complesso sistema informatico il procedimento della mobilità dei docenti, atteso che l’individuazione, in concreto, della concreta sede spettante al singolo docente nell’ambito della mobilità sarebbe stata individuata esclusivamente dal predetto algoritmo. Pertanto, gli atti endoprocedimentali di acquisizione dei dati necessari ai fini della relativa istruttoria nonché lo stesso atto finale del procedimento sono, conseguentemente, confluiti e si si sono esauriti nel solo funzionamento dell’algoritmo di cui trattasi, con la conseguenza ulteriore dell’assimilabilità dell’algoritmo di cui trattasi all’atto amministrativo o meglio, del riconoscimento della diretta riconducibilità del software che gestisce l’algoritmo alla categoria del cd. atto amministrativo informatico di cui alla lett d) dell’art. 22 della L. n. 241 del 1990.

[6] Principio espresso al punto 8.3 della motivazione della precedente sentenza n. 2270/2019.

[7] Capo 13.1. della motivazione.

[8]Già citata nella nota che precede, non appellata dal MIUR.

[9] Per completezza, quanto poi alla natura di opera dell’ingegno del software che gestisce l’algoritmo, la questione viene affrontata dal TAR Lazio riconoscendo comunque l’accesso agli atti ai cd. codici sorgenti o linguaggio sorgente del software dell’algoritmo.

[10] Sarebbe stato utile sentire l’impresa su alcuni punti, quali la modalità di programmazione dell’algoritmo ed i diritti di sfruttamento economico del software e relativa pattuizione.

[11] Qualche dubbio residua in effetti perché tra l’impresa e la p.a. esiste un contratto che permette alla prima di opporre il diritto alla tutela della proprietà intellettuale, ragione per cui il rapporto dovrebbe essere paritetico collocabile al di fuori della logica del potere autoritativo, in assenza di provvedimenti di altro segno in grado di incidere sul contratto stesso.

[12] ICT – Information Communication Tecnology, acronimo che ricomprende per brevità tutte le tecnologie in uso, compresa l’Intelligenza Artificiale: cfr. ad esempio A. Greenfield, Tecnologie radicali, Torino, 2017.

[13] Capo 14. 2 della motivazione.

[14] E quindi, secondo la tendenza futura, sempre.

[15] Sul tema cfr. S. Civitarese Matteucci, “Umano troppo umano”. Decisioni amministrative automatizzate e principio di legalità, in Dir. pubbl. 1/2019, p. 23, che ricorda come non siano state sul punto recepite le Linee guida del gruppo di lavoro A29WP secondo cui l’art. 22 del Regolamento in esame si risolverebbe nella divieto di decisioni completamente automatizzate che producano effetti giuridici o rilevanti effetti a questi assimilabili.

[16] Fondamentale il contributo di L. Floridi, The Fourth Revolution, How the Infosphere is Reshaping Human Reality, Oxford University Press, 2014.  Dopo quella copernicana (sul sistema solare e sul posizionamento della Terra), darwiniana (sulla catena degli esseri viventi) e freudiana (sugli studi sull’inconscio, con riflessi sulle neuroscienze), la quarta rivoluzione, partendo dagli studi di Turing, evidenzia la natura umana di organismi interconnessi con esseri umani ed artificiali in un ambiente fatto di scambio di informazioni. Cfr. anche U. Pagallo, Il diritto nell’età dell’informazione, Torino, 2014; J. Kaplan, Artificial Intelligence, Oxford University Press, 2017 (trad. it. ed. Luiss, 2017), oltre al già citato volume di M. Durante sul Potere computazionale.

[17] L’European Group on Ethics in Science and New Technologies (EGE) è un organismo di consulenza indipendente del Presidente della Commissione UE. Il report è del 9 marzo 2018 e si può leggere su http://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf

[18] Il principio della dignità umana, inteso come riconoscimento dello stato umano intrinseco di essere degno di rispetto e che non deve essere violato da tecnologie “autonome”.

[19] Il principio di autonomia implica la libertà dell’essere umano. Questo si traduce in responsabilità umana e quindi controllo e conoscenza sui sistemi “autonomi” in quanto essi non devono compromettere la libertà umana. Tutte le tecnologie “autonome” devono, quindi, onorare l’umana capacità di scegliere se, quando e come delegare decisioni e azioni alle macchine.

[20]I sistemi “autonomi” dovrebbero essere sviluppati e utilizzati solo in modi che servano il bene sociale e ambientale globale, come determinato da risultati di processi democratici deliberativi. Ciò implica che essi dovrebbero essere progettati in modo che i loro effetti si allineino con una pluralità di fondamentali valori e diritti umani. Le applicazioni dell’IA e della robotica non dovrebbero porre rischi inaccettabili di danni agli esseri umani e non devono compromettere la salute umana, la libertà e l’autonomia dell’essere umano, riducendo illegittimamente e surrettiziamente le opzioni per la conoscenza dei cittadini.

[21] L’IA dovrebbe contribuire alla giustizia globale e alla parità di accesso ai benefici e alle vantaggi che l’IA, la robotica e i sistemi “autonomi” possono portare. I pregiudizi discriminatori (“bias”) nei set di dati utilizzati per addestrare e far funzionare i sistemi di IA dovrebbero essere prevenuti o rilevati, segnalati e neutralizzati al più presto possibile.

[22] Le decisioni chiave sulla regolamentazione dello sviluppo e dell’applicazione dell’IA dovrebbero essere il risultato di un dibattito democratico e di un impegno pubblico.

[23] Lo stato di diritto, l’accesso alla giustizia e il diritto a un ricorso e a un processo equo prevedono il quadro necessario per garantire il rispetto dei diritti umani standard e potenziali normative specifiche per l’IA. Ciò include le protezioni contro i rischi derivanti da sistemi “autonomi” che potrebbero violare diritti umani, come la sicurezza e la privacy.

[24] La sicurezza e la protezione dei sistemi “autonomi” si concretizza in tre forme: (1) sicurezza esterna per l’ambiente e gli utenti, (2) affidabilità e robustezza interna, ad esempio contro l’hacking, e (3) sicurezza emotiva con rispetto all’interazione uomo-macchina.

[25] In un’epoca di onnipresente e massiccia raccolta di dati attraverso il digitale tecnologie della comunicazione, il diritto alla protezione dei dati personali e il diritto al rispetto della privacy sono messi in discussione. Sia il robot della IA sia quello che è parte dell’Internet delle Cose, così come i softbot di IA che operano attraverso il World Wide Web devono rispettare la protezione dei dati e non raccogliere e diffondere dati o essere eseguito su set di dati per il cui uso e la cui diffusione non ha dato il consenso informato. I sistemi “autonomi” non devono interferire con il diritto alla vita privata che comprende il diritto di essere liberi da tecnologie che influenzano il personale sviluppo e le opinioni, il diritto di stabilire e sviluppare relazioni con altri esseri umani e il diritto di essere liberi dalla sorveglianza della macchina.

[26] La tecnologia dell’IA deve essere in linea con la responsabilità umana di garantire i prerequisiti fondamentali per la vita sul nostro pianeta, continuando a prosperare per l’umanità e la conservazione di un buon ambiente per le generazioni future.

[27]Disponibile on line: https://ec.europa.eu/transparency/regdoc/rep/1/2019/IT/COM-2019-168-F1-IT-MAIN-PART-1.PDF   Cfr.  in argomento S. Crisci, Intelligenza artificiale ed etica dell’algoritmo, in Foro amm., fasc. 10/2018.

[28] Sulle difficoltà di implementare, comunque, i sistemi di IA e renderli davvero efficaci, con le relative implicazioni giuridiche, C. Coglianese – D. Lehr, Regulating by Robot: Administrative Decision Making in the Machine-Learning Era, in Georg. Law Journal Online, 2017 (vol. 105/5).

[29] Quali, la volontà di restare nei pressi della propria residenza abituale o evitare spostamenti e trasferte familiari.  Esigenza avvertita dallo stesso Consiglio di Stato che, in altro collegato contenzioso, aveva ad esempio ordinato in sede cautelare al MIUR di rivalutare le domande dei docenti “con precisione e rigore, al di là di automatismi informativi d’altro tenore, di offrire agli appellanti sedi disponibili in loco più coerenti con il loro profilo lavorativo e le loro richieste” (Ordinanza n. 3082/2017).

[30] Ben più tranchant appare in questo senso il giudizio (negativo) sull’uso dell’algoritmo nel procedimento amministrativo da parte della sentenza di primo grado n. 9230/2018 del TAR Lazio, che è stata non a caso confermata ma con altra motivazione.

[31] Sentenza della Corte Suprema del Wisconsin (Wisconsin v. Eric L. Loomis) 13 Luglio 2016 in httpps://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690

[32] S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, 2019, 4.

[33] Per esempio, Ed Yong, A che servono gli algoritmi nei tribunali statunitensi, pubblicato su Internazionale il 16 febbraio 2018.

[34] F.  Patroni  Griffi, La  decisione  robotica  e  il giudice  amministrativo,  in https://www.giustizia-amministrativa.it. (28.08.2018), p. 5

[35] Riferimenti in L. Floridi, op. cit., p 216 e ss.. Per una visione d’insieme, trasparenza e accesso dei cittadini, B.G. Mattarella-M. Savino, L’accesso dei cittadini: Esperienze di informazione amministrativa a confronto, Napoli, 2018; S. Civitarese Matteucci – L. Torchia, La Tecnificazione, ne “A 150 anni dall’unificazione amministrativa, Studi, a cura di L. Ferrara e D. Sorace, vol. IV, Firenze, 2016 ed ivi  M. D’Angelosante, La consistenza del modello dell’amministrazione ‘invisibile’ nell’età della tecnificazione: dalla formazione delle decisioni alla responsabilità per le decisioni, p. 165.; F. Cardarelli, Amministrazione digitale, trasparenza e principio di legalità, in Il diritto dell’informazione e dell’informatica, 2015, 2.

[36] Un bias cognitivo è uno schema di deviazione del giudizio che si verifica in presenza di certi presupposti.

[37] Cfr. D.U. Galetta – J.G. Corvalan, Intelligenza artificiale, per una p.a. 4.0? Potenzialità, rischi esfide della rivoluzione tecnologica in atto, in Federalismi.it 3/2019 (http://www.federalismi.it); G. Avanzini, op. cit., p. 94. Sulla relazione ammissibilità dell’uso delle ICT, in quanto riconducibile alla generale fase di riduzione della discrezionalità, cfr. R.Villata-M.Ramajoli, Estratto da Il provvedimento amministrativo, Torino, 2017, 184 e ss..

[38] Depone, del resto, in questo senso anche l’art. 12, comma 1, del codice dell’amministrazione digitale.

[39] Sul valore della discrezionalità amministrativa e delle differenti nozioni interesse e relativa cura, solo un rinvio a G. Corso, Manuale di diritto amministrativo, Torino, 2017.