di Salvatore Nucera

1. Intelligenza artificiale: una sfida etica in attesa di riforme.

L’intelligenza artificiale (IA) è oggi considerata una tecnologia essenziale per gli sviluppi economici e sociali del prossimo futuro. È sotto gli occhi di tutti come essa sia di comune utilizzo in numerosi settori, come quello sanitario, meccanico ingegneristico, aziendale e così via. Il suo impiego permette, in linea con lo spirito della quarta rivoluzione industriale, di massimizzare l’efficienza dei processi, attuando compiti che un tempo appartenevano al solo dominio della mente umana, in modo più rapido e – molte volte – anche più corretto. Tuttavia, come ogni rivoluzione industriale che si rispetti, essa non può non essere accompagnata da un’adeguata riforma normativa, volta ad individuare gli strumenti di regolazione idonei per evitare, da un lato, possibili pregiudizi derivanti dall’uso improprio di questa tecnologia e, dall’altro, per renderla accessibile a quanti vogliano farne uso. È in tal senso che la comunità internazionale – in primis con numerosi interventi del Consiglio d’Europa (c.d. Grande Europa) e dell’Unione Europea, ed in secondo luogo con la collaborazione delle principali Big Tech Corporation – si è spesa negli ultimi tempi per tratteggiare i confini di un’IA che sia umano-centrica, nel pieno di rispetto dei principi di inclusione sociale, imparzialità, accountability, sicurezza, privacy e trasparenza. 

Prima di passare in rassegna i passi compiuti sino ad ora nella regolazione dell’Intelligenza Artificiale, è necessaria una breve introduzione sulla nozione di questa tecnologia. L’IA in linguaggio tecnico può essere definita come un “sistema euristico”, ossia un sistema che raccoglie dati, che registra informazioni, per scegliere quelle più appropriate a risolvere un certo compito (c.d. task) in modo più o meno casuale. Per poter gestire queste informazioni l’IA viene allenata mediante un processo che prende il nome di machine learning, per cui la macchina è capace di registrare e “ricordare” i singoli passaggi per raggiungere il task, riconoscendo gli errori commessi al fine di non ripeterli, fino a raffinare sempre di più il proprio funzionamento. Il machine learning si avvale di algoritmi, ossia formule matematiche, finalizzati a correggere gli errori, rendendo l’IA più affidabile e rapida nelle sue operazioni. 

Alla luce di tante novità, i legislatori ed i policy maker di tutto il mondo si sono ritrovati sprovvisti di strumenti adeguati a comprendere – prima – ed a regolare – poi – i fenomeni che avrebbe portato con sé questo tsunami tecnologico. Ciò non deve sorprendere: è noto, infatti, come il diritto arrivi dopo i fatti, che ne costituiscono il presupposto applicativo. Questo vale, a maggior ragione, nel contesto tecnologico odierno, caratterizzato da una sempre più repentina evoluzione. Pertanto, da una principale assenza di regolamentazione, si è passati ad una maggiore consapevolezza della reale portata dell’IA, del suo potenziale e dei rischi connessi ad un suo uso improprio. Il dibattito sull’IA è infatti divenuto una questione più di metodo che di merito. Difatti questa tecnologia non può che portare miglioramenti al tenore di vita delle persone. Ma come i coltelli, che se ben affilati sono, da un lato, un utilissimo strumento, dall’altro, un’arma micidiale, allo stesso modo l’IA potrebbe diventare non solo lo strumento più potente del XXI secolo, ma anche la sua arma più pericolosa. 

È in questo senso che dagli ultimi anni a questa parte sono state numerose le iniziative volte a definire alcuni principi comuni, affinché si tracciassero le coordinate per un impiego etico dell’IA. Sebbene fino ad ora non vi sia un testo di c.d. hard law che disciplini in modo organico l’utilizzo di tale tecnologia, in queste prime iniziative si iniziano a scorgere i primi segnali per gettare le basi di una riforma trasversale, destinata ad essere coniata nella prossima decade. Fino ad allora, un importante appiglio di tutela per cercare di rimediare agli eventuali abusi di tali tecnologie resta il Regolamento Generale sulla Protezione dei Dati Personali (GDPR), al cui interno sono ricomprese alcune disposizioni utili a responsabilizzare gli operatori del settore, tutelare gli utenti e favorire non solo la protezione dei dati personali, ma anche la loro libera circolazione (ar.1 GDPR). Tale strumento, divenuto un vero e proprio benchmark globale in materia, ci ricorda infatti che l’IA necessita di un carburante essenziale per poter funzionare, ossia i dati. Come si vedrà infra nel presente lavoro, il Regolamento non è un testo normativo sufficiente a disciplinare tutti le possibili innovazioni apportate dall’IA, che sfruttano dati anche non personali e quindi estranei al suo ambito di applicazione. Tuttavia, sarebbe un errore non ammettere che i dati personali, in particolare quelli c.d. particolari o sensibili, sono particolarmente pregevoli e costituiscono una fonte d’informazioni privilegiata e meritevole della dovuta tutela. È così che il Regolamento dispone una disciplina particolarmente stringente per il trattamento (c.d. data processing) dei dati particolari ex art.9 GDPR, nonché l’obbligo per il titolare del trattamento di effettuare una valutazione d’impatto (c.d. DPIA) ex art.35 GDPR se “un tipo di trattamento, [che prevede] l’uso di nuove tecnologie, considerati la natura, l’oggetto, il contesto e le finalità del trattamento, può presentare un rischio elevato per i diritti e le libertà delle persone fisiche”. Ciò che spaventa ed affascina di più dell’IA è la prospettiva per cui questa diventi sempre meno dipendente dal controllo umano, sempre più autonoma e capace di prendere decisioni automatiche. E’ su questo aspetto che si concentrerà il paragrafo successivo, cercando di fare breccia nel velo di Maya, sperando di far chiarezza tra apparenza e realtà, tra scienza e fantasia. 

2. I processi decisionali automatizzati ed i rischi collegati ai Big data

“Quando l’uomo uscì dalla grotta fu abbagliato dalla luce del Sole. L’unica cosa che fu in grado di fare fu abbassare lo sguardo al suolo, nell’attesa di riacquisire la vista. Lì vide, riflessa in uno stagno, la luce che lo aveva accecato. Insieme, vi scorse formule matematiche accompagnate da forme geometriche. Era la natura che si rivelava a lui, parlandogli con l’unico linguaggio che conosceva: quello dei numeri”. La parola digitale in francese si dice numérique e come ricordato dallo studioso Garapon, la revolution numérique (ossia la rivoluzione digitale) sta mutando in modo irreversibile la realtà economica e sociale del XXI secolo. Ed è questa la rivoluzione, successivamente a quella cognitiva, agricola ed industriale, che l’umanità si trova a fronteggiare, cercando di direzionarne gli effetti. 

Questa premessa è funzionale a comprendere l’attuale portata dell’IA e di come l’essere umano dovrebbe interfacciarsi con essa. Ed è proprio per definire questo rapporto che il diritto si pone l’obiettivo di costruire un dialogo tra macchine ed essere umano. Certamente lo stato della normativa vigente desta non poche preoccupazioni, non essendo previste disposizioni internazionalmente riconosciute e cogenti in materia di IA, come già anticipato supra. L’unica disposizione de iure condito presente in materia è quella prevista dal Regolamento europeo sulla protezione dei dati, allorquando questo fa riferimento all’utilizzo di processi decisionali automatizzati relativi alle persone fisiche, compresa la profilazione (art.22 GDPR). La norma in questione – per il cui approfondimento sostanziale si rinvia ad altra sede – presenta non solo vari elementi di complessità, ma anche notevoli lacune. È infatti bene precisare sin d’ora che le Internet Comunication Tecnology (ICT), ossia tutti quegli strumenti che si avvalgono anche dell’IA per il proprio funzionamento, registrano ed elaborano un enorme ammontare di dati, i c.d. Big data. Questi ultimi secondo parte della dottrina, sono tradizionalmente descritti attraverso il riferimento alle quattro “v”: volume, velocity, variety e veracity. A queste se ne aggiungerebbero: una quinta, ossia quella di value, essendo in effetti cruciale il momento in cui si riesce ad estrarre una qualche utilità pratica dai dati raccolti; ed una sesta, ossia quella di validation, che sta ad indicare l’esigenza per cui l’insieme finale dei dati acquisisca un senso autonomo ed ulteriore rispetto alle singole informazioni di cui tale massa si compone.  Tali Big data non ricomprendono solo i dati personali, gli unici ad essere tutelati dal GDPR, bensì diversi tipi di dati, fino a ricomprendere: a) i dati personali, disciplinati dal GDPR e definiti all’art. 4 lett.a) del Regolamento; b) i dati non personali, ossia tutti quei dati che non rientrano nel campo di applicazione del Regolamento – poiché non attribuibili ad una persona identificata o identificabile – ma che vengono comunque acquisiti dalle ICT; c) i dati inferenziali, detti anche inferred data o new born data, ossia tutti quei dati che la tecnologia ha acquisito né attivamente né passivamente dall’ambiente circostante, ma che sono frutto dalla rielaborazione dei dati personali e non personali già acquisiti. Pertanto, l’art.22 GDPR già oggi non rappresenta più quel baluardo per tutelare i singoli dalle conseguenze pregiudizievoli legate ai processi decisionali automatizzati, essendo applicabile ai soli dati personali.

D’altro canto, ci si chiede come una singola norma possa davvero proteggere la collettività degli individui alla luce della pervasività delle ICT. Sarebbe auspicata una riforma generale che tenda a limitare i rischi legati all’utilizzo di questi strumenti, a rendere maggiormente consapevoli gli utenti ed a rinsaldare la resilienza delle reti, costantemente minacciate da sempre nuovi attacchi informatici. Su questi ultimi aspetti si è aperto un dibattito particolarmente sentito, ossia quello inerente alle prospettive dell’impiego delle ICT ai fini di sorveglianza. L’utilizzo di sensori, telecamere e dati di traffico telefonico è infatti sempre più nel mirino dei governi per garantire un’azione di monitoraggio del territorio più efficiente. Una particolare applicazione in questo campo sono le facial recognition tecnology (FRT), già da tempo diffusamente utilizzate negli aeroporti, con finalità antiterroristica. Oggi la dimensione del fenomeno è diventata particolarmente ampia, se si pensa che le FRT vengono utilizzate in diverse varianti, a seconda che si utilizzino a fini di “verificazione”, c.d matching one-to-one, in cui due immagini vengono confrontate per risalire all’identikit di un volto ignoto oppure di vera e propria “identificazione”, c.d. matching one-to-many, in cui l’identità di un volto ignoto viene ricostruita confrontandola con le immagini conservate in grandi database. L’utilizzo delle FRT, particolarmente legate ai dati biometrici, può trovare una base giuridica anche nello stesso GDPR nonché, in Italia, in alcune norme del novellato d.lgs. 196/2003 (c.d. Codice della protezione dei dati personali o Codice della privacy). L’impiego delle tecnologie biometriche sembra infatti tendere verso una rapida espansione. In particolare, di recente ci sono stati i primi esperimenti nell’ambito dell’educazione scolastica: i dispositivi FRT sarebbero stati utilizzati anche per registrare le presenze a scuola, sia in Svezia che in Francia. Sennonché, l’entusiasmo legato alle novità apportate da queste tecnologie è stato, a ragion veduta, smorzato dalle autorità deputate al rispetto delle norme in materia di protezione dei dati personali, ossia le autorità garanti e le corti. L’utilizzo delle tecnologie FRT sarebbe infatti da ritenersi sproporzionato tutte le volte in cui si riescano ad adottare degli strumenti alternativi per raggiungere il medesimo fine, senza mettere a repentaglio la sicurezza digitale ed informatica degli studenti. Da questa prospettiva, per cui la normativa è ancora acerba per affrontare le sfide tecnologiche che incalzano sempre più velocemente, è chiaro che un ruolo fondamentale lo avrà la giurisprudenza, di concerto alle autorità di controllo, nonché ai vari attivisti, associazioni ed in generale alla società civile.

3. L’intervento umano come freno d’emergenza nelle situazioni ad alto rischio: cercando un bilanciamento tra uomo e macchina.

L’avanzamento tecnologico digitale offre sempre nuovi orizzonti da esplorare, in bilico tra stupore e timori. Le ICT basate sull’IA necessitano della maggiore quantità di dati possibile, determinando la creazione di un rapporto penetrante e pervasivo con la realtà circostante. Questi strumenti (smartphones, wearebles, automated vehicles, tecnologie cloud e così via), comunicando gli uni con gli altri essendo tra di loro interoperabili, permettendo di ottenere risultati in passato impensabili. Inoltre, con la diffusione di una qualità della connessione sempre maggiore, in particolare, attraverso la tecnologia 5G, da qui alla prossima decade si possono già fare delle previsioni di crescita esponenziale con riguardo all’efficienza dell’ecosistema digitale.

Tuttavia, come anticipato nel paragrafo precedente, il trattamento dei dati elaborati dalle ICT è un’attività intrinsecamente rischiosa, poiché tali strumenti funzionano in modo complesso e, di conseguenza, difficilmente spiegabile e correggibile in caso di malfunzionamenti. 

È in questo senso che nel presente paragrafo ci si soffermerà sul seguente interrogativo: esiste un principio generale per cui sia sempre concesso l’intervento umano nei processi automatizzati dall’IA? E se sì, quali conseguenze potrebbe avere un tale intervento? Al fine di rispondere a queste domande, sarà necessario prima ricercare tra le fonti giuridiche attualmente vigenti degli appigli normativi sufficientemente solidi, per poi focalizzarsi su delle possibili applicazioni pratiche, guardando con un occhio al presente e con l’altro ad un prossimo futuro.

3.1 L’intervento umano: un principio generale da usare nei casi di extrema ratio

Ipotizzare l’esistenza di un principio generale è un’opera complessa, che non può prescindere da un’analisi sistematica delle disposizioni in cui il principio viene enunciato. A tal proposito, non sono poche le occasioni normative in cui si fa riferimento all’intervento umano come garanzia di libertà nei processi decisionali automatizzati. Se ne trova riscontro nel già citato art. 22 GDPR, quanto nella direttiva 680/2016, all’art.11 (poi trasfuso nell’art.8 del d.lgs. 51/2018). In entrambe le disposizioni il legislatore europeo richiede che siano garantite “delle misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi” dell’interessato. Nel far ciò, viene fatto puntuale riferimento al “diritto [per l’interessato] di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione”. 

A queste fonti di diritto derivato dell’Unione si è aggiunta la Convenzione 108 Plus del Consiglio d’Europa, un’importante ed attesa modifica normativa che ha restaurato la Convenzione 108/1981, il primo corpo normativo che si sia occupato di decisioni automatizzate, adeguandolo alle innovazioni tecnologiche del XXI secolo. Con quest’ultimo intervento, anche la Grande Europa riconosce, ad esempio, come il trattamento automatizzato di dati sensibili – compresi i biometrici di cui si è fatto prima cenno – possa comportare dei pregiudizi discriminatori, basati sulle origini etniche, sulle opinioni politiche, sulla religione, sull’orientamento sessuale e così via. È in tal senso che il testo della Convenzione impone, all’art.9 par.1, let. a), che ogni individuo “shall not to be subject to a decision significantly affecting him or her based solely on an automated processing of data without having his or her views taken into consideration”, salvo che – e questo passaggio è di cruciale importanza – il singolo Stato membro non garantisca “suitable measures to safeguard the data subject’s rights, freedoms and legitimate interests”. E’ in questo rapporto regola-eccezione, riproposto a più riprese nelle disposizioni richiamate, che si fonda il corrispettivo rapporto uomo-macchina a cui è dedicata la presente analisi. Infatti, qualora il trattamento dei dati – vuoi per la sua complessità o per ragioni di efficienza – dovesse essere automatizzato, sarà necessario garantire dei rimedi ex ante o ex post per limitare (e per quanto possibile, sanare) le conseguenze negative di tale trattamento.

Infine, anche la European Union Agency for Fundamental Rights (FRA), in un recente report, ha dato risalto al ruolo dell’intervento umano nelle decisioni automatizzate e cercando di capire in che limiti questo possa rendersi veramente utile. In effetti, tracciare adeguatamente un perimetro dell’agire umano nei processi automatizzati comporta dei problemi di non poco momento. Qualora questo fosse eccessivamente presente, si comprometterebbe l’efficienza tipica di tali strumenti automatizzati, rallentandone la produttività. Qualora invece il controllo umano venisse del tutto a mancare, non sarebbe possibile porre rimedio agli eventuali malfunzionamenti della macchina intelligente.

Alla luce di queste preliminari considerazioni, l’intervento umano sembra essere visto come un’eventualità estrema, ma necessaria in tutti quei casi in cui le tecnologie basate sull’IA producano un output inatteso, discriminatorio, abnorme e dunque non accettabile, poiché non conforme alle premesse per cui quella tecnologia era stata impiegata. Tale principio è però in attesa di un pieno riconoscimento a livello sovranazionale. A ben vedere, la questione sull’IA – come suggerito dal Garante della privacy italiano – oggi è necessaria una “nuova fase di costituzionalizzazione in proiezione moderna, che abbia lo scopo di orientare la progettazione, lo sviluppo e l’utilizzazione delle soluzioni di intelligenza artificiale in una direzione eticamente e giuridicamente sostenibile”

3.2 L’intervento umano nei processi decisionali automatizzati: alcuni casi pratici

La sempre più rapida evoluzione tecnologica svela una delle sfide più grandi del XXI secolo, ossia quella di capire come articolare il rapporto uomo – macchina. A ricordarlo è stato lo stesso Presidente di IBM, per cui è finalmente venuto il momento “to don’t put people versus machines, but to put people and machines doing things that neither one of them can do on their own”.

È così che già ad oggi si possono contare numerose applicazioni pratiche dell’IA in vari contesti, anche particolarmente delicati, quali la giustizia predittiva ed il monitoraggio dei lavoratori.  In ognuno di questi settori – sebbene con modalità diverse – l’utilizzo dell’IA ha comportato delle riflessioni di carattere tecnico, etico e giuridico. In particolare, il dibattito si è focalizzato sulla qualità dei dati oggetto di elaborazione, sulla loro veridicità e dunque utilizzabilità per l’assunzione di una decisione. 

Con riguardo all’impego della giustizia predittiva, che ha avuto maggiore sviluppo soprattutto negli USA, è quello dei c.d. risk assessment tool, ossia dei software capaci di predire una decisione giudiziaria attraverso l’analisi di grandi database. Di questi strumenti se ne è fatto utilizzo anche in Europa. In particolare, la giustizia civile estone si serve di un algoritmo per risolvere le cause fino ad un ammontare di 7.000 euro, mentre in Francia è stato sperimentato un software sviluppato dalla società Predictice, specializzata in legtech, in grado di analizzare il testo delle sentenze della cassazione francese con risultati decisamente interessanti. Se da un lato l’utilizzo di tali strumenti di giustizia predittiva sembra essere la soluzione definitiva  digitale – e con ogni probabilità, lo sarà – alle lungaggini dei processi ed all’ingolfamento della macchina giudiziaria, salvata dalla rivoluzione digitale, dall’altro non poche sono le riserve di chi teme gli eventuali effetti collaterali legati all’abuso di queste tecnologie. Le principali censure sono due e in particolare: il rischio ad essere sottoposti ad una decisione basata su dati errati o mal elaborati dal software, il quale potrebbe dare maggior peso a dati inerenti all’origine etnica, all’ubicazione della residenza, alle opinioni politiche od agli stessi gusti, con evidenti chine scivolose discriminatorie; l’impossibilità di appellare una decisione algoritmica, essendo questa priva di motivazione spiegabile ed intellegibile, secondo il canone della black box, per cui le uniche informazioni controllabili, rettificabili o cancellabili, sono i dati inseriti per ottenere quel determinato output, ossia – in questo caso – la sentenza. In questo contesto, in cui si sta ragionando se le macchine intelligenti sostituiranno o affiancheranno l’opera degli esseri umani, per il momento c’è chi sostiene che di certo per le cause di più semplice risoluzione l’utilizzo di tali software potrà certamente rappresentare un ausilio utile a smaltire l’arretrato e comunque garantire un buon servizio alla giustizia, proprio perché permetterà ai giudici di concentrarsi sulle cause di maggiore complessità. E tuttavia, davanti ad un possibile pregiudizio causato dall’errore dell’algoritmo, dovrebbe essere garantito, almeno nei casi più evidenti, il ricorso all’essere umano, affinché questi corregga ed integri la decisione della macchina, concorrendo in qualche misura all’apprendimento e miglioramento di quest’ultima. 

Un secondo esempio in cui l’IA e la circolazione dei dati personali è ritornato ad essere sotto le luci della cronaca è quello del monitoraggio da remoto dell’attività lavorativa. Difatti la recente emergenza pandemica da COVID-19 non solo ha intensificato il ricorso allo smartworking, ma anche reso maggiormente tracciabili i comportamenti dei lavoratori. A questi ultimi vieni così richiesto un livello di efficienza superiore al passato, e questo spesso sulla base di criteri automatizzati, spesso incapaci di contestualizzare l’attività prestata e quindi di venire in contro alle esigenze del singolo lavoratore. In un mondo in cui i parametri di efficienza sono visti come l’unico valore prevalente, almeno dal punto di vista del mercato, c’è chi ha saggiamente riflettuto sull’esigenza di riconoscere un c.d. diritto alla disconnessione, una vera e propria prerogativa necessaria a garantire quegli elementi minimi per garantire un benessere psico fisico al lavoratore, a tutela non solo della sua riservatezza, ma anche e soprattutto della sua dignità. Anche in questo caso, per correggere le anomalie causate dalla tecnologia algoritmica, l’intervento umano sembra essere l’unica alternativa valida. Tuttavia, in assenza di una normativa generale, che affronti in modo compiuto anche gli aspetti lavorativi legati all’IA, quid iuris? Una risposta, ed una speranza, sono state offerte da una recentissima ordinanza del Tribunale ordinario di Bologna, sezione Lavoro, depositata in data 31 dicembre 2020. In questo provvedimento il Tribunale intimava una condotta scorretta alla società Deliveroo Italia s.r.l. poiché l’algoritmo utilizzato dalla stessa avrebbe discriminato i rider iscritti alla piattaforma. In sintesi, l’algoritmo di Deliveroo privilegerebbe i rider che si rendono più spesso disponibili, fornendo loro un numero maggiore di corse, con i relativi compensi. Viceversa, ai rider che disattivino – per qualsiasi ragione – l’applicazione, l’algoritmo proporrebbe meno corse, con guadagni via via inferiori. Il problema sarebbe derivato dall’impossibilità dell’algoritmo di distinguere tra i casi in cui il rider disattivava l’app per propria volontà, senza uno specifico motivo o giustificazione, dai casi in cui la disattivazione fosse legata ad un legittimo impedimento, come un motivo di salute, oppure l’esercizio del diritto di sciopero. È in tal senso che la clausola del contratto di Deliveroo, con la rispettiva funzione algoritmica, per cui ad una minore disponibilità del rider corrispondeva una minore segnalazione di consegne è stata dichiarata illegittima, determinando una c.d. discriminazione indiretta.

4. Conclusioni.

Tirando le fila del discorso, il quadro che emerge è chiaramente destinato ad evolversi nel prossimo futuro. Nell’attesa di una riforma generale sull’IA, gli appigli normativi forniti dalla disciplina in materia di protezione e libera circolazione dei dati personali, insieme alle decisioni delle varie autorità Garanti oltre che alle numerose fonti di soft law potranno fornire agli operatori del mercato ed agli interpreti le basi sufficienti per trovare le soluzioni ai problemi economici e sociali della vita 3.0. D’altronde, come ogni grande cambiamento, anche l’ascesa tecnologica che ci attende porterà con sé conseguenze al momento imprevedibili, ma anche benefici un tempo impensabili. Affinché questo enorme potere non ricada in forme di abuso egoistico – come per altro accaduto in passato per delle tristemente note ricorrenze politiche –, i dati in quanto informazioni diffuse in rete dovranno essere trattati sotto una triplice lente, che sia scientifica, giuridica ed etica. In particolare, quest’ultimo requisito sarà di particolare importanza, poiché fungerà da coordinata e parametro ulteriore e necessario al fine di perseguire quella “funzione sociale” dei dati personali auspicata dal Considerando n.4 del GDPR. Non è impensabile, infatti, immaginare una nuova logica con cui impiegare i dati personali, i quali non sono di proprietà della persona, ma – in qualche misura – “sono” la persona a cui si riferiscono. È seguendo l’ideale di questa nuova dimensione, che prende il nome Infosfera, che l’umanità dovrà orientarsi, solcando acque sconosciute, avendo ormai capito una grande verità. Quella per cui “noi” non siamo più soli, bensì parte di una grande complessità. È una grande sfida, forse la più grande che la storia ci abbia mai prospettato finora, che potrà essere vinta solo seguendo le coordinate della sostenibilità ambientale e tecnologica. Una sinfonia di arti e di scienze, destinata a cambiare per sempre il destinato dell’umanità.

Bibliografia

Caia A., sub. art.22, in RICCIO G. M., SCORZA G. E BELISARIO E. (a cura di), Commentario

Cecamore F., in Riccio G. M., Scorza G. e Belisario E. (a cura di), GDPR e normativa privacy, Commentario, 2018

Chang Z., Cyberwarfare and International Humanitarian Law, in Creighton Int. and Comp. Law Journal, vol. 9, no. 1, Dicembre 2017

Festa M., Intelligenza artificiale: la Convenzione c.d. 108+ e le Linee Guida italiane, in Pluris – Quotidiano Giuridico, 3 maggio 2019

Finck M., Pallas F., They who must not be identified—distinguishing personal from non-personal data under the GDPR, in Oxford Journal, International Data Privacy Law, 2020, Vol. 10, No. 1

Floridi L., Il verde e il blu, Idee ingenue per migliorare la politica, 2020, Milano

Floridi L., La quarta rivoluzione, Come l’infosfera sta trasformando il mondo, Milano, 2017

Garapon A., Lassègue J., Justice Digitale: Révolution Graphique et Rupture Anthropologique, in Paris: Presses Universitaires de France, 2018

Harari Y. N., Sapiens, Da animali a dèi, Breve storia dell’umanità, 2011

Intervento del Garante, Algoritmi e intelligenza artificiale. “Gli uomini sbagliano ma è ciò che li rende superiori alle macchine, in Il Dubbio, 2 dicembre 2020

Kaiser B., Targeted: The Cambridge Analytica Whistleblower’s Inside Story of How Big Data, Trump, and Facebook Broke Democracy and How It Can Happen Again, New York, 2019

Liu H., Lin C., Chen Y., Beyond State v Loomis: artificial intelligence, government algorithmization and accountability, in Inter. J. of Law and Inf. Tech., 2019, 27, [122–141]

Mauro T., I Big data tra protezione dei dati personali e diritto della concorrenza, in Panetta R. (a cura di), Circolazione

McKay C., Predicting risk in criminal procedure: actuarial tools, algorithms, AI and judicial decisionmaking, Curr. Iss.in Crim. Jus. 2020, vol. 32, n. 1, [22–39]

Omarchi V., Intelligenza artificiale e data protection al tempo delle tecnologie di riconoscimento facciale, in Pluis – Quotidiano, 19 maggio 2020

Paolucci F., Riconoscimento facciale a scuola: il caso francese, in Ius in Itinere, 8 Dicembre 2020

Pasquale F., The black box society, Harvard University Press, 2015

Platone, Repubblica

Reale G., Antiseri D., Storia della filosofia, Dall’antichità alla scolastica, 2016

Ricci A., Il trattamento dei dati personali per finalità di prevenzione, indagine, accertamento e perseguimento di reati. Riflessioni sul d.lgs. 18 maggio 2018, n.51, di attuazione alla dir. 2016/680/UE, in L. N. C. C., n. 3, 2019 [565-598]

Sapuppo V. G., Predictive: l’algoritmo che condanna, in Salvis Juribus, 11 novembre 2020

Sartore F., La valutazione d’impatto nel GDPR, in Panetta R. (a cura di), Circolazione e protezione dei dati personali, tra libertà e regole del mercato, 2019

Simoncini A., L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, n. 1/2019

Tegmark M., Vita 3.0, essere umani nell’era dell’intelligenza artificiale, 2018

URSIC, H. (2018). Unfolding the new-born right to data portability: Four gateways to data subject control. SCRIPTED: Journal of Law, Technology and Society, 15(1), [42-69]

Vedaschi A., Intelligenza artificiale e misure antiterrorismo alla prova del diritto costituzionale, in Consulta Online, 17 febbraio 2020

Zuboff S., The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Londra, 2019