Sommario: 1. Una premessa metodologica: differenza ontologica tra “informatica giuridica” e “intelligenza artificiale e diritto”. – 2. Il nuovo mondo “globale” e l’avvento delle nuove coordinate tecnologiche: de-materializzazione, de-spazializzazione e de-temporalizzazione. – 3. La differenza ontologica tra ordinamento elettronico e ordinamento giuridico. – 4. I valori giuridici e la variabili algoritmiche: profili “algor-etici” e pregiudizi dei pregiudizi (c.d. bias dei bias). – 5. Panoramica generale sulla responsabilità delle macchine e tripartizione categoriale. La responsabilità algoritmica. – 6. L’Intelligenza Artificiale e il processo. Dall’algoritmo “predittivo” e il relativo vulnus nella tutela giudiziale della persona all’algoritmo “ausiliario”. Cenni sul c.d. “algoritmo captativo”. – 7. L’Intelligenza Artificiale e il principio di uguaglianza. L’algoritmo “discriminatorio” e l’algoritmo “caporale”. – 8. L’Intelligenza Artificiale e la cura della persona umana. L’algoritmo “protettivo”. – 9. La necro-robotica eticamente orientata. L’Intelligenza Artificiale e la tutela “psicologica” della persona. – 10. La tutela della persona nella dimensione neuro-scientifica. L’habeas mentem e la c.d. privacy neuronale. – 11. L’Intelligenza Artificiale e il diritto civile: primissimi spunti ricostruttivi in tema di smart contract, arbitraggio elettronico, eredità digitale e circolazione post mortem dei dati personali. 12. Conclusioni. Per una coesistenza antropo-meccanica: i “principi di interazione uomo-robot”per una sempre più convinta centralità della persona umana. L’algoritmo “pensante” e l’uomo “antro-nomo”. L’algoritmo “definitorio” e l’algoritmo “ottimizzatore”.

  1. In prima battuta, è d’uopo differenziare, per una comprensione più attenta per il prosieguo della trattazione, l’informatica giuridica[1] dal rapporto intelligenza artificiale e diritto[2].

In merito alla prima questione, va subito detto che l’informatica giuridica è quella branca del diritto che, ormai da molti anni, si occupa dei meccanismi e degli strumenti tecnologici e digitali nel mondo del diritto in generale, specie quello processuale. Si pensi, infatti, al Codice dell’Amministrazione Digitale (d.lgs. n. 82/2005)[3], il quale, tra i tanti, prevede gli istituti della “firma digitale” e del “documento elettronico”, soffermandosi sulla loro disciplina e sui loro risvolti validistici e probatori[4].

Si ponga mente, ad esempio, anche a tutta la gestione telematica (mezzi tecnologici per il funzionamento del diritto) relativa ai processi. Oltre alla normativa in tema di processo civile telematico[5] (c.d. PCT), vi è anche una serie di strumenti tecnologici che possono coadiuvare gli operatori del diritto, come per esempio i servizi Italgiure Web[6], Sentenze Web[7], Sigico[8] e il CED[9].

In merito alla Corte di Cassazione[10], vertice di legittimità nell’ordinamento, i servizi Italgiure e Sentenze Web, meccanismi funzionali alla più veloce e fruibile ricerca delle sentenze, sono stati messi a punto proprio dal Centro Elettronico di Documentazione (CED)[11], il quale si occupa di “telematizzare” i procedimenti e rendere quanto più funzionale il servizio-giustizia[12].

Allo stesso modo, anche la Corte costituzionale[13], la quale, aiutata dagli uffici informatici, ha “digitalizzato” tutte le procedure – specie nel contesto emergenziale dovuto alla pandemia da Covid-19[14] –, dando la possibilità di accesso, non solo alle sentenze pubblicate, ma anche ai comunicati ufficiali della Corte[15], alle ordinanze di ammissibilità o meno degli interventi (ad adiuvandum o ad opponendum[16]), oppure ancora alla possibilità telematica di usufruire delle ordinanze di ammissibilità o meno degli interventi degli amici curiae[17] o, ancora, di consultare, con delle credenziali di accesso[18], gli atti dei processi costituzionali (c.d. fascicolo elettronico[19]).

Questi citati sono soltanto alcuni casi di ciò che viene definita “informatica giuridica”, ovvero quell’insieme di norme che tendono a “digitalizzare” e, dunque, a snellire le fasi procedimentali e processuali[20].

Diversamente, invece, dall’informatica giuridica, vi è l’Intelligenza Artificiale[21], che contempla in sé svariate apparecchiature, mezzi, software, applicazioni, variabili che hanno un impatto vantaggioso – il più delle volte – ma anche – altre volte – svantaggioso sul sistema sociale e sulle persone[22]. Tale è la ragione per la quale i sistemi intelligenti vanno vagliati nella loro meritevolezza[23]. Bisogna comprendere, dunque, se questi siano in grado di essere “funzionali” allo sviluppo e alla tutela della personalità umana[24]. La meritevolezza meccanicistica, quindi, deve assurgere ad elemento valutativo necessario ed indefettibile per la costruzione – ciò che ci si augura – di un diritto intelligente per le persone[25].

  • La società nella quale ci si trova a risolvere conflitti[26] – che, se prima erano maggiormente visibili e percepibili tra persone, oggi sono anche tra persone e macchine artificiali[27] – è una società fortemente “globalizzata[28]”, nella quale è in atto una vera e propria “rivoluzione digitale[29]”.

Come si sa, il fenomeno della globalizzazione ha innescato un “accorciamento” della velocità inter-relazionale, in quanto, semplicemente con un click, oggi è possibile addirittura interfacciarsi con un’altra parte del mondo.

La sociologa del diritto Ferrarese, dopo Giddens, il quale già definiva la globalizzazione come un fenomeno di “abbassamento chilometrico delle relazioni[30]”, ha sottolineato che il fenomeno del diritto nel mondo globale sia da attribuire allo “spostamento della sovranità dagli Stati ai mercati[31]”.

Il mercato, che di per sé dovrebbe essere regolato dal diritto statale[32], nel mondo galoppante della globalizzazione[33], rischia di annichilire lo Stato, appropriandosi di una sovranità autolegittimante che impone misure economiche sregolate[34], talvolta – in realtà il più delle volte – sgretolanti la tutela piena della persona umana[35].  

Il diritto, ma ancor prima la persona, deve essere prius nella dinamica mercantile (lex mercatoria[36]) e regolare quanto più adeguatamente possibile il posterius del mercato[37].

Il diritto non può venire dopo, deve acquisire la capacità di “lungimiranza[38]”. È vero che “ex facto oritur ius”, ma è anche vero che le dinamiche sociali e tecnologiche in atto non possono che far muovere il diritto verso un approccio risolutorio-dinamico piuttosto che di inerzia, frutto di un immobilismo comodo[39].

I sistemi intelligenti hanno già mutato le coordinate spazio-temporali, nonché fisiche e mentali delle componenti umane[40]. Hanno penetrato il sistema, sempre più intriso di allocazioni fondate sulla velocità di accaparramento, portando a tre coordinate fattuali ormai evidenti: la de-materializzazione, la de-spazializzazione e la de-temporalizzazione.

L’Intelligenza Artificiale, dietro la quale vi è sempre l’uomo-elaboratore, non ha a che fare più con la dimensione tradizionale della materialità perché la trascende (dematerializzazione)[41].

Inoltre, il poter comunicare – come soprattutto il periodo emergenziale ha fatto percepire[42] – in qualsiasi modo possibile pur di raggiungere un uditorio internazionale, ha fatto venire meno le coordinate tradizionali dello spazio, circoscritto non più alla fisicità, ma alla dinamicità telematica che consente di rendere “spazio virtuale” l’ormai del quasi tutto assente “spazio fisico-relazionale[43]”. Inoltre, nei sistemi intelligenti non esiste tempo. Essi, salvo il click di spegnimento, sarebbero in grado di elaborazioni continue, frenetiche, con non pochi risvolti sulla salute e sullo sviluppo armonico della persona umana[44].

Vi deve, dunque, essere l’uomo (il giurista) capace di regolare, per quanto possibile, il mondo “sregolato” della tecnicità, con il mondo “al quanto regolato e regolatorio” della giuridicità.

  • Per cercare di dare delle risposte giuridico-sistematiche al mondo così tanto sregolato delle nuove tecnologie, è d’uopo soffermarsi sulla differenza ontologica, in quanto “contesto differenziale originario”, tra ordinamento elettronico[45] e ordinamento giuridico[46].

Il primo lo si può definire come l’insieme delle “regole regolanti” del mondo elettronico, fondato su variabili algoritmiche in grado di far funzionare i sistemi intelligenti, ma che non possono, per superare il vaglio di meritevolezza del raggiungimento della funzione della best human protection, non essere confacenti ai valori giuridici su cui, invece, si fonda l’ordinamento giuridico[47].

Quest’ultimo, infatti, è l’insieme delle regole che disciplinano i rapporti tra i soggetti attivi del sistema statale (aventi lo status primario di persona, e poi di cittadino[48]), fondato su “valori giuridici” (primi fra tutti i principi costituzionali e i diritti fondanti che nella Carta costituzionale sono contenuti[49] e, per interposto parametro[50], anche nelle Carte[51] e nei Trattati sovranazionali[52]).

Non si può pensare ad un sistema intelligente che prende decisioni non conformi ai valori giuridici dell’ordinamento nel quale opera[53]. In tal senso, infatti, l’homo informaticus (il soggetto professionalmente deputato alla programmazione dei software abilitativi dei sistemi intelligenti), dovrà farsi trasmettere correttamente i valori giuridici dall’homo juridicus da dover necessariamente introitare nella macchina[54]. Tale trasmissione permette il “passaggio iniettivo” da valore giuridico a variabile algoritmica meritevole di poter funzionare[55].

Il test di meritevolezza, dunque, deve essere svolto ab origine (ethics by design), durante e fino all’ultima possibilità di r-esistenza materiale della macchina (ethics by default)[56]. Su tali criteri va costruito anche tutto l’assetto sicuritativo, ovvero relativo alla protezione della privacy (by design e by default)[57].

  • Quanto detto nel paragrafo precedente, permette di differenziare – qualora non fosse ancora chiaro – i valori giuridici dalle variabili algoritmiche.

I primi sono il frutto della precettività dell’ordinamento giuridico[58] e vengono tradotti dal giurista e calati dal mondo dell’astrattezza al mondo del dinamismo ordinamentale[59]; le seconde, invece, sono le variabili presenti nei sistemi intelligenti nelle quali sono stati inseriti i valori di riferimento. Solo così una macchina intelligente può operare nel sistema, attraverso – ovviamente – un vaglio continuo di meritevolezza in quanto la macchina, oltre a contenere dei bias (pregiudizi interni, del tutto ontologici[60]), potrebbe contenere anche degli errori di trasmissione da valori a variabili (bias dei bias, ovvero pregiudizi di natura umana indotta, che vanno subito corretti, rettificati)[61].

Qualsiasi sistema intelligente dovrà sempre perseguire uno scopo “eticamente” accettabile[62] e tutte le variabili algoritmiche, nelle quali vi sia stata già l’“iniezione valoriale”, dovranno avere sempre la capacità di essere interpretate in maniera “eticamente” orientata[63].

Tale dimensione, come si vedrà, ha una forte ripercussione sui profili della responsabilità civile della macchina, laddove, non solo il produttore della macchina artificiale potrà essere chiamato a rispondere, ma anche il traduttore dei valori giuridici (giurista) e il programmatore/introiettore (informatico)[64].

  • La macchina, alla stessa stregua di una persona umana, può provocare dei danni[65], fisici (si pensi al campo dei robot sanitari[66]) o psichici (si pensi al caso del cyber-bullismo[67]), patrimoniali o non patrimoniali[68].

Quale, dunque, lo statuto responsabilistico delle macchine intelligenti?

Oltre alla Risoluzione del Parlamento europeo del 2017[69], vi sono state anche quelle dell’ottobre del 2020[70] e del gennaio 2021[71], le quali, individuando le linee guida in tema di robotica e responsabilità civile dei sistemi intelligenti, hanno cercato di far assurgere a principio fondamentale del sistema quello dell’accountability (responsabilizzazione[72]) allo stesso modo della disciplina relativa alla protezione dei dati personali[73], facendo così comprendere che la responsabilità debba essere intesa come “oggettiva”, stando anche alla disciplina dettata dalla Direttiva comunitaria sui prodotti difettosi[74].

Le Risoluzioni citate, inoltre, hanno stabilito che sia necessario prevedere un fondo economico per le persone che siano direttamente danneggiate dai sistemi intelligenti non dotati dell’assicurazione obbligatoria contro i danni. Ancora, vi è la previsione della dotazione, per ciascuna macchina, di un “certificato di conformità etica” che conferma esattamente le ragioni espresse nei paragrafi precedenti: il sistema intelligente quale costruito ontologicamente in senso etico[75].

Oltre alle dinamiche qualificatorie della responsabilità (si pensi alle ipotesi di applicazione dell’art. 2043, 2050 c.c.)[76], la proposta a cui qui si perviene è nella tripartizione soggettivo-categoriale che vede nel “traduttore” colui che traduce i valori giuridici, nel “produttore” colui che produce la macchina e nel “programmatore” colui che introduce le variabili algoritmiche. A tal proposito, anche la responsabilità civile sarà diversa a seconda dei soggetti inter-agenti nel processo artificiale. Si auspica, dunque, una costruzione della responsabilità algoritmica “caso per caso[77]”.  

Vi potrà essere, infatti, responsabilità del produttore semplicemente per un malfunzionamento della macchina e responsabilità del programmatore per “decisione finale errata”, non conforme ai valori giuridici effettivi, così come sopra descritti.

In merito al regime liberatorio, si può affermare che il produttore potrà provare di aver fatto tutto il possibile per evitare il malfunzionamento o di non essere a conoscenza dello stesso (magari perché un pezzo della macchina era stato commissionato ad altri). Quest’ultimo caso potrebbe configurarsi come un’ipotesi di responsabilità oggettiva del produttore con possibilità – da parte sua – di esercizio dell’azione di regresso[78].

Il programmatore, allo stesso modo, potrà provare di aver utilizzato tutta la diligenza necessaria per introiettare i valori giuridici nella macchina, salvo che non sia stato il traduttore (homo juridicus) a far introitare variabili algoritmiche riassuntive di valori giuridici errati. Anche questo caso si qualificherebbe quale ipotesi di responsabilità oggettiva con la possibilità di esercizio dell’azione di regresso.

Infine, il traduttore (giurista) potrà provare di aver tradotto i valori giuridici con la massima diligenza dovuta (art. 1176, co. 2, c.c.). In tale ultimo caso, l’ipotesi potrebbe anche essere quella di “responsabilità contrattuale” se il programmatore abbia stipulato un contratto di prestazione d’opera intellettuale con il traduttore medesimo[79].

  • Uno degli ambiti nei quali l’Intelligenza Artificiale sta mettendo piede in maniera preponderante è di certo quello processuale.

Due sono i campi delicati di intersezione tra I.A. e processo: il primo è rappresentato dalla decisione robotica (la quale, peraltro, può essere anche utilizzata in campo negoziale)[80]; il secondo, invece, dalla giustizia predittiva[81].

Si parta dal presupposto, molto caro a chi scrive, per cui un giudice-persona non potrà mai essere sostituito da un giudice-robot. Ciò per una ragione molto semplice: il giudice-persona ha una propria dignità umana, la quale, come corollario, comprende anche la dignità dell’intelletto, dalla quale discende la dignità del decidere[82]. Non si può pensare di scindere la dignità umana dalla dignità del decidere, in quanto la seconda è completezza e funzione della prima[83].

Nessuna previsione normativa – si veda, in tal senso, l’art. 101 Cost. – imprime il carattere artificiale alla giustizia[84]. “Il giudice è sottoposto solo alla legge”. Ma quale giudice? La Costituzione di certo non avrebbe mai pensato ad un giudice-robot, il quale avrebbe soltanto una dignità intellettiva, rappresentata dall’insieme di dati percepiti ed introitati, ma non quella umana che lo distingue dalla persona umana stessa. L’uomo, va ricordato, non è solo res cogitans, ma anche res extensa[85]. La macchina conosce il valore della “empatia umana”? Evidentemente, l’unica variabile “amorfa” della macchina è il non saper essere in relazione con la persona umana nella sua globalità. È dotata, dunque, di una c.d. “disaffezione” algoritmica[86].

È necessario che il giudice non venga sostituito dall’algoritmo, ma che l’algoritmo possa essere di aiuto al giudice. Inoltre, l’algoritmo può essere utilizzato dal giudice soltanto in alcune fasi procedimentali o processuali[87], ma sarebbe impossibile utilizzarlo nella fase decisoria. Oppure, ancora, per “captare” preventivamente delle situazioni di conflitto di interesse, specie nelle Pubbliche Amministrazioni[88], per evitare (e, dunque, alleggerire il carico giudiziario) le fasi di accertamento e di repressione (ove, necessariamente, l’uomo-giudice sarà chiamato a svolgere le proprie funzioni).

Il giudice-robot saprebbe decidere sulla base dei principi fondamentali del sistema ordinamentale? L’introiezione “guidata” dall’uomo potrebbe far pensare di sì. Ma i rischi, come quelli legati alla discriminazione decisoria[89], sono sempre in agguato[90].

  • Alcuni esempi, in ambito processuale, anche a livello comparatistico, possono far comprendere meglio e far pervenire ad una risposta complessiva al quesito con cui si è concluso il paragrafo precedente.

Si faccia riferimento al caso Compas[91]. Un algoritmo, nel Wisconsin, ha deciso che una persona “nera” fosse più propensa alla recidiva rispetto ad una persona “bianca”. Il motivo per cui lo ha deciso? Evidentemente perché la macchina algoritmica non sapeva ex ante (ethics by design) quale fosse il valore giuridico di riferimento sul quale intraprendere l’azione decisoria (principio di uguaglianza) e ha mostrato un pregiudizio interno che, come detto a più riprese, va necessariamente rettificato con una corretta trasmissione ed iniezione di valori giuridici[92].

Si faccia ancora riferimento al caso noto dell’assegnazione delle cattedre scolastiche in Italia. Una sentenza, ormai conosciuta da tutti, del Consiglio di Stato italiano[93], nel rendere ammissibile nel nostro ordinamento l’istituto dell’atto “amministrativo informatico[94]”, ha statuito nel senso che una decisione simile (assegnazione delle cattedre senza tener magari conto delle condizioni effettive e contingenti degli insegnanti) debba essere prevedibile e conoscibile, oltre che trasparente (art. 97 cost.)[95].

La pronuncia, dunque, ha anticipato il concetto di prevedibilità ex ante e conoscibilità ex post della decisione (non solo in tal settore[96]), mettendo in luce che all’algoritmo possano sì essere affidate delle decisioni, ma queste debbano sempre superare il controllo di meritevolezza da parte di un giudice-uomo[97].

Un altro caso può essere quello dal quale è generata la pronuncia del Tribunale di Bologna, precisamente del 31 dicembre 2020, ove una piattaforma algoritmica ha scelto di privilegiare dei lavoratori – nel caso di specie dei riders della compagnia Deliveroo – anziché altri, senza prendere in considerazione le esigenze e le problematiche degli stessi.

L’algoritmo, infatti, sulla base di alcuni giorni di assenza, aveva previsto una turnazione lavorativa più efficace, ma non ha mai preso in esame le motivazioni – anche gravi perché magari afferenti allo stato di salute del lavoratore – delle assenze. Tale piattaforma è stata, perciò, ritenuta “discriminatoria” dal giudice di merito[98]. È questo un ulteriore caso di “disaffezione” della macchina a fronte di una “affezione” umana, elemento connaturale alla dignità del decidere[99]. L’algoritmo non può essere “caporale[100]”. Non si può pensare ad una sostituzione della persona umana datore-lavoratore[101].

Ulteriore caso è quello relativo alla testimonianza elettronica. In Florida, per un caso di femminicidio, si è discusso se Alexa (voce artificiale di Amazon) potesse essere ammessa come testimone nel processo, in quanto, in qualità di “captatore domotico[102]”, avrebbe potuto apprendere e registrare quanto accaduto[103]. Di una portata simile della testimonianza non si è ancora discusso nel nostro ordinamento. Si può solo dire che non ci sono norme del nostro sistema processuale che inducano a pensare che possa esserci un’ulteriore tipologia di testimone oltre a quello umano. Dal punto di vista, però, della veridicità – paragonabile un po’ a quella umana, specie alla luce del principio del nemo tenetur se detegere[104] – potrebbe essere migliore, anche sotto l’aspetto della cronometria testimoniale (genuinità), del testimone persona che, a distanza di anni – salvo l’eventualità di un incidente probatorio – potrebbe dimenticare elementi, fatti, circostanze utili per il processo[105].

Un esempio ulteriore di finalizzazione etica dell’algoritmo e di funzionalizzazione meritevole dello stesso è il suo utilizzo per ragioni di tutela della persona. Si veda, da ultimo, il caso Facebook. Tale social network[106] ha deciso di sviluppare un algoritmo capace di captare fake news[107] – magari lesive della sensibilità della persona o capaci di cagionare danni alla medesima[108] – o di captare, segnalare e, infine, cancellare video o scritti offensivi (incitamento all’odio)[109]. Un chiaro esempio di come l’algoritmo “serva” l’uomo per il suo miglior sviluppo[110].

Altre volte, però, proprio tali “colossi informativi” e “detentori data-cratici[111]” rischiano di porre in essere condotte “censorie” prive di qualsiasi fondamento giuridico, mettendo, in tal senso, a tacere “unilateralmente e in maniera del tutto illegittima (ed anche illecita)” alcuni diritti fondamentali della persona-utente-follower[112].

  • L’I.A. non deve mai “calpestare” la dignità umana[113], deve sempre mettersi al “servizio” della persona[114], affinché quest’ultima possa sviluppare se stessa e migliorarsi in una cornice armoniosa[115].

I sistemi intelligenti, per tale ineludibile ragione, vanno costruiti tenendo ben presente il fine da raggiungere (teleologia artificiale): “la protezione quanto più adeguata possibile della persona umana”.

Questa è la ragione per la quale in tema di I.A. e processo si possa parlare di “algoritmo predittivo” mentre nel campo dell’I.A. e della persona umana si debba parlare di “algoritmo protettivo[116]”.

Corre l’obbligo di sottolineare che il sistema algoritmico, con tale finalità, potrebbe essere anche utilizzato dal giudice per la scelta migliore, grazie alle variabili valoriali introiettate, degli istituti di protezione della persona umana (amministrazione di sostegno, interdizione, inabilitazione[117]).

Inoltre, è necessario comprendere che, tra non molto lontano, un amministratore di sostegno potrebbe essere anche un health-care robot, il quale, oltre a prendersi già cura della persona umana, potrebbe anche prendersi cura del suo sviluppo in una situazione di vulnerabilità tale da non permettere a quest’ultima di provvedere ai propri interessi e bisogni primari[118].

La persona umana, infatti, va protetta con la misura più adeguata, adatta, flessile[119]. E un robot, solo se eticamente orientato, potrebbe essere d’ausilio al giudice per la decisione sul possibile istituto da adottare[120].

È giusto parlare, anche in tale ottica, di robo-etica[121]. Non solo l’algoritmo va improntato, sin dalla sua costruzione, all’etica (valori giuridici fondanti dell’ordinamento), ma anche le macchine robotiche, le quali – a differenza di un singolo algoritmo – sono sicuramente più complesse.

Non si distolga l’attenzione nemmeno dai robot sanitari[122], grazie ai quali i medici operano in condizioni più efficienti e i pazienti raggiungono dei risultati migliori.

Qui, il problema più rilevante è dato dalla eventuale responsabilità qualora il robot non funzioni correttamente o se tale macchina cagioni un danno al paziente[123].

L’ipotesi più accreditata è, sulla scorta della Legge Gelli-Bianco in tema di responsabilità medica[124], quella della configurabilità della responsabilità contrattuale in capo alla struttura qualora il robot non funzioni, con evidente esercizio di quest’ultima dell’azione di regresso nei confronti della casa produttrice[125].

Il caso, invece, dell’aver cagionato la morte di un paziente, va distinto dal primo. In tale ipotesi, se il robot ha funzionato correttamente e il medico ha avuto “campo agente”, ovvero ha saputo monitorare dall’inizio alla fine dell’operazione il robot medico, si potrebbe configurare un’ipotesi di responsabilità extracontrattuale del medico (dal punto di vista civilistico per i danni esistenziali – non patrimoniali – eventualmente subiti dai cari del paziente deceduto[126]) e una sicura ipotesi di omicidio colposo, così come modificato dalla Legge su richiamata[127].

Ci si potrebbe chiedere se una macchina, un robot, un sistema intelligente sia in grado di rispondere penalmente. Stando alla lettura dell’art 27, co. 1, Cost. sicuramente la risposta è negativa. La personalità della responsabilità penale presuppone la commissione di un fatto proprio (attribuibile ad una specifica persona umana) e non la possibilità di rispondere per un fatto altrui. Ciò implica che il medico-uomo, avendo pieno “campo agente” sulla macchina robotica, sia l’unico a poterne rispondere penalmente[128].

  • Un tema assai dibattuto, specie in questi ultimi periodi, è quello relativo, oltre al potenziamento umano[129], che desta moltissime perplessità[130], quello della necro-algoritmica, fenomeno per il quale si fa “risuscitare” virtualmente una persona deceduta per il bene di un caro ancora in vita[131].

In merito alla questione del potenziamento umano[132], ove l’I.A. viene utilizzata per la preparazione dei soldati (specie in America) affinché questi possano affrontare al meglio la guerra e qualsiasi altro tipo di battaglia per sconfiggere definitivamente e con tutti i mezzi possibili (si veda, per esempio, i droni-bomba[133] o le tecnologie innescanti guerre cibernetiche[134]) il nemico, viene da chiedersi se il limite della dignità umana[135] venga, in tal caso, rispettato[136].

Si conduca, poi, un’indagine sulla responsabilità – anche sul profilo internazionale[137] – derivante dai danni (anche da morte ingiusta[138]) provocati dai droni militari[139] guidati da un essere umano al fine di “localizzare” velocemente il nemico e “annientarlo”.

In merito alla seconda questione, invece, bisogna dire che tecniche, come quelle messe a punto da Neuralink[140], o anche le chatbot risuscitative[141] di morti creino dei problemi, oltre che sul piano strettamente etico, anche sul piano giuridico.

Anche qui, è bene ribadire che qualsiasi “nuova creazione artificiale” debba sempre passare attraverso il vaglio di meritevolezza etica e giuridica.

Neuralink, per esempio, potrebbe, tra i vantaggi percepibili, essere in grado, attraverso il collegamento diretto “strumento informatico-cervello umano”, di ridonare le capacità fisiche e riabilitative ad un atleta paraplegico[142].

I robot tridimensionali che ricreano la fisionomia virtuale del defunto potrebbero, invece, avere il vantaggio di curare l’assenza fisica di una persona cara che ha provocato delle condizioni degenerative a livello psichico nella persona che resta in vita. Il limite all’utilizzo di quest’ultima invenzione deve essere scandito dal tempo di rielaborazione del lutto, attraverso una vera e propria “terapia accettazionale” che porta al percorso psicologico di accettazione dell’evento-morte e al riacquisto della serenità psicologica della persona umana ancora in vita[143].

Solo in tale dimensione, anche le chatbot, ovvero i ripetitori verbali di conversazioni con la voce dei defunti, potranno essere utilizzate.

Vi dovrà sempre essere un vaglio meritevole e una finalità altrettanto meritevole che vada nel senso della best human protection[144]. Anche in tal caso, dunque, la necro-robotica dovrà essere sempre più necro-etica[145].

  1. Un ulteriore aspetto dell’I.A. è quello relativo alle nuove dimensioni della scienza neurologica e cognitiva[146]. Molti sono gli strumenti intelligenti che consentono di migliorare la salute neurologica della persona umana[147] (e per ciò stesso sono meritevoli di essere costruiti, sempre improntati a variabili “salutari” e di essere utilizzati) e di prevedere comportamenti, specie criminosi[148]. O, ancora, molta è l’attenzione verso l’utilizzo delle tecniche neuro-scientifiche nel campo del marketing[149] che porta con sé non pochi risvolti sulla tutela dell’utente-consumatore[150]. Per non parlare del rapporto che intercorre tra le neuroscienze e la capacità umana[151].  

Dal punto di vista del processo penale, invece, le neuroscienze potrebbero essere in grado di far capire il motivo per il quale una persona abbia commesso un fatto-reato o, in un’ottica preventiva, quando potrà e se potrà nuovamente compiere lo stesso fatto (recidiva)[152].

A tal proposito, è scontato riferirsi alle tradizionali teorie lombrosiane per mezzo delle quali, attraverso l’analisi cerebrale dei criminali, si poteva individuare la conformazione fisiologica di “inclinazione” alla commissione dei crimini. Un simile studio è descritto come “determinismo biologico[153]”.

Non va affatto sottaciuto, però, che oltre ad un determinismo fisiologico, svariate altre possano essere le variabili o le circostanze che spingono a commettere dei reati, ovvero il fattore sociale (c.d. determinismo sociologico), il fattore economico (c.d. determinismo economicistico), il fattore psicologico (c.d. determinismo psicologico o “psicologismo”), il fattore tecnologico[154]. In tale ultima prospettiva, proprio perché vi è il rischio di perpetrazione di reati anche nella realtà liquida della rete[155] (deep web[156], cybercrime[157] e così via), si potrebbe parlare di un nuovo tipo di determinismo, ovvero quello “tecnologico”.

L’elemento che qui maggiormente interessa è il seguente: il portato finale degli esperimenti, ovvero tutti i dati neuronali raccolti, che tutela possiede?

I “dati neuronali” rientrano sicuramente nella categoria dei dati sensibili e vanno trattati secondo la disciplina del nuovo GDPR in tema di protezione dei dati personali[158]. Per ciò stesso si dovrebbe iniziare anche a disquisire di “privacy neuronale[159]”. Inoltre, è possibile donare, anche post mortem, tali dati alla scienza per finalità di ricerca (appunto) scientifica[160]?

  1. L’I.A. ha investito, con le sue innovazioni e le sue tecniche, tutti i settori del diritto. Per i fini che qui interessano, è d’uopo soffermarsi, seppur in maniera schematica, sul rapporto tra I.A. e diritto civile[161], prendendo in esame, tra tantissime questioni, quelle che si reputano essere più interessanti, ovvero il caso degli smart contracts[162], della determinazione algoritmica dell’oggetto del contratto[163] e dell’eredità digitale[164], oltre a quello già tanto discusso della “soggettività giuridica dei software[165]”, su cui, per ragioni di sistema, non ci si sofferma.

La determinazione algoritmica degli interessi delle parti[166], attraverso un coacervo di interessi telematici fatti percepire al software, fa sì che si possa parlare di “autonomia contrattuale elettronica[167]”, ove, a maggior ragione, gli interessi delle parti, così come già accade ai sensi dell’art. 1322 c.c.[168], dovranno oltrepassare la scure del vaglio di meritevolezza[169]. Un simile contratto, però, potrebbe generare “ontologicamente” o “successivamente” uno squilibrio del sinallagma che si ripercuote sul rapporto contrattuale[170] e, di conseguenza, sul fascio di situazioni giuridiche (sia esistenziali sia patrimoniali) appartenenti alla persona-contraente[171]. Va evitata, quindi, un’“asimmetria” algoritmica[172] ed esperiti tutti i rimedi affinché questa possa cessare[173], così che il contratto possa davvero essere, alla luce delle umane vicissitudini, “intelligente[174]”.

Inoltre, anche l’intenzione “comune” delle parti andrà valutata secondo una dimensione “elettronica[175]”. L’interpretazione della legge in generale, e ancora del contratto, dovrà essere necessariamente conformata alle nuove regole algoritmiche[176]. Insomma, il diritto privato tout court inteso subisce una evoluzione continua, ma le regole civilistiche sembrano ben resistere[177], specie nel fatto che il contratto debba realizzare (e, in questa dimensione, va letto e interpretato) sempre e comunque i diritti della persona[178].

La determinazione algoritmica, invece, dell’oggetto del contratto è consentita per le stesse ragioni poc’anzi esposte. Tutto ciò che è mero procedimento potrebbe essere sostituito dalla macchina. Una valutazione standardizzata, ad esempio, potrebbe essere facilmente rimpiazzata da un software[179].

Tema interessante, che sta emergendo sempre con più forza, è quello relativo all’eredità digitale. Tutto ciò che una persona lascia disseminato in rete, sui social networks, sulle piattaforme online[180] e così via, dopo la sua morte, che tutela avrà?

Si pensi, per esempio, anche al testamento olografo elettronico che, in realtà, come detto in apertura del lavoro, potrebbe rientrare nella branca dell’informatica giuridica, in quanto mero mezzo giuridico-telematico di snellimento procedurale. In tale ultimo caso, si riuscirebbe a garantire il rispetto della data, della presenza (fisica o anche “da remoto” dei testimoni ) e della sottoscrizione (in presenza o “da remoto”)? Collegando le norme del codice civile in tema di testamento olografo, con quelle relative al codice dell’amministrazione digitale e – se si vuole – con quelle relative al contenimento dell’epidemia da Covid-19, che sempre più stimolano ad una “digitalizzazione” precoce e repentina per far fluire i traffici commerciali ed economici, è auspicabile che una soluzione di sistema possa essere sicuramente approntata[181].  

Da ultimo, oltre al noto caso del “simulacro digitale”, che rientra nell’alveo della necro-robotica sulla quale ci si è già soffermati, si faccia riferimento alla recentissima pronuncia del Tribunale di Milano del 9 febbraio 2021, con la quale si è dato ordine ad “Apple” di consegnare a due genitori foto e video del figlio morto[182].

In tale dimensione, ovvero quella dei “beni digitali” (foto, video, scritti e così via), quali regole dovrebbero applicarsi dal punto di vista successorio?[183]

Non c’è bisogno di aggiungere nuove norme a quelle già esistenti che, ancora una volta, sono in grado di sostenere il peso dell’innovazione (si pensi al combinato disposto dell’art. 810 c.c. con gli articoli del codice civile relativi alla successione mortis causa).

Ulteriore profilo è relativo alla tutela della privacy[184] che la circolazione di tali beni digitali nel mondo globale (basta un like, un click per la condivisione affinché continuino a circolare) impone[185]. Il diritto alla privacy si estingue con la morte del titolare[186]? Se si estinguesse, dovrebbero estinguersi anche i beni digitali presenti nella rete e ancora circolanti nel momento nel quale non se ne possa più disporre[187].

Si potrebbe disporre per testamento, anche mediante l’istituzione di un legato (disposizione testamentaria a titolo particolare), che alcuni dati/beni digitali continuino ad essere amministrati? Oppure, si può provvedere alla nomina di un esecutore testamentario che abbia il compito di eseguire le ultime volontà, anche relative ai beni digitali, del de cuis[188]? Inoltre, la persona può, ante mortem, decidere di accordarsi con il gestore delle piattaforme digitali (magari sottoscrivendo delle DATD: “disposizioni anticipate di trattamento digitale”, un po’ sulla stessa scorta delle DAT: disposizioni anticipate di trattamento in tema di autodeterminazione della persona umana[189]), alle quali ha prestato il proprio consenso alla circolazione dei suoi dati, per la distruzione degli stessi (diritto di cancellazione dei dati, diritto alla deindicizzazione previsto dal nuovo Regolamento privacy, diritto all’oblio[190]) per il tempo in cui avrà cessato di vivere (ora per allora)[191]? E un tale accordo potrebbe essere revocato (rectius risolto) prima della morte[192]?

Evidentemente, la sfida per il civilista[193] di un “oggi futuristico” è la tutela della circolazione dei dati personali post mortem[194]

La normativa attuale, in tema di beni giuridici[195], di successione a causa di morte e di protezione dei dati personali, già potrebbe consentire (così come consente), anche attraverso un lavorio giudiziale nel senso di un’interpretazione sistematico-teleologica[196], risposte dinamiche e soddisfacenti agli interrogativi sopra posti, specie indirizzate ad una tutela piena della personalità umana[197]. È, dunque, il tempo di attribuire ancora più valore alla centralità della persona umana che “naviga” in una cultura ormai fin troppo globalizzata[198].

  1. Tutto quanto scritto sino ad ora permette di ricostruire un principio generale su cui fondare il rapporto uomo-macchina: l’eticizzazione ab origine, in fieri e usque ad finem della macchina[199].

Oltre ad un processo di umanizzazione della macchina[200], per il quale ci si sta battendo, bisogna anche pensare ad un processo che non consenta mai la disumanizzazione dell’uomo attraverso la macchina[201].

Il sorvegliante, il controllore, il previsore, l’agente finale della macchina deve e dovrà essere sempre l’uomo, il quale vaglierà (nel mondo giuridico primariamente si tratta dell’homo juridicus) la meritevolezza (ontologica, deontologica e fenomenologica) di qualsiasi sistema intelligente, il quale per poter “coesistere” deve fondarsi su alcuni principi che di seguito si sintetizzano.

Il primo è rappresentato dall’intuizione, per il quale la macchina deve saper adattarsi all’uomo (si pensi al caso delle driverless cars[202]).

Il secondo è dato dalla intelligibilità, per mezzo del quale l’uomo deve intuire ciò che fa la macchina[203]. In tal senso, oltre agli “algoritmi definitori”, quelli che non hanno necessità di essere iniettati di valori giuridici perché deputati a compiti che non hanno a che fare con la persona umana, ma solo con la materialità monotona (si pensi alle macchine industriali[204]), vi sono gli “algoritmi ottimizzatori” che, ex adverso, hanno la necessità di essere improntati eticamente e di essere valutati come meritevoli prima del loro utilizzo in quanto aventi a che fare strictu senso con la persona umana.

Il terzo è relativo al concetto di adattabilità, secondo il quale la macchina deve adattarsi all’ambiente in cui l’uomo vive e alla personalità umana, in modo tale che anche l’I.A., nel suo complesso, possa perseguire l’obiettivo primario di tutela della vita umana e di miglioramento, qualora vagliata meritevole nella sua creazione ontologica, nel suo adattamento itinerante e nella sua finalità specifica, delle condizioni della persona umana, permettendo uno sviluppo quanto più armonico possibile della stessa[205]

In ultimo, invece, vi è il principio dell’adeguatezza obiettivale, per il quale bisogna stabilire le priorità (obiettivi) operative dell’algoritmo che non sono in esso, ma nella persona che è sedes dignitatis per eccellenza[206].

In un ambiente misto è la persona e il suo valore unico ciò che stabilisce e gerarchizza le priorità: è il robot che coopera con l’uomo, in una visione servente e funzionale, e non l’uomo che diventa succube della macchina[207].

È importante affermare, in chiusura del presente lavoro, che l’uomo dovrà sempre essere attento controllore[208] della macchina e mai suo schiavo[209].

Non focalizzarsi, in definitiva, solo sull’intelligenza artificiale, perché, altrimenti, si rischia di perdere di vista l’intelligenza umana che è capace di pensare “criticamente”, “dignitosamente”, “umanamente” appunto[210]. L’algoritmo deve, dunque, essere “pensante”, ma solo grazie all’intervento inscindibile ed indefettibile dell’uomo[211], il quale potrebbe assurgere a figura “antro-noma[212]”, non dovrebbe obbedire alla macchina, ma farsi obbedire[213].

E per fare questo, nel mondo della Smart Law[214] e del post-umano[215], bisogna solo insegnare ai futuri civilisti[216] che le vecchie categorie, interpretate sistematicamente[217], e improntate ad una dimensione teleologico-assiologica[218], nonché ragionevole[219], siano ancora oggi in grado di reggere le nuove sfide del diritto civile[220].

Abstract

Il contributo intende offrire una disamina della multiforme varietà degli algoritmi, individuarne la natura e cercare di costruire un “vaglio di meritevolezza” per i sistemi intelligenti. Si passa dall’analisi ontologica degli ordinamenti (giuridico ed elettronico) per approdare alla dicotomia inscindibile “valori giuridici-variabili algoritmiche”. Inoltre, si cerca di approfondire, attraverso esempi concreti, quale debba essere la funzionalizzazione dei nuovi sistemi di intelligenza artificiale e quali, invece, debbano essere i principi sui quali una I.A. eticamente e personalisticamente orientata debba fondarsi. Infine, si perviene ad uno statuto responsabilistico dei sistemi intelligenti e a nuove configurazioni civilistiche che, nell’era quanto mai galoppante dell’I.A., vanno indirizzate alla promozione e alla tutela della persona umana e della sua intima dignità.

The contribution intends to offer an examination of the multiform variety of algorithms, identify their nature and try to build a “merit screen” for intelligent systems. It moves from the ontological analysis of systems (legal and electronic) to arrive at the inseparable dichotomy “legal values-algorithmic variables”. Furthermore, it tries to investigate, through concrete examples, what should be the functionalization of the new artificial intelligence systems and what, instead, should be the principles on which an AI, ethically and personalistically oriented, must be founded. Finally, it arrives at a responsible statute of intelligent systems and new civil configurations which, in the very runaway era of AI, must be addressed to the promotion and protection of the human person and its intimate dignity.

Parole chiave: algoritmi, diritto civile, responsabilità, giudizio di meritevolezza, persona umana

Keywords:  algorithms, civil law, liability, judgment of merit, human person

a cura di Remo Trezza


[1] Sulla definizione e sulla disciplina dell’informatica giuridica, che a sua volta si distingue dal diritto dell’informatica, si veda R. Bin, N. Lucchi, Informatica per le scienze giuridiche, Padova, 2009; S. Russo, R. Scavizzi, Manuale di diritto comunitario dell’informatica, Milano, 2010; G. Ziccardi, Il Computer e il giurista, Milano, 2014; D. Valentino (a cura di), Manuale di diritto dell’informatica, Napoli, 2016; G. Sartor, L’informatica giuridica e le tecnologie dell’informazione, Torino, 2016; F. Faini, S. Pietropaoli, Scienza giuridica e tecnologie informatiche, Torino, 2017; Aa. Vv., Informatica giuridica e informatica forense al servizio della società della conoscenza. Scritti in onore di Cesare Maioli, Roma, 2018; A. M. Gambino, A. Stazi, D. Mula, Diritto dell’informatica e della comunicazione, Torino, 2019; G. Ziccardi, P. Perri, Dizionario Legal tech. Informatica giuridica, protezione dei dati, investigazioni digitali, criminalità informatica, cybersecurity e digital transformation law, Milano, 2020; T. Casadei, S. Pietropaoli, Diritto e tecnologie informatiche. Questioni di informatica giuridica, prospettive istituzionali e sfide sociali, Padova, 2021.

[2] Si consenta rinviare a R. Trezza, Diritto e intelligenza artificiale. Etica, Privacy, Responsabilità, Decisione, Pisa, 2020. Si veda anche G. Taddei Elmi, A Contaldo (a cura di), Intelligenza artificiale. Algoritmi giuridici. Ius condendum o “fantadiritto”?, Pisa, 2020; U. Ruffolo (a cura di), Intelligenza artificiale Il diritto, i diritti, l’etica, Milano, 2020; G. Alpa (a cura di), Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pisa, 2020; A. Santosuosso, Intelligenza artificiale e diritto. Perché le tecnologie di IA sono una grande opportunità per il diritto, Milano, 2020; M. Cupersito, Intelligenza artificiale e diritto: profili normativi, etici e politici, in Opinio Iuris, 1° giugno 2020, consultabile online; A. Longo, G. Scorza, Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà, Milano, 2020; A. D’Aloia, Intelligenza artificiale e diritto: Come regolare un mondo nuovo, Milano, 2021; U. Ruffolo (a cura di), XXVI lezioni di Diritto dell’Intelligenza Artificiale, Torino, 2021; G. Schneider, N. Abriani, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, Bologna, 2021; G. Taddei Elmi, Il Quid, il Quomodo e il Quid iuris dell’IA. Una riflessione a partire dal volume “Diritto e tecnologie informatiche”, in Riv. it. inf. dir., n. 2/2021, p. 131 ss.; E. Bassoli, Algoritmica giuridica. Intelligenza artificiale e diritto, Modena, 2022; P. Severino (a cura di), Intelligenza artificiale. Politica, economia, diritto, tecnologia, Roma, 2022; R. M. Agostino, G. Dalia, M. Imbrenda, S. Pietropaoli (a cura di), Frontiere digitali del diritto. Esperienze giuridiche a confronto su libertà e solidarietà, Torino, 2022.

[3] Sul c.d. CDA, si rinvia, ex multiis, a G. Cassano, C. Giurdanella, Il codice della pubblica amministrazione digitale. Commentario al D.Lgs. n. 82 del 7 marzo 2005, Milano, 2005; F. Trojani, Il nuovo codice dell’amministrazione digitale, Santarcangelo di Romagna, 2016.

[4] Sui due istituti menzionati, si rinvia a G. D’Aietti, Il documento elettronico: profili giuridici, civili e penali, in www.privacy.it, Relazione presentata al Convegno Nazionale su “Informatica e riservatezza” del CNUCE – Pisa 26/27 settembre 1998, consultabile online; V. Rizzo (a cura di), Documento informatico, firma digitale e commercio elettronico, Napoli, 2000; N. Graziano, Il disconoscimento del documento informatico sottoscritto con firma digitale, in Inf. dir., 17 gennaio 2001, consultabile online; C. Fiscale, F. Del Monte, A. Feliciani e G. Arenaccio, La firma elettronica e il documento informatico: come semplificare la sottoscrizione e conclusione dei contratti durante il lockdown, in Dir. banc., 26 marzo 2020, consultabile online; M. Milanese, L’atto pubblico informatico, in Comp. dir. civ., consultabile online; F. Delisi, Forma digitale, contratto e commercio elettronico, Padova, 2020; F. Ciclosi, I documenti informatici dopo le nuove Linee guida AgID, Santarcangelo di Romagna, 2021.

[5] Sul punto, A. Didone (a cura di), Le riforme del processo civile: dalla digitalizzazione del processo alla negoziazione assistita, Milano, 2014; E. M. Forner, Procedura civile digitale. Prontuario teorico-pratico del processo telematico, Milano, 2015; S. Rossetti, M. Santopietro, D. Muradore, Il processo esecutivo telematico, Milano, 2016. A parte i lavori monografici e collettanei, si rinvia anche a P. Della Vedova, La deriva telematica nel processo civile, in Judicium, consultabile online. Si veda, di recente, anche A. Garapon, J. Lassègue, La giustizia digitale. Determinismo tecnologico e libertà, Bologna, 2021; G. Buccarella, F. Fimmanò, I. Pisano, I. Simona, Giustizia digitale. Processi telematici e udienza da remoto, Milano, 2021.

[6] Sul suo funzionamento, si rinvia a G. Lax, ItalgiureWeb: la banca dati per gli avvocati, in www.studiocataldi.it, 30 dicembre 2021, consultabile online.

[7] Sui rischi di una informazione giudiziaria così accessibile a tutti, si rinvia all’ intervento di Antonello Soro, Presidente del Garante per la protezione dei dati personali, del 3 novembre 2014, il quale già metteva in evidenza che: “La pubblicazione in rete cambia profondamente l’informazione – anche quella giuridica – nel significato, nel fine, nel valore, ma anche nei rischi. La pubblicazione sul web di dati preziosi quali quelli ricavabili da una sentenza e dai principi che vi sono affermati è indubbiamente più “democratica” perché raggiunge (potenzialmente) tutti i cittadini, mettendo a disposizione un patrimonio informativo importante, anche a coloro i quali, probabilmente, non si sarebbero mai avvicinati a una rivista giuridica. Ma questa facilità nell’accesso – che è una straordinaria risorsa per i singoli e le istituzioni –  è anche, paradossalmente, la più grande fonte di rischio delle pubblicazioni on-line, suscettibili di indicizzazione, riproduzione decontestualizzata, alterazione, finanche manipolazione e per questo in alcun modo assimilabili alle pubblicazioni cartacee”. Su tali rischi, anche M. Senor, SentenzeWeb: ricerca libera tra le sentenze della Corte, in Media Laws, 21 ottobre 2014, consultabile online, per la quale: “(…) pare verosimile ipotizzare che la base normativa del trattamento sia stata individuata dal CED nell’art. 52 del codice privacy, il cui ultimo comma prevede che, fuori dai casi indicati (richiesta di oscuramento delle generalità da parte dell’interessato, dati identificativi delle persone offese di violenza sessuale, dei minori e delle parti nei procedimenti in materia di rapporti di famiglia e di stato delle persone), è ammessa la diffusione in ogni forma del contenuto anche integrale di sentenze o di altri provvedimenti giurisdizionali, per finalità di informazione giuridica”.

[8] Sul punto, si rinvia, per un approfondimento, a F. Rolleri, I sistemi di gestione documentale della Corte Costituzionale, in Il processo telematico, 8 marzo 2016, consultabile online.

[9] Sugli strumenti “tecnologici” funzionali alla giustizia, si veda il dossier curato da D. Piana, Percorsi e strumenti per una giustizia digitale al servizio del cittadino, Roma, 2021.

[10] Tra tutti, si veda G. Alpa, V. Carbone, Giurisdizioni di legittimità e regole di accesso. Esperienze europee a confronto, Bologna, 2011; U. De Martino, N. Picardi, P. Rescigno, G. P. Trifone, La corte di cassazione dalle origini ai giorni nostri, Roma, 2016; P. Curzio, Il palazzo della Cassazione, Bari, 2021.

[11] Sul punto, si veda G. Mammone, Relazione sull’amministrazione della giustizia nell’anno 2018, 25 gennaio 2019, Roma, 2019, pp. 95-98. Sulla stessa lunghezza d’onda anche id., Relazione sull’amministrazione della giustizia nell’anno 2019, 31 gennaio 2020, Roma, p. 21.

[12] Il Centro Elettronico di Documentazione (C.E.D.) costituisce, nell’ambito della Corte di cassazione, una struttura autonoma, alle dirette dipendenze della Prima Presidenza, il cui compito consiste: a) nel fornire a tutti i magistrati italiani (ed in particolare a quelli della Corte di cassazione), ai magistrati europei che ne facciano richiesta ed al pubblico degli abbonati (avvocati, istituzioni pubbliche e private, quali Ministeri, Università, etc.) servizi informatici aventi ad oggetto la realizzazione, la gestione e la messa a disposizione per la consultazione degli archivi di giurisprudenza e di legislazione (c.d. informatica giuridica); b) nel fornire alle strutture amministrative e ai magistrati della Corte servizi informatici destinati concernenti la gestione informatica dei processi (sia civili che penali) dal momento del deposito del ricorso al momento della pubblicazione della sentenza e della restituzione degli atti al giudice a quo (c.d. informatica giudiziaria). In termini teorici, sul punto, si veda L. Izzo, Ced Cassazione: cos’è e come funziona, in www.studiocataldi.it, 19 giugno 2018, consultabile online. Completa è la disamina che fa F. Fiandanese, Il Centro Elettronico di Documentazione della Corte Suprema di Cassazione, in G. Peruginelli. M. Ragona (a cura di), L’informatica giuridica in Italia. Cinquant’anni di studi, ricerche ed esperienze, Napoli, 2014, pp. 151-168. Ancora, si veda V. Di Cerbo, Banche dati di giurisprudenza, nomofilachia e trasparenza dell’attività giurisdizionale. L’esperienza del Ced della Corte di cassazione, in Questione Giustizia, consultabile online, ove si legge: “Appare quindi evidente il ruolo della banca dati come strumento fondamentale per l’affermazione un «diritto certo e stabile», ciò che dà la cifra della sua finalità ultima, di rendere tangibile nell’applicazione del diritto, e dunque nella costruzione di un «diritto vivente», quel principio di eguaglianza che è sotteso alla vita democratica di una società civile, per cui la prevedibilità delle decisioni è alla base di un trattamento uniforme dei cittadini dinanzi al giudice”. Da un punto di vista della tutela della privacy e dell’accesso alle banche dati, il Garante della Privacy, già nel 2003, aveva avuto modo di sottolineare l’esigenza di assicurare un uso legittimo dei dati personali consultati nelle banche dati da parte degli utenti del Ced. Ciò si rende necessario in particolare per la consultazione di provvedimenti giudiziari che riportano generalità delle parti e dati riferiti a particolari condizioni o status, anche di natura sensibile. I dati consultabili attraverso l’accesso al Ced possono essere utilizzati dagli utenti per scopi di documentazione e ricerca in ambito giudiziario o   professionale, di studio o per eventuali statistiche. Ma non anche, in mancanza di una specifica previsione e di una previa informativa agli interessati, per altre finalità indebite, quali potrebbero essere, ad esempio, il monitoraggio della giurisprudenza di alcuni uffici giudiziari che miri alla profilazione del comportamento del singolo imputato o magistrato o la valutazione a fini  disciplinari della produttività dell´organo decidente”. Sul rischio di profilazione, od anche della c.d. “sorveglianza di massa”, su cui lo stesso Garante si è espresso con un Parere del 25 marzo 2021, sul c.d. Sistema Sari Real Time, si veda, seppur in tema di pubblicità targettizzata, G. D’Ippolito, Profilazione e pubblicità targettizzata online. Real-Time Bidding e behavioural advertising, Napoli, 2022. Il Garante, a proposito del sistema di cui sopra, ha specificato che: “Occorre in particolare considerare che il sistema in argomento realizza un trattamento automatizzato su larga scala che può riguardare, tra l’altro, anche coloro che siano presenti a manifestazioni politiche e sociali, che non sono oggetto di “attenzione” da parte delle forze di Polizia; ancorché la valutazione di impatto indica che i dati di questi ultimi sarebbero immediatamente cancellati, nondimeno, l’identificazione di una persona in un luogo pubblico comporta il trattamento biometrico di tutte le persone che circolano nello spazio pubblico monitorato, al fine di generare i modelli di tutti per confrontarli con quelli delle persone incluse nella “watch-list”. Pertanto, si determina una evoluzione della natura stessa dell’attività di sorveglianza, passando dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale allo scopo di identificare alcuni individui”. Tale profilazione potrebbe valere, ad esempio, anche per i lavoratori. Sul punto, si veda A. Donini, Profilazione reputazionale e tutela del lavoratore: la parola al Garante della Privacy, in Labour Law & Law Issues, n. 1/2017, p. 49, ove, in maniera del tutto condivisibile, si legge che: “Il riconoscimento   della   tecnica   di protezione   dei dati fin dalla progettazione potrebbe comprendere forme di filtro e tutela by design delle prerogative  personali del cittadino e del prestatore,  come  quelle  ricavabili dall’art. 8 St. lav. Gli stessi sistemi di advanced data analytics possono dunque fornire adeguati strumenti di tutela dei  diritti fondamentali, se finalizzati alla compliance normativa. Per raggiungere tale obiettivo, è utile orientare la progettazione delle strumentazioni informatiche in modo da stralciare ogni dato rilevatore delle attitudini personali del lavoratore, sperimentando in tal modo una regolazione veicolata dai codici informatici che attribuisca alla tecnologia una funzione indiretta ma essenziale di tutela delle posizioni giuridiche”.

[13] Sul punto, si veda S. Cassese, Dentro la Corte: Diario di un giudice costituzionale, Bologna, 2015; B. Barbisan, G. Amato, Corte costituzionale e Corti europee. Fra diversità nazionali e visione comune, Bologna, 2015; A. Celotto, La Corte costituzionale. Quando il diritto giudica la politica, Bologna, 2018; E. Lamarque, Corte costituzionale e giudici nell’Italia repubblicana. Nuova stagione, altri episodi, Napoli, 2021; A. Morrone (a cura di), La corte costituzionale. Antologia di classici della letteratura italiana, Torino, 2021.

[14] Interessante è l’opera di A. Didone, F. De Santis (a cura di), Il processo civile solidale. Dopo la pandemia, Milano, 2020. Gli A. dell’opera, infatti, mettono in luce tutte le criticità che l’emergenza sanitaria ha innescato sul processo civile, mediante l’analisi di tutti i provvedimenti normativi adottati per fronteggiare la pandemia e per garantire il diritto di difesa e la continuazione dell’esercizio della giustizia. Sul fronte del processo penale, si veda L. G. Velani, Gestione dell’emergenza Covid-19 e processo penale: un prodotto discutibile destinato a imporsi stabilmente?, in Leg. pen., 7 maggio 2020, pp. 1-42, consultabile online. Sui risvolti giuridici della pandemia da covid-19, tra tanti, si rinvia a M. Frigessi di Rattalma (a cura di), La pandemia da Covid-19. Profili di diritto nazionale, dell’Unione Europea ed internazionale, Torino, 2020; G. A. Chiesi, M. Santise, Diritto e Covid-19, Torino, 2021; R. Marini (a cura di), Pandemia e diritto delle persone, Padova, 2021.

[15] La Corte costituzionale, infatti, da un po’ di tempo a questa parte, ha adottato, tramite l’Ufficio comunicazioni, la linea per cui, al termine delle udienze più delicate, i cui temi hanno un’attinenza specifica e “calda” dal punto di vista sociale, economico  e politico, pubblica dei Comunicati per rendere partecipe la collettività (in anteprima) della decisione adottata e le brevi motivazioni che l’hanno spinta ad approdare ad una pronuncia piuttosto che ad un’altra. Si faccia l’esempio dei Comunicati in relazione al mancato accoglimento dei referendum costituzionali in tema di “cannabis” e di “suicidio assistito”.

[16] Su tale aspetto, si rinvia a P. Passaglia (a cura di), L’intervento di terzi nei giudizi di costituzionalità concreti, Roma, 2016, p. 9 ss.; E. Rossi, L’intervento di terzi nel giudizio in via principale dopo la modifica delle norme integrative, in Rivista AIC, n. 3/2020, p. 406 ss.; M. Romagnoli, Il modello di partecipazione a “triplo binario” della Corte costituzionale italiana: la riforma delle norme integrative riguardo a interventi dei terzi, amici curiae ed esperti, nel segno del dialogo con la società civile e della rilegittimazione continua, in Revista de la Facultad de derecho de Mèxico, n. 277/2020, p. 1047 ss.; L. M. Tonelli, Le nuove Norme Integrative per i giudizi davanti alla Corte costituzionale: fra recepimento della costante giurisprudenza in materia di interventi di terzo in giudizio, alcune importanti innovazioni e… non pochi rischi applicativi, in Judicium, n. 3/2021, consultabile online; A. Vuolo, Il contraddittorio nei giudizi costituzionali alla luce delle recenti modifiche alle Norme integrative, in Federalismi, n. 16/2020, p. 407 ss.

[17] Sull’apertura della Corte alla cittadinanza attiva e alla società, si rinvia a E. Olivito, Invito a Corte, con cautela. Il processo costituzionale si apre alla società civile?, in Rivista italiana per le scienze giuridiche, n. 10/2019, p. 485 ss.; L. Salvato, L’amicus curiae nei giudizi dinanzi alla Corte costituzionale: il Procuratore Generale della Corte di cassazione, in Quaderni costituzionali, 2020, p. 727 ss.; R. Conti, La Corte costituzionale aperta alla società civile Intervista a Valerio Onida e Vladimiro Zagrebelsky, in Giustizia insieme, 4 aprile 2020, consultabile online; M. D’Amico, Gli amici curiae, in Questione Giustizia, n. 4/2020, consultabile online; C. Della Giustina, Amicus curiae: dalle origini alle modifiche delle “Norme integrative per i giudizi davanti alla Corte costituzionale”, in Rivista AIC, n. 3/2020, p. 506 ss.; A. M. Lecis, La svolta del processo costituzionale sotto il segno della trasparenza e del dialogo: la Corte finalmente pronta ad accogliere amicus curiae e esperti dalla porta principale, in Rivista di diritti comparati, 23 gennaio 2020, consultabile online; G. Bergonzini, Una Corte costituzionale aperta? Comunicazione partecipazione contraddittorio, Napoli, 2021, p. 1 ss.

[18] Sul punto, si veda I. Ferranti, Processo costituzionale telematico, ecco come funziona, in Agenda digitale, 23 febbraio 2022, consultabile online.

[19] Sul fascicolo elettronico e sulla sua “dematerializzazione”, si rinvia a I. Ferranti, Fascicolo del processo civile telematico, come dematerializzarlo: le regole tecniche, in Agenda digitale, 4 aprile 2020, consultabile online.

[20] Sul punto, si rinvia a D. Piana, Costo, ritualità, valore. Le qualità della giustizia nell’era digitale, in Giustizia insieme, 16 settembre 2021, consultabile online. Inoltre, una delle richieste provenienti a più voci dall’Unione europea, specie nel solco del P.N.R.R. adottato a causa dell’emergenza epidemiologica, è proprio la “digitalizzazione” della giustizia italiana. In tema, si rinvia a G. Bertola, La digitalizzazione del processo nel Pnrr, in www.lamagistratura.it, 23 luglio 2021, consultabile online.

[21] Su cosa sia l’Intelligenza Artificiale, si rinvia, tra tanti, a S. Quintarelli, Intelligenza artificiale: Cos’è davvero, come funziona, che effetti avrà, Milano, 2020; A. Longo, G. Scorza, Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà, Milano, 2020; R. Marmo, Algoritmi per l’intelligenza artificiale: Progettazione dell’algoritmo –  Dati e Machine Learning – Neural Network – Deep Learning, Milano, 2020; F. Cabitza, L. Floridi, Intelligenza artificiale: L’uso delle nuove macchine, Roma, 2021; M. Pierani, M. Scialdone, Vivere con l’Intelligenza Artificiale. Società, consumatori e mercato, Torino, 2021; G. Barone, Machine Learning e Intelligenza Artificiale – Metodologie per lo sviluppo di sistemi automatici, Palermo, 2021. 

[22] Si pensi, ad esempio, alla nuova Proposta di Regolamento europeo dell’aprile 2021, con la quale l’Unione europea intende uniformare la disciplina dell’I.A., con cui, in particolar modo all’art. 5, si vietano delle pratiche generali di utilizzo dell’I.A. qualora non siano funzionali al rispetto dei diritti e delle libertà fondamentali riconosciuti dalla cornice europea delle fonti. Sul punto, si rinvia a G. Proietti, Intelligenza artificiale: una prima analisi della proposta di regolamento europeo, in www.dirittobancario.it, 27 maggio 2021, consultabile online, ove si sottolinea la possibilità di una configurabilità di una responsabilità da contatto sociale: “Il paradigma normativo proposto, dunque, per le sue peculiarità, pone indirettamente una questione riguardante il tema dell’imputabilità di una responsabilità per la violazione di uno degli obblighi che si traducono in una regola di condotta, ovvero la possibilità o meno di generare una fattispecie di responsabilità da contatto sociale qualificato. Siffatta fattispecie di responsabilità si configurerebbe allorché l’ordinamento imponga ad un soggetto un’obbligazione, in ragione dell’attività o funzione esercitata, affinché osservi specifici comportamenti in determinate situazioni, generando quindi obblighi di protezione «nei confronti di tutti coloro che siano titolari degli interessi la cui tutela costituisce la ragione della prescrizione di quelle specifiche condotte”. Sulla necessità di leggere il diritto civile nella legalità costituzionale secondo il sistema italo-europeo delle fonti, si rinvia a P. Perlingieri, Il diritto civile nella legalità costituzionale, Napoli, 2006, p. 265 ss.

[23] Sulla necessità di un giudizio “ciclico di meritevolezza” dei sistemi intelligenti, si consenta rinviare a R. Trezza, Artificial Intelligence Act. Giudizio “ciclico” di meritevolezza e accountability intelligenti, Roma, 2021.

[24] Sul concetto di meritevolezza, tra gli ultimi, si veda P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., pp. 346-351; I. Martone, Il giudizio di meritevolezza. Questioni aperte e profili applicativi, Napoli, 2017; E. Minervini, La «meritevolezza» del contratto. Una lettura dell’art. 1322 comma 2 c.c., Torino, 2019; R. Trezza, Multiproprietà azionaria  e tutela del consumatore: risvolti processuali e funzioni della causa negoziale, in Cultura giuridica e diritto vivente, n. 7/2020, pp. 2-13.

[25] Sul punto, si consenta rinviare a R. Trezza, I diritti della persona tra “tecniche” e “intelligenze” artificiali. Casi, questioni, prospettive, Cile, 2021, p. 19.

[26] Sul punto, si rinvia a M. R. Ferrarese, Gestire i conflitti. Diritto, cultura, rituale, Bari-Roma, 2009; A. Rufino, Norma e conflitto. Cultura giuridica e regole sociali, dallo Stato moderno alla società globale, Milano, 2009; G. Azzariti, Diritto e conflitti. Lezioni di diritto costituzionale, Bari-Roma, 2010; B. Bilotta, Conflitti e istanze di giustizia nelle società contemporanee, Milano, 2014; C. Sarra, F. Reggio, Diritto, metodologia giuridica e composizione del conflitto, Padova, 2020.

[27] Ciò ha spinto chi scrive a coniare il nuovo brocardo giuridico “ex robot oritur ius”. Si veda R. Trezza, E. Quarta, Coche sin conductor o ley sin conductor: ¿qué dirección tomará la ley para evitar los accidentes sistemáticos?, in Revista de derecho del transporte, n. 28/2021, p. 221.

[28] Anche il lavoro dell’interprete deve evolversi alla luce della c.d. “globalizzazione giuridica”. Si rinvia, sul punto, all’attenta riflessione di A. Occhipinti, Interpreti e fonti del diritto nella globalizzazione giuridica, in Giurisprudenza Penale Web, n. 1/2019, p. 23, per il quale: “Il cammino è iniziato da tempo e rappresenta una strada ormai irrinunciabile affinché permanga “un legame funzionale fra il diritto positivo e la sua funzione sociale” e “il diritto legislativo non sia fine a sé stesso, non trovi in se stesso il proprio valore, ma sia essenzialmente regola pratica, posta ad un fine regolativo concreto di rapporti sociali”. Non può, sul tema, non rinviarsi a P. Grossi, Globalizzazione, diritto, scienza giuridica, in For. it., n. 5/2002, pp. 151-164.  Ancora di recente, si rinvia a G. Pallotta, La globalizzazione del diritto, in Cammino Diritto, n. 9/2019, pp. 1-17; G. Contaldi (a cura di), Sovranità e diritti al tempo della globalizzazione, Roma, 2021.

[29] Si veda E. Tosi, High tech law. The digital legal frame in Italy. An overview of contracts, digital content protection and ISP liabilities emerging issues, Milano, 2015; P. Cellini, C. Ratti, L. De Biase, La rivoluzione digitale. Economia di internet dallo Sputnik al machine learning, Roma, 2018; F. Rullani, E. Rullani, Dentro la rivoluzione digitale. Per una nuova cultura dell’impresa e del management, Torino, 2018; G. Giorgetti, Rivoluzione Digitale Italiana: dal colonialismo all’indipendenza tecnologica, Roma, 2019; G. Pascuzzi, Il diritto dell’era digitale, Bologna, 2020; R. Giordano, A. Panzarola, A. Police, S. Preziosi, M. Proto, Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, Milano, 2022. Il volume, davvero recentissimo, prende innanzitutto in esame la Persona e la sua sfera di diritti e tutele, anche dopo la morte, senza dimenticare il baluardo del diritto all’oblio.

[30] La filosofia di Giddens è ben sintetizzata da L. Re, Approcci europei alla globalizzazione, in Jura Gentium, consultabile online, ove si legge che: “Le definizioni del termine globalizzazione sono numerosissime; una delle più note è stata data da Anthony Giddens nel suo saggio intitolato Le conseguenze della modernità. Secondo Giddens, il termine globalizzazione designa “l’intensificazione di relazioni sociali mondiali che collegano tra loro località distanti, facendo sì che gli eventi locali vengano modellati dagli eventi che si verificano a migliaia di chilometri di distanza e viceversa” . Nonostante le numerose critiche che le sono state mosse, questa definizione appare ancora oggi una delle più esaustive. Essa rappresenta infatti un tentativo di descrivere il processo di globalizzazione, senza attribuire un ruolo predominante a una sola dimensione. La “interconnectedness” di Giddens presuppone la rivoluzione informatica e tecnologica, ma non esclude il contemporaneo verificarsi di dinamiche altrettanto rilevanti in altri settori dell’agire istituzionale (come l’economia, la politica internazionale, la cultura). La definizione di Giddens inoltre ha il pregio di indicare l’effetto principale del processo di globalizzazione: la globalizzazione modifica la percezione della “distanza” e ridisegna i confini esistenti. Ridisegnare i confini non significa tuttavia abbatterli, ma collegare fra loro, “connettere”, luoghi un tempo distanti e, contemporaneamente, allontanare, “disconnettere”, luoghi che erano ritenuti vicini”. Sul punto, si rinvia ancora a N. De Federicis, Modernità e globalizzazione nella teoria critica di Anthony Giddens, in Ragion pratica, n. 1/2003, pp. 253-272.

[31] Sul punto, si veda M. R. Ferrarese, Diritto sconfinato. Inventiva giuridica e spazi del mondo globale, Roma-Bari, 2006, p. 102. In una chiave innovativa e più recente, id., Nomofilachia ed evoluzione giuridica. Corti supreme, legalità e riassestamenti post-globalizzazione, in Questione Giustizia, n. 1/2021, consultabile online.

[32] P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 471 ss., sul rapporto tra mercato, solidarietà e diritti umani.

[33] Si rinvia nuovamente a P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., specie p. 481, ove l’A. discorre di “pervasività del mercato” e, dunque, della  necessità di una regolazione correttiva al fine di distribuire, redistribuire e raggiungere un principio stabile di “solidarietà sociale”. Non vi deve solo essere una giustizia “retributiva”, ma anche e soprattutto una giustizia “distributiva”. Inoltre, a p. 505, l’A. sottolinea che: “Non bastano politiche di coesione e di armonizzazione legislativa: sarà necessario garantire i diritti dell’uomo in modo uniforme e ciò sarà possibile in maniera piena con l’adozione di una Costituzione rigida europea (…) che preveda una Corte Costituzionale europea la quale possa svolgere un’attività di garanzia, in una prospettiva diversa da quella prevalentemente mercantile tipica delle funzioni della Corte di giustizia europea”.

[34] M. R. Ferrarese, Diritto sconfinato, cit., p. 102 ss.; A. Catania, Metamorfosi del diritto. Decisione e norma nell’età globale, Roma-Bari, 2008, p. 47 ss. 

[35] Sul punto, si rinvia a M. R. Ferrarese, Diritto e mercato. Il caso degli Stati Uniti, Torino, 1992, specie p. 17. In accordo P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 478, il quale sottolinea che: “Il buon diritto non si pone all’esclusivo o prevalente servizio delle ragioni economiche, ma sa contrapporsi ad esse, impedendo la mercantilizzazione della società e la identificazione dei diritti civili e dei diritti umani naturali con quelli economici (…). Il buon diritto è giusto, equo, solidale, ha una sua giustificazione sociale, non esaurisce i diritti nel loro contenuto patrimonialistico, facendone dei privilegi, ma nel contribuire a migliorare la qualità della via (…)”. Il mercato, dunque, va “giuridificato”. In tal senso, si veda G. Alpa, La c.d. giuridificazione delle logiche dell’economia di mercato, in Riv. trim., 1999, p. 725 ss.

[36] Sul punto, si veda G. Saputelli, Stato, Unione Europea e lex mercatoria, Torino, 2015; F. Galgano, Lex mercatoria, Bologna, 2016.

[37] Si legga la relazione tenuta da G. La Pira sui principi costituzionali: “La risposta è evidente: riaffermare solennemente i diritti naturali – imprescrittibili, sacri, originari – della persona umana e costruire la struttura dello Stato in funzione di essi. Lo Stato per la persona e non la persona per lo Stato: ecco la premessa ineliminabile di uno Stato essenzialmente democratico”. Si può rinvenire tale considerazione in www.lanscitadellacostituzione.it. Nella medesima direzione, P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., specie p. 508, laddove si afferma che: “Il mercato vale per ciò che è; non semplicemente perché c’è esso merita un elogio debole ovvero condizionato, senza confondere le ragioni economiche e gli argomenti etici: sono questi ultimi che meritano priorità e forniscono all’economia un fondamento etico che, nella concreta realtà storia, sappia coniugare efficienza economica e diritti umani, mercato e democrazia”.

[38] Cfr. lo scritto di N. Occhiocupo, Una intesa lungimirante: la centralità della persona, in Nuova Antologia, n. 619/2018, p. 2287, ove l’A. auspica: “che siano realizzate riforme, costituzionali e non, dirette a costruire compiutamente l’ordinamento statuale, delineato nella Costituzione del 1948, per dare maggiore, incisiva e diffusa effettività al processo di liberazione, di promozione, di pieno sviluppo della persona umana, nella multidimensionalità dei suoi bisogni, materiali e spirituali, fine preminente su cui le forze politiche presenti all’Assemblea Costituente raggiunsero l’intesa, rivelatasi lungimirante”.

[39] Si veda, sul punto, R. Trezza, E. Quarta, Driverless car o driverless law: quale direzione prenderà il diritto per evitare “incidenti sistematici”?, in Cultura giuridica e diritto vivente, n. 2/2021, p. 2 ss.

[40] Ciò venne messo in evidenza già da A. Fazio, Globalizzazione, diritto, persona, Lectio magistralis tenuta in occasione del conferimento ad honorem del titolo di Doctor of Laws, Roma, 21 luglio, 2002, consultabile online, p. 12, ove si legge che: “L’efficacia di regole comuni, improntate al rispetto della dignità umana e della solidarietà, lo sviluppo di circuiti virtuosi di espansione e di progresso dipendono dall’impegno e dalla volontà di ciascun paese, soprattutto dei più avanzati, dalla politica e dalla coscienza sociale. Le persone sono titolari di diritti che precedono il momento della decisione statuale. Persona comparatur ad comunitatem sicut pars ad totum”.

[41] Sulla c.d. dematerializzazione delle attività umana, non si può non rinviare a P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 916 ss. Si faccia il caso delle banconote, ormai completamente sostituite dalle monete elettroniche (bitcoin). Sul punto, si rinvia a S. Capaccioli, Criptovalute e bitcoin. Un’analisi giuridica, Milano, 2015; R. Razzante (a cura di), Bitcoin e criptovalute. Profili fiscali, giuridici e finanziari, Santarcangelo di Romagna, 2018; F. Pontani, Criptovalute. Tecnicità, diritto ed economia, Roma, 2019. Anche le opere d’arte, ad esempio, vengono dematerializzate. Sul punto si veda G. Vulpiani, Non fungible tokens, smart contracts e blockchain nell’arte e nella moda: crypto art e digital fashion, in Cammino Diritto, n. 11/2021, pp. 1-18; M. Rubino De Ritis, L’espansione economica nel Metaverso: i No Fungible Token (NFT), in Giustiziacivile.com, 16 novembre 2021, consultabile online. Si consenta rinviare, in tal senso, anche a I. Allegranti, R. Trezza, I non-fungible token (NFT) come trampolino di lancio per le città devastate a causa dei disastri ambientali. Un’analisi del fenomeno nella legalità reticolare, in Il diritto dell’economia, n. 1/2022.

[42] Tale cambiamento è messo in luce da G. Rizzuti, La comunicazione ai tempi del coronavirus, in Diritto Mercato Tecnologia, 31 marzo 2020, consultabile online; E. Mangone, La comunicazione del rischio: la pandemia da COVID-19, in Mediascapes Journal, n. 15/2020, p. 132 ss.; D. Salzano, I. Scognamiglio (a cura di), Voci nel silenzio. La comunicazione al tempo del Coronavirus, Milano, 2020;  J. Sierra-Sánchez, N. Abuín Vences, J. Milán Fitera, Trattamento informativo della pandemia del Coronavirus nei media digitali italiani, in Journal of Science Communication, n. 20/2021, p. 1 ss.

[43] La gran parte del tempo passata in rete, “navigando” per tutte le attività umana, crea un “io virtuale” traslato nella virtualità dall’“io fisico”. In tal senso, si veda I. Martone, Sulla trasmissibilità a causa di morte dei “dati personali”: l’intricato rapporto tra digitalizzazione e riservatezza, in Dir. succ. fam., 2021. In tale direzione, si veda anche G. Alpa, L’identità digitale e la tutela della persona. Spunti di riflessione, in Contr. impr., 2017, p. 723 ss.; C. Camardi, L’eredità digitale. Tra realtà e virtuale, in Dir. inf., 2018, p. 662 ss.; A. A. Mollo, Successione “mortis causa” nel patrimonio digitale e diritto alla protezione dei dati personali, in Familia, 2020, p. 181 ss.; S. Deplano, La successione a causa di morte nel patrimonio digitale, in C. Perlingieri, L. Ruggieri (a cura di), Internet e diritto civile, Napoli, 2015, p. 427 ss. Di recente, sul punto, si veda G. Alpa, Il diritto di essere se stessi, Milano, 2021, p. 253.; M. Foglia, Identità digitale, trattamento dei dati e tutela della persona, in Rass. dir. civ., n. 1/2021, p. 80 ss.

[44] Sul punto, interessanti sono i dibattiti intervenuti sul c.d. “diritto alla disconnessione”. Si veda, in tal senso, R. Perrone, Il «diritto alla disconnessione» quale strumento di tutela di interessi costituzionalmente rilevanti, in Federalismi, n. 24/2017, p. 2 ss.; E. Sena, Lavoro agile e diritto alla disconnessione: l’incidenza delle nuove tecnologie sulle modalità di esecuzione della prestazione di lavoro, in Il diritto del mercato del lavoro, n. 1/2018, p. 24 ss.; E. Signorini, Il diritto del lavoro nell’economia digitale, Torino, 2018; C. Chiarella, Lavoro agile: introdotto nell’ordinamento italiano il diritto alla disconnessione, in Il Quotidiano giuridico, 26 maggio 2021, consultabile online, ove si legge che: “Il legislatore, nella legge di conversione del D.L. 13 marzo 2021, n. 30, pubblicata in G.U. lo scorso 12 maggio 2021 (L. 6 maggio 2021, n. 61) e recante “Misure urgenti per fronteggiare la diffusione del COVID-19 e interventi di sostegno per lavoratori con figli minori in didattica a distanza o in quarantena” ha riconosciuto, per la prima volta in via normativa, un vero e proprio diritto di coloro che lavorano da remoto a potersi disconnettere da tutti gli strumenti tecnologici che consentono di poter accedere al proprio account aziendale anche al di fuori dell’ufficio in determinati orari”; D. Granata, M. Russo, Il diritto alla disconnessione nell’era dell’always on, in Ratio iuris, 16 giugno 2021, consultabile online, ove si sottolinea che: “Volendo definire la natura giuridica del diritto in questione, proprio in riferimento ai due modelli esaminati (Francia e Italia), si può validamente affermare che la disconnessione più che mero divieto imposto ai datori di lavoro sembra essere un diritto soggettivo dei lavoratori. Tanto nel contesto francese quanto in quello italiano, invero, alle parti è rimessa la definizione delle concrete modalità di attuazione del diritto alla disconnessione che devono essere definite all’interno di accordi collettivi (Francia) o individuali (Italia), o, limitatamente al caso francese, in casi eccezionali rimessi alla determinazione unilaterale del datore di lavoro. In effetti, la rimessione alle parti della determinazione delle modalità attuative del diritto dimostra che la disconnessione non configura un mero divieto ma implica una condotta attiva  e quindi una obbligazione di tipo positivo che si sostanzia nella ricerca delle migliori soluzioni per assicurare la disconnessione. In particolare, si tratterebbe di una obbligazione di tipo organizzativo e gestionale rientrante nel più largo genus degli obblighi esistenti in materia di salute e sicurezza sul lavoro che il datore è tenuto a rispettare”; R. Pallotta, Smart working: diritto alla disconnessione e nuove tutele per i lavoratori genitori, in IPSOA, 19 aprile 2021, consultabile online, il quale ricorda che l’ultimo intervento normativo in ordine di tempo risale allo scorso 21 gennaio 2021 quando il Parlamento europeo ha approvato la Risoluzione del 21 gennaio per raccomandare agli Stati membri il riconoscimento di questo diritto come fondamentale, con una proposta di direttiva.

[45] Ciò non va confuso con l’“algoritmo di ordinamento”, il quale viene utilizzato per posizionare gli elementi di un insieme secondo una sequenza stabilita da una relazione d’ordine, in modo che ogni elemento sia minore (o maggiore) di quello che lo segue. In assenza di altre specifiche, la relazione d’ordine viene sempre considerata totale (cioè tale da rendere sempre possibile il confronto tra due elementi dell’insieme): le relazioni d’ordine parziale danno origine agli algoritmi di ordinamento topologico. A seconda del verso della relazione considerato, un ordinamento può essere ascendente o discendente.

[46] Sul punto, si consenta rinviare a R. Trezza, Diritto e intelligenza artificiale, cit., p. 15.

[47] Non può non farsi riferimento a R. Trezza, L’algoritmo “protettivo”: gli istituti di protezione della persona alla prova dell’Intelligenza Artificiale, in questa rivista, n. 1/2021, pp. 217-255.

[48] Su tale questione, si rinvia a P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 667, ove l’A. sottolinea che: “Lo status personae ha funzione di garanzia espressa da un principio generale di tutela (art. 2 cost.) e da una serie di esplicite previsioni (…). Le situazioni soggettive che compongono lo status personae sono direttamente funzionalizzate al soddisfacimento dei bisogni esistenziali (…). Lo status personae (…) rappresenta la configurazione soggettiva di un valore. La personalità è il valore, lo status personae è situazione soggettiva unitaria”.

[49] Tra tutti, sul punto, si vede P. Perlingieri, P. Femia, Nozioni introduttive e principi fondamentali del diritto civile, Napoli, 2004; P. Stanzione, B. Troisi, I principi generali del diritto civile, Torino, 2011, p. 1 ss. A. Morelli, I principi costituzionali relativi ai doveri inderogabili di solidarietà, in Forum costituzionale, n. 4/2015, p.  1 ss.; L. Ventura, A. Morelli (a cura di), Principi costituzionali, Milano, 2015; G. Silvestri, L’individuazione dei diritti della persona, in Diritto penale contemporaneo, 2018, p. 1 ss.; V. Baldini, La classificazione dei diritti fondamentali. Profili storico-teorico-positivi, in Rivista del Gruppo di Pisa, 2020, p. 1 ss.

[50] Cfr., sul punto, D. Tega, Le sentenze della Corte costituzionale nn. 348 e 349 del 2007: la Cedu da fonte ordinaria a fonte “sub-costituzionale” del diritto, in Forum costituzionale, 2007, pp. 1-4; C. Casonato, La scienza come parametro interposto di costituzionalità, in Rivista AIC, n. 2/2016, p. 1 ss.; G. E. Polizzi, Le norme della Carta sociale europea come parametro interposto di legittimità costituzionale alla luce delle sentenze Corte costituzionale nn. 120 e 194 del 2018, in Federalismi, n. 4/2019, p. 2 ss.

[51] In particolar modo si fa riferimento alla Carta dei diritti fondamentali dell’Unione europea e alla Convenzione europea sulla salvaguardia dei diritti e delle libertà fondamentali. Sul punto, ma solo per un rapido approfondimento, si rinvia a G. Biagioni, Carta UE dei diritti fondamentali e cooperazione giudiziaria in materia civile, Napoli, 2018; A. Viglianisi Ferraro, Il private enforcement in Italia della Carta dei diritti fondamentali dell’Unione europea a vent’anni dalla sua proclamazione, in Novos Estudios Jurìdicos, n. 2/2020, p. 339; E. Cannizzaro, La Carta dei diritti fondamentali e la determinazione della intensità della sua tutela, in Eurojus, 7 dicembre 2020, consultabile online; B. Nascimbene, Carta dei diritti fondamentali, applicabilità e rapporti fra giudici: la necessità di una tutela integrata, in European Papers, n. 6/2021, p. 81 ss.; A. Viglianisi Ferraro, Il diritto di proprietà nella Convenzione europea dei diritti dell’uomo e la necessità di una maggiore tutela dello stesso a livello nazionale, in Revista de estudos constitucionais , hermeneutica e teoria do direito, 2020, p. 335 ss.

[52] Su tale aspetto, si veda P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 159 ss.; p. 265 ss. sul c.d. “sistema italo-comunitario delle fonti”; pp. 305-307 sulle “fonti sovranazionali”.

[53] Sembra in accordo anche E. Stradella, La regolazione della Robotica e dell’Intelligenza artificiale: il dibattito, le proposte, le prospettive. Alcuni spunti di riflessione, in Rivista di diritto dei media, n. 1/2019, specie p. 15.

[54] In tal senso, R. Trezza, “Legal values” and “algorithmic values”: an ethically oriented interpretation of Artificial intelligence, in Iura and legal systems, n. 2/2021, pp. 3-14.

[55] Si rinvia a R. Trezza, Diritto e intelligenza artificiale, cit., pp. 15-17.

[56] Si rinvia a R. Trezza, I diritti della persona tra “tecniche” e “intelligenze” artificiali, cit. Sembra sostenere la stessa tesi, seppur in chiave dichiaratamente filosofica, L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, 2022, specie p. 91 ss., ove si sottolinea che ci sia la necessità di universalizzare i principi etici fondanti per una I.A. proiettata al bene comune e al benessere della persona umana.

[57] Sul punto, R. Trezza, Artificial Intelligence Act, cit., p. 72 ss., ove chi scrive sostiene che i sistemi intelligenti vadano vagliati nella loro meritevolezza in tutto il loro percorso costruente. Anche se questi venissero, in qualche modo, programmati diversamente in itinere, dovranno sempre superare il giudizio di meritorietà (rebus sic stantibus intelligente). Sul concetto di privacy by design e by default, si rinvia a F. Pizzetti, Privacy e il diritto europeo alla protezione dei dati personali: dalla Direttiva 95/46 al nuovo Regolamento europeo, Giappichelli, Torino, 2016; G. D’Acquisto, M. Naldi, Big Data e Privacy by design, Torino, 2017; E. Tosi (a cura di), Privacy digitale. Riservatezza e protezione dei dati personali tra GDPR e nuovo Codice Privacy, Milano, 2019; A. Stazi, Big Data e diritto comparato, in Comp. dir. civ., n. 2/2019, p. 615 ss.; L. Bolognini (a cura di), Privacy e libero mercato digitale. Convergenza tra regolazioni e tutele individuali nell’economia data-driven, Torino, 2021; P. Stanzione (a cura di), I “poteri privati” delle piattaforme e le nuove frontiere della privacy, Torino, 2022.

[58] Su tale aspetto, non può non rinviarsi allo scritto di P. Femia (a cura di), Drittwirkung: principi costituzionali e rapporti tra privati, Napoli, 2018, p. VII ss. Inoltre, si rinvia a E. Navarretta, Costituzione, Europa e diritto privato. Effettività e Drittwirkung ripensando la complessità giuridica, Torino,  2017; id. (a cura di), Effettività e Drittwirkung nelle discipline di settore. Diritti civili, diritti sociali, diritto al cibo e alla sicurezza alimentare, Torino, 2017.

[59] Sulla dinamicità dell’ordinamento giuridico, si veda P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 177 ss.

[60] Cfr., in merito, D. Giribaldi, Intelligenza artificiale, tutti i pregiudizi (bias) che la rendono pericolosa, in Agenda digitale, 26 febbraio 2019, consultabile online.

[61] Su tal punto, si rinvia a R. Trezza, Diritto e intelligenza artificiale, cit., pp. 22-24. Fa, inoltre, ben comprendere il concetto L. Sambucci, I bias dei modelli algoritmici sono colpa nostra, in www.ai4business.it, 4 febbraio 2021, consultabile online, il quale, in completo accordo con lo scrivente, evidenzia che: “Per questo motivo si dovrebbe ripensare la costruzione dei dataset, iniziando a farla con la cura che necessitano, introducendo una vera e propria pulizia-by-design che consentirà a chi realizza modelli di machine learning di avere meno sorprese possibili, sia sul piano etico sia magari anche sul piano degli attacchi adversarial. Del resto, anche i decisori politici statunitensi hanno compreso che per aiutare il settore dell’intelligenza artificiale a fare un salto di qualità vi sia bisogno di creare e fornire dataset gratuiti e puliti, o comunque il più puliti possibile. Gli USA infatti, con la pioggia di miliardi che faranno piovere sul settore nei prossimi anni, hanno pensato fra le altre cose anche a finanziare la creazione di dataset di qualità, disponibili gratuitamente per tutti i ricercatori. La parte in salita sarà convincere chi costruisce modelli a usare solo dataset puliti e costruiti con determinati criteri, scartando quelli che già in passato hanno dimostrato di avere numerosi bias. Non sarà facile, ma sarà necessario per scongiurare che l’intelligenza artificiale diffonda e amplifichi ulteriormente i pregiudizi della nostra società”.

[62] La stessa necessità è illustrata da U. Ruffolo, G. Riccio, A. F. Uricchio, Intelligenza Artificiale tra etica e diritti. Prime riflessioni a seguito del libro bianco dell’Unione europea, Bari, 2020.

[63] Sul punto, si consenta rinviare a R. Trezza, “Legal values” and “algorithmic values”: an ethically oriented interpretation of Artificial intelligence, cit., p. 3 ss.  

[64] Su tale aspetto innovativo della triplice categoria soggettiva e relativo profilo di responsabilità, si rinvia a R. Trezza, Diritto e intelligenza artificiale, cit., p. 49 ss.

[65] In un’ottica comparatistica, si veda C. A. Agurto Gonzales, El dano a la persona en la experiencia jurìdica italiana, Cile, 2020, p. 33 ss.

[66] Per una panoramica accorta del fenomeno, si rinvia a A. Biancardo, Problematiche etico giuridiche relative all’utilizzo dell’intelligenza artificiale in ambito sanitario, in Jus online, n. 3/2021, pp. 1-51; E. Colletti, Intelligenza artificiale e attività sanitaria. Profili giuridici dell’utilizzo della robotica in medicina, in Rivista di Diritto dell’Economia, dei Trasporti e dell’Ambiente, XIX, 2021, p. 201 ss. Per una visione più approfondita e generale sulla digitalizzazione dei sistemi sanitari, si veda F. Maschio, Innovazione digitale dei sistemi sanitari, eHealth e questioni di data governance, nell’agenda digitale sanitaria nazionale ed europea, in Comp. dir. civ., n. 2/2021, p. 559 ss.

[67] Su tale fenomeno, per un approfondimento, si veda, fra tutti, A. C. Nazzaro, Cyberbullismo, in questa rivista, n. 2/2020, p. 465 ss.; A. Contaldo, D. Mula (a cura di), Cybersecurity law. Disciplina italiana ed europea della sicurezza cibernetica anche alla luce delle norme tecniche, Pisa, 2020. Si sottolinea che, in Italia, proprio nel 2021, è nata l’ACN, l’Autorità nazionale per la cybersicurezza, istituita con il D.L. 14 giugno 2021, n. 82, a tutela degli interessi nazionali nel cyberspazio. Garantisce l’implementazione della strategia nazionale di cybersicurezza adottata dal Presidente del Consiglio, promuove un quadro normativo coerente nel settore, ed esercita funzioni ispettive e sanzionatorie. Sviluppa collaborazioni a livello internazionale con agenzie omologhe. Assicura il coordinamento tra i soggetti pubblici e la realizzazione di azioni pubblico-private volte a garantire la sicurezza e la resilienza cibernetica per lo sviluppo digitale del Paese. Sulla natura giuridica di tale agenzia, riconducibile a quella delle Autorità Amministrative indipendenti, si può solo rinviare a R. Chieppa, G. P. Cirillo, Le autorità amministrative indipendenti, Padova, 2010; C. Giordano, A. Napolitano (a cura di), Le autorità amministrative indipendenti. L’evoluzione oltre la contraddizione, Roma, 2019.

[68] Sul punto, anche e soprattutto in una visione “assicurativa”, si rinvia a A. La Torre, I robot fra responsabilità e assicurazione, in Rivista Assicurazioni, n. 3/2019.

[69] Sul punto, si veda la nota della Redazione Ratio Iuris, Brevi note sulla risoluzione del Parlamento europeo del 16 febbraio 2017 concernente le norme di diritto civile sulla robotica, consultabile online, p. 14, ove si legge che: “Nel dinamismo proprio delle sfide cui il diritto è chiamato a cimentarsi, infatti, l’eventuale prospettazione di un nuovo soggetto di diritto, di una “persona elettronica”, chiama alle armi i pilastri portanti della scienza civilista – e non solo – del diritto. Occorre, pertanto, prendere coscienza di come gli impulsi europei (che, in effetti, rispecchiano in toto le problematiche concrete di una società in pieno divenire) possano trovare risposta nel nostro sistema giuridico, indipendentemente dallo strumento legislativo che si riterrà opportuno adottare”.

[70] Sul punto, tra tanti, si rinvia a A. Castagnedi, La grande corsa verso un modello di Intelligenza Artificiale affidabile: il Parlamento Europeo propone un nuovo regime di responsabilità civile, in Eurojus, n. 2/2021, p. 125 ss., ove, sugli assunti assicurativi, si evidenzia che: “Ad oggi già qualche copertura assicurativa è stata introdotta nel mercato, procedendo di pari passo con lo sviluppo della tecnologia, tuttavia la vere difficoltà si insidiano nell’ideare una soluzione che sia applicabile a tutti i sistemi di IA. Secondo il ragionamento illustrato dal Parlamento Europeo, la Commissione dovrebbe lavorare congiuntamente con il mercato assicurativo per stilare un elenco contenente prodotti assicurativi innovativi. Al contrario, qualora il risarcimento del danno sia maggiore rispetto ai massimali prefissati nel Regolamento, l’idea sarebbe quella di incoraggiare gli Stati Membri ad istituire un fondo, per un periodo limitato, da cui poter attingere. Così come la stessa idea potrebbe essere applicata nel caso in cui un sistema di IA, non ancora classificato come sistema di IA ad alto rischio e quindi non ancora assicurato, causi danni o pregiudizi”.

[71] Su tale aspetto, si rinvia, per un approfondimento, a S. Notaro, La Risoluzione del Parlamento europeo sull’uso dell’intelligenza artificiale, in E-lex, 12 febbraio 2021, consultabile online.

[72] Sul punto, si rinvia a B. Borrillo, La tutela della privacy e le nuove tecnologie: il principio di accountability e le sanzioni inflitte dalle Autorità di controllo dell’Unione europea dopo l’entrata in vigore del GDPR, in Diritti fondamentali, n. 2/2020, p. 355, la quale sottolinea, in maniera ampiamente condivisibile, che: “sotto il profilo metodologico, si rinviene una marcatura molto forte dei diritti dell’interessato all’accesso, al blocco, alla rettifica, alla cancellazione dei dati e anche del diritto a riceverli in formato strutturato affinché si possano trasmettere ad altri liberamente. L’informazione, pertanto, è considerata non soltanto in maniera statica quanto e soprattutto come insieme di dati in movimento e, come tali, idonei a tramutarsi, per connessione, in nuove e più sofisticate informazioni. L’innovazione configura il passaggio da una concezione fondata in via esclusiva sul consenso informato a una concezione caratterizzata prevalentemente sul controllo, nella consapevolezza che il consenso non è sufficiente e che anzi è, per certi versi, fuorviante e non idoneo di fatto a garantire il rispetto della persona. Il processo evolutivo, realizzato in questa materia, va di pari passo con l’affermarsi delle tradizioni costituzionali europee, con la prevalenza del riconoscimento e della garanzia dei diritti inviolabili della persona umana su altri istituti pur definiti fondamentali, ma non inviolabili: inviolabile in maniera assoluta è esclusivamente il valore della persona umana, il suo sviluppo, la sua dignità”.

[73] A tal uopo, si rinvia a J. P. Aparicio Vaquero, La protección de datos personales en las redes sociales. Apuntes desde los ordenamientos europeo y español, in questa rivista, n. 1/2020, p. 209 ss.

[74] Si rinvia a C. Castronovo, Problema e sistema del danno da prodotti, Milano, 1979; R. Pardolesi, La responsabilità per danno da prodotti difettosi, in Le nuove leggi civili commentate, 1989, p. 487 ss.; A. Gorassini, Contributo per un sistema della responsabilità del produttore, Milano, 1990; G. Alpa, Responsabilità civile e danno, Bologna, 1991; G. Ponzanelli, Responsabilità del produttore, in Rivista di diritto civile, 1995, II, p. 215; G. Alpa, Il diritto dei consumatori, Roma-Bari, 1995; F. Cafaggi, La nozione di difetto ed il ruolo dell’informazione. Per l’adozione di un modello dinamico-relazionale di difetto in una prospettiva di riforma, in Rivista critica di diritto privato, 1995, II, p. 447; U. Carnevali, La responsabilità del produttore, Milano, 1974; C. Castronovo, La nuova responsabilità civile, Milano, 1997; A. Stoppa, Responsabilità del produttore, voce del Digesto delle discipline privatistiche (sez. civ.), XVII, Torino, 1998, p. 119 ss.; P. G. Monateri, La responsabilità civile, in Trattato di diritto civile diretto da R. Sacco, Torino, 1998; U. Carnevali, Responsabilità del produttore, voce dell’Enciclopedia del diritto, Agg., II, Milano, 1998, p. 936 ss.; G. Alpa, M. Bessone, La responsabilità del produttore, Milano 1999; A. De Berardinis, La responsabilità del produttore, in G. Alpa (a cura di), I precedenti. La formazione giurisprudenziale del diritto civile, II, Torino, 2000, p. 1193 ss.; L. Mezzasoma, L’importatore all’interno della C.E. di prodotti difettosi fabbricati in altro Stato comunitario, in Rassegna della giurisprudenza umbra, 2001, I, p. 207; G. Ponzanelli, Responsabilità del produttore, in Rivista di diritto civile, 2000, II, p. 913; S. Della Bella, Cedimento di scala estensibile e responsabilità del produttore-progettista: la nozione di danneggiato nella disciplina sulla responsabilità del produttore, in Responsabilità civile e previdenza, 2003, I, p. 1153; G. Ponzanelli, Responsabilità oggettiva del produttore e difetto di informazione, in Danno e responsabilità, 2003, I, p. 1005; G. Nicolini, Danni da prodotti agroalimentari difettosi: responsabilità del produttore, Milano, 2006; P. Mariotti, Prodotti difettosi e obsolescenza programmata, Santarcangelo di Romagna, 2013; E. Graziuso, La responsabilità per danno da prodotto difettoso, Milano, 2015.

[75] Su tale previsione, più nello specifico, si faccia riferimento a R. Trezza, Artificial Intelligence Act, cit., p. 88 sulla valutazione della c.d. “conformità”, ma ancora p. 75 sulle c.dd. “prove di affidabilità” del sistema intelligente.

[76] Sul punto, si rinvia a L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica del diritto, n. 4/2018, pp. 713-739; S. Tommasi, L’Intelligenza Artificiale antropocentrica: limiti e opportunità, in Jus civile, n. 4/2020, p. 886, ove, in maniera del tutto condivisibile, si afferma che: “Occorre, altresì, non perdersi in declamazioni o mere affermazioni o, come spesso avviene a livello europeo, in una fitta mole di documenti ripetitivi e pieni di “media della comunicazione simbolicamente generalizzati”, ossia media che forniscono alla comunicazione la possibilità di venire accettata. Questo per dire che non basta affermare che si deve «assicurare che l’IA sia sviluppata e applicata in un quadro adeguato che promuova l’innovazione e rispetti i valori dell’Unione e i diritti fondamentali, oltre ai principi etici come la responsabilità e la trasparenza». Chi può non essere d’accordo sulla necessità di un’IA sicura, affidabile o rispettosa della dignità? Il punto è andare oltre i generici proponimenti e pensare a come rendere concretamente possibile tutto questo, scongiurando i rischi che intanto si profilano per la vita delle persone, vittime di profilazioni e discriminazioni spesso invisibili e silenziose, e per la dignità degli esseri viventi, appartenenti e non al genere umano”; E. Burgio, L. De Simone, Intelligenza Artificiale e responsabilità civile, in Media Laws, 15 aprile 2021, consultabile online, per le quali: “Bisogna analizzare in primo luogo quali possano essere le fattispecie ricollegabili alla responsabilità civile per danno da intelligenza artificiale. La dottrina maggioritaria, interpretando norme codicistiche, identifica che questa responsabilità potrebbe produrre esiti soddisfacenti con riferimento alla responsabilità oggettiva (come anche già immaginato nella Risoluzione del Parlamento del 2017), intesa come responsabilità contrapposta a quella per colpa. In questo caso, è sufficiente dimostrare danno e connessione causale tra questo e il funzionamento che lo ha generato ed una complessa valutazione dei rischi e della capacità di controllo da parte “persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo” (punto 55) dell’intelligenza artificiale”; M. Costanza, L’intelligenza artificiale e gli stilemi della responsabilità civile, in Giur. it., n. 7/2019, p. 1686 ss.; G. Capilli, Responsabilità e robot, in Nuova giur. civ. comm., n. 3/2019, p. 621 ss.; G. Proietti, Responsabilità nell’Intelligenza Artificiale e nella Robotica, Milano, 2020; I. Martone, Algoritmi e diritto: appunti in tema di responsabilità civile, in questa rivista, n. 1/2020, pp. 128-153; M. Ratti, Riflessioni in materia di responsabilità civile e danno cagionato da dispositivo intelligente alla luce dell’attuale scenario normativo, in Contr. impr., n. 2/2020, p. 1174; A. Procida Mirabelli Di Lauro, Intelligenze Artificiali e responsabilità civile, in Id, M. Feola, Diritto delle obbligazioni, Napoli, 2020, p. 507 ss.; A. Fusaro, Quale modello di responsabilità per la robotica avanzata? Riflessioni a margine del percorso europeo, in Nuova giur. civ. comm., 2020, p. 1348; F. Naddeo, Intelligenza artificiale: profili di responsabilità, in Comp. dir. civ., n. 3/2020, p. 1141; A. Lepore, I.A. e responsabilità civile. Robot, autoveicoli e obblighi di protezione, in questa rivista, n. 1/2021, p. 190 ss.; C. Iorio, Intelligenza artificiale e responsabilità: spunti ricostruttivi, in questa rivisita, n. 2/2021, p. 51 ss.

[77] Cfr., P. Perlingieri, Fonti del diritto e “ordinamento del caso concreto”, in Riv. dir. priv., n. 4/2010, p. 7 ss.

[78] Pare che sia d’accordo, con tale costruzione, anche U. Salanitro, Intelligenza artificiale e responsabilità: la strategia della Commissione europea, in Rivista di diritto civile, LXVI, n. 6/2020, specie p. 1276, ove l’A. afferma che: “lo spostamento di focale dal produttore all’operatore, ove approvato, consentirebbe di salvaguardare la struttura della direttiva della responsabilità del produttore, la quale ha dato prova di efficienza, evitando di incidere direttamente sui processi produttivi di sistemi di intelligenza artificiale, i quali potrebbe non sopportare un regime più rigoroso. La distinzione tra attività ad alto rischio e altre attività consentirebbe di adottare un regime flessibile per coloro che utilizzano i dispositivi di intelligenza artificiale, che risulterebbe per tanti versi meno incisivo dell’attuale regola interna della responsabilità per i danni causati da cose in custodia, secondo il modello franco-italiano”.

[79] R. Trezza, Diritto e intelligenza artificiale, cit., p. 49 ss. Si è cercato di applicare tale teoria anche alla responsabilità derivante dalle auto a guida autonoma. Cfr. R. Trezza, E. Quarta, Driverless car o driverless law: quale direzione prenderà il diritto per evitare “incidenti sistematici”?, cit. Si consenta rinviare, anche per un quadro comparatistico, a R. Trezza, Responsabilidades legales atribuibles a máquinas y algoritmos: ¿categorías tradicionales o género novum de responsabilidad?, in Actualidad civil, n. 76/2020, pp. 155-177.            

[80] Sul punto, si veda G. Gitti, Dall’autonomia regolamentare e autoritativa alla automazione della decisione robotica, in questa rivista, n. 1/2020, pp. 113-127; N. Irti, Il tessitore di Goethe (per la decisione robotica), in A. Carleo (a cura di), Decisione robotica, Bologna, 2019, pp. 17-22. Inoltre, sempre nella stessa curatela, si veda il contributo di G. Mammone, Considerazioni introduttive sulla decisione robotica, pp. 23-30, con ricca bibliografia. Nella medesima curatela, in merito al rapporto intercorrente tra diritto e robotica, si veda, inoltre, A. Carcaterra, Machinae autonome e decisione robotica, pp. 33- 61, con bibliografia di carattere comparatistica e internazionale. Si veda, ancora, M. Luciani, La decisione giudiziaria robotica, in A. Carleo (a cura di), Decisione robotica, cit., pp. 63-96. Nella stessa curatela, anche E. Vincenti, Il “problema” del giudice-robot, pp. 111-124; M. Maugeri, I robot e la possibile “prognosi” delle decisioni giudiziali, pp. 159-164; A. Di Porto, Avvocato-robot nel “nostro stare-decisis”. Verso una consulenza legale “difensiva”, pp. 239-250; M. R. Covelli, Dall’informatizzazione della giustizia alla “decisione robotica”? Il giudice del merito, pp. 125-138. Sulla decisione robotica, si veda ancora M. B. Magro, Decisione umana e decisione robotica. Un’ipotesi di responsabilità di procreazione robotica, in Leg. pen., 8 maggio 2020, la quale, in completo accordo con lo scrivente, a p. 21 dello scritto, sottolinea che: “È ben vero che la funzione della tecnologia è quella di realizzare l’obiettivo tecnico. È anche vero che, al di là di quella funzione, dello scopo che è proprio dei progettisti e degli utenti della tecnologia, occorre tenere presente le implicazioni etiche relative al quanto e al come quel sistema tecnologico potrà incidere sulla vita degli agenti umani e all’impatto sul loro sistema di responsabilità. Ritengo perciò che debba essere valorizzata quella tecnologia che costruisce e sviluppa sistemi di IA che contribuiscono all’esercizio della responsabilità umana e dei suoi standards. Ciò significa che la ricerca scientifica dovrebbe far propri i principi etici che consentano un utilizzo di agenti artificiali che non esproprino, ma al contrario sollecitino, l’attenzione umana e quindi la responsabilità umana. Ciò non significa intralciare o ostacolare la libertà di ricerca, ma solo che dovremmo astenerci dal creare entità artificiali autonome che sostituiscano totalmente la decisione umana, facendo così a meno delle potenzialità straordinarie della mente umana; significa attivare e predisporre meccanismi che non affievoliscano la capacità di controllo (e autocontrollo) umano a causa del supporto robotico, ma, al contrario, che la sollecitino, la supportino e la potenzino”. Si veda, ancora, F. Donati, Intelligenza artificiale e giustizia, in Rivista AIC, n. 1/2020, specie p. 436, ove si legge: “Sotto questo profilo, la sostituzione del giudice con sistemi automatici di giustizia predittiva non è certamente possibile. Per quanto possa evolvere il progresso tecnologico, rimane fermo il principio secondo cui ogni cittadino ha diritto di rivolgersi ad un giudice indipendente ed imparziale, precostituito per legge, per ottenere tutela dei suoi diritti. Ciò non toglie, tuttavia, che i sistemi di IA possano fornire utili strumenti di cui il giudice potrebbe avvalersi nell’esercizio delle proprie funzioni tra cui, ad esempio, motori di ricerca sempre più avanzati, software di assistenza per la redazione degli atti, sistemi automatizzati volti a migliorare l’organizzazione interna del lavoro, software per facilitare le operazioni di spoglio e di filtro, sistemi per la trattazione di cause semplici, seriali, ripetitive, interamente documentali ecc. I sistemi di IA potrebbero poi essere utilmente impiegati nelle procedure alternative di soluzione delle controversie. Sarebbe un grave errore rinunciare a sfruttare le potenzialità offerte dalla tecnologia informatica e dai nuovi sistemi di IA che, se utilizzati in modo controllato e ponderato, potrebbero favorire un miglioramento complessivo della qualità e dell’efficienza della nostra giustizia”; G. Gitti, Dall’autonomia regolamentare e autoritativa alla automazione della decisione robotica, cit., p. 113 ss.

[81] A tal uopo, si veda L. De Renzis, Primi passi nel mondo della giustizia “high tech”: la decisione in un corpo a corpo virtuale fra tecnologia e umanità, in A. Carleo (a cura di), Decisione robotica, cit., pp. 139-158. Inoltre, si veda F. Rundo, A. L. Di Stallo, Giustizia predittiva: algoritmi e deep-learning, in Sicurezza e Giustizia, 2019, pp. 31-34; Aa. Vv., La giustizia predittiva tra machine learning e certezza del diritto, in VGen, consultabile online; A. De La Oliva Santos, “Giustizia predittiva”, interpretazione matematica delle norme, sentenze robotiche e la vecchia storia del “Justizklavier”, in Rivista Trimestrale Diritto e Procedura Civile,  n. 3/2019, pp. 883-895. Si veda, ancora, C. Morelli, Sentenze, predittività prudente. Il libero convincimento del giudice è valore primario, in Italia oggi, 5 luglio 2019, p. 5, consultabile online; M. Versiglioni, Se l’algoritmo scrive la sentenza che almeno rispetti la logica, in Il Sole 24 ore, 2019, consultabile online. Si consenta rinviare, per una visione “panoramica” sulla decisione meccanicizzata, alla Recensione redatta da R. Trezza al volume di A. Carleo (a cura di), Decisione robotica, in Istituzioni Diritto Economia, n. 2/2020, pp. 328-337.

[82] Cfr., sul punto, S. Gaboriau, Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo la fedeltà a questi valori?, in Questione Giustizia, n. 4/2018, consultabile online.

[83] Sembra contrario a tale impostazione, o forse lo fa solo in chiave provocatoria, A. Punzi, Judge in the Machine. E se fossero le macchine a restituirci l’umanità del giudicare?, in A. Carleo (a cura di), Decisione robotica, cit., p. 319 ss.

[84] In accordo, si veda D. Onori, Intelligenza artificiale ed emulazione della decisione del giudice, in www.centrostudilivatino.it, 16 febbraio 2022, consultabile online, ove si evidenzia che: “Per quanto possa evolvere il progresso tecnologico, rimane fermo il principio secondo cui ogni cittadino ha diritto di rivolgersi ad un giudice indipendente e imparziale, precostituito per legge, per ottenere tutela dei suoi diritti. Ciò non toglie che i sistemi di IA possano fornire utili strumenti di cui il giudice si avvalga tra cui, per esempio, motori di ricerca sempre più avanzati, software di assistenza per la redazione degli atti, sistemi automatizzati volti a migliorare l’organizzazione interna del lavoro, software per facilitare le operazioni di spoglio e di filtro, sistemi per la trattazione di cause semplici, seriali, ripetitive, interamente documentali ecc. I sistemi di IA potrebbero poi essere utilmente impiegati nelle procedure alternative di soluzione delle controversie”. Proprio sulla possibilità di utilizzare i robot nella risoluzione alternativa delle controversie, specie in materie online (ove, comunque, permangono dei dubbi), si rinvia a E. Minervini, Appunti sulle ODR, in questa rivista, n. 1/2020, p. 154 ss.; M. Gambini, ODR di tipo conciliativo quale “giusto rimedio” nel commercio elettronico, in questa rivista, n. 1/2021, p. 83 ss. Si veda, in tema, ancora S. Arduini, La “scatola nera” della decisione giudiziaria: tra giudizio umano e giudizio algoritmico, in Rivista di biodiritto, n. 2/2021, specie p. 470, ove, forse con estrema enfasi, l’A. afferma che: “La nuova tappa che si profila nel rapporto tra uomo e macchina appare dunque segnata dalla complementarietà e il processo, non più solo teatro della giustizia umana, assurge a banco di prova per questa nuova collaborazione. Si tratta allora di demarcare le rispettive sfere di competenza, compito questo non facile che ad oggi rappresenta una grande sfida per il diritto, chiamato a edificare un quadro normativo che coniughi l’enorme potenziale delle nuove tecnologie con la tutela e la valorizzazione dell’essere umano. Di qui l’importanza di affiancare alla cornice giuridica una solida base etica, come del resto dimostra lo sforzo di elaborazione a livello europeo e sovranazionale volto a fornire le linee guida per un utilizzo etico dell’intelligenza artificiale. Quelli intrapresi sono solo i primi passi verso una nuova configurazione dell’intelligenza artificiale, per trasformarla da «macchina che inquieta» a macchina che sostiene, corregge e – perché no – esalta l’umanità”. Prime applicazioni della “giustizia predittiva” o dell’ausilio della tecnica per snellire i processi, viene dalla nascita dell’Ufficio del Processo. In tal senso, si veda D. Onori, I.A. e giustizia: l’esperimento della Corte di Appello di Brescia, in www.opinione.it, 4 marzo 2022, consultabile online.

[85] Sul punto, per un approfondimento del dualismo cartesiano, si rinvia a S. Nicolisi, Il dualismo da Cartesio a Leibniz, recensito da G. B. Priano, in Rivista di filosofia neo-scolastica, n. 4/1987, pp. 628-630.

[86] Le macchine, in definitiva, rispetto all’uomo globalmente inteso, sono pressoché “incoscienti”. Sul punto, si legga la recente opera di M. Chiriatti, Incoscienza artificiale: Come fanno le macchine a prevedere per noi, Roma, 2021.

[87] Per esempio nella fase delle investigazioni, delle c.d. “indagini preliminari”. Oppure, nella fase di accertamento della commissioni di reati presupposto, come accade nella responsabilità amministrativa degli enti da reato. Sul punto, si consenta rinviare a R. Trezza, L’Intelligenza Artificiale come ausilio alla standardizzazione del modello 231: vantaggi “possibili” e rischi “celati”, in Giurisprudenza penale web, n. 1bis/2021, pp. 1-12.

[88] Sulla necessità di una nuova rivalutazione della dicotomia pubblico-privato, si veda S. Sica, Pubblico e privato al tempo della trasformazione digitale, in questa rivista, n. 2/2021, specie p. 101, ove si sottolinea che: “In definitiva, Pubblico e Privato devono trovare una nuova sintesi ora che sono immersi nella stagione magmatica della Rete, ed anzi occorre prevenire che la rinnovata saldatura tra le due sfere abbia luoghi in contesti e modi, a dir poco, allarmanti”.

[89] Si veda, sul punto, S. Vantin, Intelligenza artificiale: il faro Ue su tutela delle vulnerabilità e principi antidiscriminazione, in Agenda digitale, 24 novembre 2021, consultabile online, ove si legge che: “Per rendere autenticamente effettiva la tutela antidiscriminatoria applicata all’intelligenza artificiale, scegliendo al contempo di mettere effettivamente in cima alle priorità politiche quei valori europei che vengono reclamati come centrali nel paradigma giuridico del continente, sarebbe opportuno prevedere specifici strumenti risarcitori a danno di chi dimostri di aver subito una discriminazione algoritmica significativa a causa dell’appartenenza a cluster di persone generati dal sistema o a gruppi storicamente oppressi. Potrebbe essere questa l’occasione per ripensare l’accesso al giudizio antidiscriminatorio, per esempio prendendo spunto dall’istituto dell’azione di classe (o class action) disciplinato all’art. 140bis del nostro Codice di Consumo (d.lgs. 206/2005)”.

[90] Si veda M. Caterini, Il giudice penale robot, in La legislazione penale, 19 dicembre 2020, consultabile online, ove, specie a p. 21, si legge che: “Ciò, naturalmente, non dovrebbe comportare l’esclusione del giudice dal processo decisorio, ma un suo affiancamento, una sorta di tecno-umanesimo, una contaminazione tra humanitas e techne  propria di un diritto penale definitivo «sinestetico», utile sia per ridurre i tempi di risposta dell’autorità giudiziaria, sia per la maggiore prevedibilità nell’applicazione della legge e uniformità degli orientamenti giurisprudenziali . Infatti, per raggiungere tali obiettivi anche l’European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems, come idea di fondo non ha quella di sostituzione del giudice, ma di un ruolo ausiliario dell’IA. Tale ausilio, nel caso che ci occupa, consisterebbe nell’indicare al giudice l’argomentazione più favorevole all’imputato ricavata dalla molteplicità dei precedenti giurisprudenziali. Tale opzione, utilizzando il linguaggio informatico, dovrebbe essere una specie di default option. Qualora il giudice, per sgravarsi un po’ di quella «fatica del pensare», ritenesse di aderire a tale suggerimento cibernetico, l’onere di motivazione sarebbe semplificato, potendo appunto far riferimento all’elaborazione algoritmica dei precedenti giurisprudenziali. Qualora, viceversa, il giudice volesse optare per una scelta ermeneutica più sfavorevole rispetto a quella suggerita dal robot, allora l’onere motivazionale dovrebbe essere aggravato e di quel genere prima definito confutativo. Una certezza giuridica non in senso materiale, ma procedurale nell’ottica di quella razionalità discorsiva capace di contrapporsi al dominio della tecnologia”. Si dia uno sguardo anche a A. A. Martino, Chi teme i giudici robot, in Rivista italiana di informatica e diritto, n. 2/2020, specie p. 23, ove si evidenzia, in una visione chiaramente funzional-etica, che: “L’etica digitale deve informare le strategie per lo sviluppo e l’uso delle tecnologie digitali fin dall’inizio, deve indicare quando cambiare il corso delle azioni è più semplice e meno costoso, mescolando risorse e impatto. Deve essere portata al tavolo della politica e delle procedure decisionali fin dal primo giorno. Per-ché non solo dobbiamo pensare due volte, ma, cosa ancora più importante, dobbiamo pensare prima”; U. Ruffolo, Giustizia predittiva e machina sapiens quale “ausiliario” del giudice umano, in Astrid, 3 maggio 2021, consultabile online, p. 30, ove, in accordo con l’opinione di chi scrive, si sottolinea che: “È l’ibrido umano-macchina il solo ormai capace di governare molte professioni del futuro, e quelle legali in particolare. Il giudice di domani – ma potrebbe (dovrebbe) già esserlo quello di oggi – dovrebbe essere coadiuvato dalla macchina signoreggiandola, ma subendone anche il controllo. Ripetendo quanto dice A. Punzi, «bisogna pensare a una contaminazione tra l’uomo e la macchina nella quale le prestazioni cognitive dell’uomo vengono potenziate e al contempo sorvegliate dalla capacità della macchina».

[91] Si veda S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza penale web, 24 aprile 2019, consultabile online; B. Occhiuzzi, Algoritmi predittivi: alcune premesse metodologiche, in Diritto penale contemporaneo, n. 2/2019, p. 391 ss.

[92] Sul punto, con illustrazione più ampia del fenomeno, si rinvia a R. Trezza, Diritto e intelligenza artificiale, cit., p. 17.

[93] Anche sul punto, si rinvia a R. Trezza, Diritto e intelligenza artificiale, cit., p. 81 ss. Inoltre, si rinvia a M. Sabatino, Consiglio di Stato: l’algoritmo è un atto amministrativo informatico, su La Pagina Giuridica, 7 agosto 2019; Aa. Vv., Atti e procedimenti amministrativi informatici: promossa la P.A. Robot, se l’algoritmo è conoscibile, in Giurdanella.it (Rivista di diritto amministrativo), 29 aprile 2019, consultabile online; C. Morelli, Consiglio di Stato apre alla PA robot, in www.altalex.it, 20 gennaio 2019, consultabile online; M. De Angelis, Algoritmi nei concorsi pubblici: il caso dei docenti che fa “scuola”, in Ius in itinere, 5 ottobre 2019, consultabile online. Si veda, inoltre, G. Pesce, Il giudice amministrativo e la decisione robotizzata. Quando l’algoritmo è opaco, in Judicium, 15 giugno 2020, consultabile online, per il quale, se da un lato il Consiglio di Stato ribadisce la natura servente dell’algoritmo per la p.a. (secondo il canone “la macchina per l’uomo, non viceversa”), dall’altro lato, pone le premesse per un esplicito superamento anche dei limiti di utilizzo dell’algoritmo e della stessa Intelligenza Artificiale nei diversi ambiti dell’attività amministrativa. Si veda, inoltre, F. Calisai, Dati, informazioni e conoscenze: inquadramento giuridico e regolazione. Appunti su un potenziale paradigma appropriativo, in questa rivista, n. 1/2020, pp. 13-45; A. Di Martino, Intelligenza artificiale e decisione amministrativa automatizzata, in questa rivista, n. 1/2020, pp. 83-112; V. Conte, Decisioni pubbliche algoritmiche e garanzie costituzionali nella giurisprudenza del Conseil constitutionnel francese, in questa rivista, n. 1/2020, pp. 347-362. Si veda, ancora, C. Napoli, Algoritmi, intelligenza artificiale e formazione della volontà pubblica: la decisione amministrativa e quella giudiziaria, in Rivista AIC, n. 3/2020, pp. 1-37; D. Dalfino, Decisione amministrativa robotica  ed effetto performativo. Un beffardo algoritmo per una “buona scuola”, in Questione Giustizia, 13 gennaio 2020, consultabile online, ove si legge che: “Da quanto innanzi sinteticamente osservato sembra potersi trarre la seguente – banale e allo stesso fondamentale – conclusione: se l’uomo non può fare a meno dell’algoritmo, questo non può fare a meno dell’uomo. Ciò vale sia, ovviamente, a monte, nella fase di individuazione dei criteri e dei dati da immettere per l’elaborazione del software; sia a valle, nella fase di controllo; sia nel mezzo, nella fase dell’istruttoria procedimentale. A ben vedere, si tratta di un’esigenza vitale per la tenuta del sistema, perché consente di individuare i soggetti (evidentemente diversi dal robot) cui imputare responsabilità. E soprattutto perché permette di evitare il prodursi del cd. effetto performativo, in virtù del quale la decisione coincide con l’algoritmo, che da mero presupposto tecnico assurge ad elemento fondante ed esclusivo”. Tali considerazioni fanno palesemente percepire quanto sia necessaria una valutazione di meritevolezza algoritmica anche nel campo della giustizia amministrativa. Di recente, si rinvia a L. Azzena, L’algoritmo nella formazione della decisione amministrativa: l’esperienza italiana, in Revista Brasileira De Estudos Políticos, n. 123/2021, pp. 503-538; G. Marchianò, La legalità algoritmica nella giurisprudenza amministrativa, in Il diritto dell’economia, n. 3/2020, specie p. 257, ove si legge che: “Da qui l’osservazione che pur volendo promuovere la digitalizzazione dei servizi e delle procedure, le novità derivanti dall’uso dei sistemi meccanografici devono “piegarsi” al paradigma del procedimento amministrativo, il che porta ad escludere quegli algoritmi non legati ad atti amministrativi vincolati nonché altri sistemi meccanografici. Si può ipotizzare di trovarsi di fronte al fatidico “cavallo di Troia” per operare una più radicale apertura, non solo dei sistemi meccanografici, ma anche dell’intelligenza artificiale nell’ambito della nostra amministrazione”.

[94] Sul punto, si rinvia a F. Patroni Griffi, La decisione robotica e il giudice amministrativo, in A. Carleo (a cura di), Decisione robotica, cit., p. 165 ss.

[95] Sul punto, si rinvia a P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, in Federalismi, n. 7/2021, specie p. 2014, laddove l’A. evidenzia che: “L’intelligenza artificiale (con la sua “scatola nera”) è già entrata silenziosamente nella “casa di vetro” dell’Amministrazione, senza bussare, senza chiedere autorizzazioni. Nel percorso verso l’impiego dei sistemi di AI da parte  dell’Amministrazione  occorre  superare prospettive  di  radicale  ed  inconciliabile  contrapposizione  tra uomo e macchina,  avvalendosi,  però,  della garanzia della legalità amministrativa che costituisca il riferimento verso un progresso che sia non solo tecnologico, ma anche di tutela dei diritti e delle libertà individuali”; G. Delle Cave, Intelligenza Artificiale e Pubbliche Amministrazioni: l’algoritmo matematico al cospetto dei principi generali dell’attività e del procedimento amministrativo, in www.intelligenzartificiale.unisal.it, 22 agosto 2020, consultabile online, ove l’A. sottolinea che: “Si consideri, poi, che la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini che per il giudice. Del resto, come ben evidenziato da C. Giustozzi, la legge (rectius la regola giuridica), così come una ricetta di cucina, non è un algoritmo: ossia una sequenza formale di istruzioni non ambigue e prive di arbitrio che, applicate a situazioni identiche, conducono inevitabilmente ai medesimi risultati”; V. S. Ambrosio, Intelligenza artificiale, algoritmi e principi costituzionali nella giurisprudenza del Consiglio di Stato, in Gazzetta forense, 20 maggio 2019, consultabile online; F. F. Pagano, Pubblica Amministrazione e innovazione tecnologica, in Gruppo di Pisa, n. 3/2021, specie p. 112, ove si legge che: “Si tratta di un silenzio che induce comunque ad immaginare che sia in atto una riflessione sul punto ma, forse è anche un indice dell’acquisita consapevolezza da parte del Governo della difficoltà di applicare l’IA all’esercizio dei poteri amministrativi, anche alla luce di una giurisprudenza amministrativa che, nonostante qualche segnale di apertura e il delicato equilibrio raggiunto, come si è visto, rimane alquanto “scettica” in ordine alla possibilità di conciliare intelligenza artificiale e garanzie nei confronti dell’esercizio del pubblico potere”; A. Di Martino, Intelligenza artificiale e decisione amministrativa automatizzata, in questa rivista, n. 1/2020, p. 83 ss.; D. U. Galletta, L’azione amministrativa e il suo sindacato: brevi riflessioni, in un’epoca di algoritmi e crisi, in Questione Giustizia, n. 1/2021, consultabile online; G. Pinotti, Amministrazione digitale algoritmica e garanzie procedimentali, in Labour & Law Issues, n. 1/2021, p. 79 ss.

[96] Si pensi, ad esempio, al settore bancario. Sul punto, si rinvia a A. Davola, Algoritmi decisionali e trasparenza bancaria. Il paradigma dell’inerenza nella regolamentazione delle tecnologie emergenti, Milano, 2020, con recensione di G. Cazzetta, in questa rivista, n. 2/2020, p. 621 ss.

[97] Sul concetto di conoscibilità, si è pronunciata anche la Cassazione civile, con sentenza n. 14381 del 25 maggio 2021, in Media Laws, 16 giugno 2021, con nota di F. Paolucci, Consenso, intelligenza artificiale e privacy. Per la Cassazione, infatti, “In tema di trattamento di dati personali, il consenso è validamente prestato solo se espresso liberamente e specificamente in riferimento a un trattamento chiaramente individuato; ne segue che nel caso di una piattaforma web (con annesso archivio informatico) preordinata all’elaborazione di profili reputazionali di singole persone fisiche o giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire i punteggi di affidabilità, il requisito di consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati”. Su tale pronuncia, inoltre, si rinvia a M. Bassini, O. Pollicino, La Cassazione sul “consenso algoritmico”. Ancora un tassello nella costruzione di uno statuto giuridico composito, in Giustizia insieme, 21 giugno 2021, consultabile online, ove si legge che: “La presa di posizione del Supremo Collegio, così, oltre a confermare la bontà dell’impianto del GDPR, pur pensato in un’epoca antecedente l’esplosione dei moderni sistemi di intelligenza artificiale e di tecnologie altrettanto innovative come la blockchain, aggiunge un tassello ulteriore a quello “statuto dell’algoritmo” cui si accennava poc’anzi: un prodotto perlopiù giurisprudenziale che evidenzia l’esigenza di mantenere ferma una serie di presìdi essenziali a garanzia della fondamentalità del diritto alla protezione dei dati e della centralità dell’individuo nella società algoritmica. Una missione importante, in un’epoca storica in cui, complici forse le difficoltà ingenerate dalla pandemia, non sono mancati scivoloni e cadute di stile anche da parte di importanti esponenti con un passato istituzionale sull’importanza della privacy e degli attori che agiscono a sua tutela”; J. Purificati, La Corte di Cassazione sulla trasparenza degli algoritmi e la validità del consenso, in E-lex, 7 giugno 2021, consultabile online; V. Tiani, Una sentenza afferma che le persone devono conoscere come funzionano gli algoritmi che le giudicano. La Cassazione ha stabilito che formule di rating automatizzato devono essere spiegate agli interessati per ottenere un consenso pieno e informato, in www.wired.it, 31 maggio 2021, consultabile online; G. Scorza, “L’algoritmo deve essere trasparente”, la Cassazione rilancia il GDPR, in Agenda digitale, 26 maggio 2021, consultabile online; G. Lo Sapio, Rating reputazionale, consenso valido e comprensione dell’algoritmo alle prese con l’era digitale, in Federalismi, 28 luglio 2021, specie p. 13, ove si legge che: “(…) le  Istituzioni  europee  si  sono orientate per l’elaborazione di una normativa ad  hoc nella  quale  si rimodella,  con  specifico  riguardo  ai sistemi “ad alto rischio”, il discusso diritto alla spiegazione, spostato ora, non sulla “logica di funzionamento” dell’algoritmo,  ma sul  risultato  finale  dell’elaborazione, affermandosi un più  generale diritto  alla “interpretabilità” della decisione automatizzata nella quale confluiscono i dati di partenza”; D. Lafratta, La dignità della persona nell’era dell’intelligenza artificiale, in Equal – Il diritto antidiscriminatorio, 25 febbraio 2022, consultabile online, ove si evidenzia che: “la sentenza in commento risulta carente di valutazione di ulteriori profili che invece erano stati ben delineato dal Garante Privacy. I Giudici di legittimità hanno infatti omesso di valutare le ricadute sul profilo etico della persona e su come tale trattamento di dati genera violazioni della dignità della persona. Meglio dire, è sufficiente che il consenso sia “validamente prestato” secondo canoni squisitamente ed esclusivamente tecnico giuridici? La risposta è, a parere di chi scrive, negativa. Dietro le “macchine” vi sono menti umane che a tali sistemi informatizzati trasmettono la loro impronta. Ciò comporta che ove vi è un pregiudizio, magari su base etnica o di genere ovvero di tipo religioso o quant’altro, questo finirà con l’essere trasmesso all’algoritmo che, consequenzialmente, attribuirà un basso punteggio ad una persona sulla base di una caratteristica personale. Ecco quindi che appare superficiale limitare la liceità del trattamento nei termini sopra visti ma occorre che il legislatore, europeo e nazionale, intervenga a colmare tale lacuna individuando criteri di validazione di siffatti sistemi informatici e che tali criteri possano indefettibilmente assicurare la tutela della persona ovvero la parità di trattamento di ogni individuo in ogni ambito nel quale esso esprime la propria individualità”. Sul diritto di informazione algoritmica, si legga G. Scorza, Governare il futuro. Il diritto a capire come funziona l’algoritmo prima di dire di sì, su Huffpost, 27 maggio 2021, consultabile online, il quale, in maniera del tutto condivisibile, si esprime in tal senso: “Non c’è, non può esservi e non potrà esserci domani consenso al trattamento di dati personali attraverso un sistema di intelligenza artificiale se alla persona alla quale i dati si riferiscono e il consenso viene richiesto non sarà stato prima spiegato chiaramente come quel sistema li processerà per arrivare alle sue conclusioni. Un principio che, se applicato rigorosamente, forse, metterebbe fuori legge molti dei trattamenti di dati personali realizzati già oggi attraverso sistemi diversamente intelligenti”; A. Viglianisi Ferraro, Le nuove frontiere dell’intelligenza artificiale ed i potenziali rischi per il diritto alla privacy, in Persona e Mercato, n. 2/2021, p. 393 ss.  Su una nuova visione del bilanciamento dei diritti, specie nel diritto civile, si veda M. Cicoria, L’io, l’altro e il bilanciamento degli interessi nella artificial intelligence, in European Journal of Privacy Law & Technologies, n. 2/2020, p. 303 ss. Si rinvia, ancora, all’illuminante riflessione di P. Perlingieri, Sul trattamento algoritmico dei dati, in questa rivista, n. 1/2020, p. 181 ss. Per uno studio più approfondito, invece, della “reputazione”, si rinvia a A. Ricci, La reputazione: dal concetto alle declinazioni, Torino, 2018, con recensione di M. D’Ambrosio, in questa rivista, n. 1/2020, p. 372 ss.

[98] Sull’applicazione degli algoritmi nel mondo del lavoro e sulle prime riflessioni in tema, da un punto di vista squisitamente giuridico, si rinvia a I. Piccinini, M. Isceri, IA e datori di lavoro: verso una e-leadership?, in Lavoro Diritti Europa, 1° maggio 2021, consultabile online; R. Fabozzi, S. Bini, Algoritmi, piattaforme digitali e diritto del lavoro, in Analisi giuridica dell’economia, n. 1/2019, pp. 357-372; id., L’algoritmo come nuovo datore di lavoro: impatti e prospettive, 14 maggio 2018, in Agenda digitale, consultabile online; C. Della Giustina, Quando il datore di lavoro diviene un algoritmo: la trasformazione del potere del datore di lavoro in algocrazia. Quale spazio per l’applicazione dei principi costituzionali?, in Media Laws, n. 2/2021, p. 237, ove si evidenzia che: “Le protezioni speciali dei lavoratori delle piattaforme oltre a comprendere le tutele già previste dalla normativa in materia di prestazioni occasionali accessorie dovrebbe altresì possedere una disciplina speciale concernente, ad esempio, la fissazione di un massimo margine di guadagno della piattaforma sulla prestazione resa dal lavoratore, un sistema di trasparenza per quanto attiene al sistema di valutazione della prestazione al quale aggiungere il diritto al contraddittorio del lavoratore che avesse ricevuto una valutazione negativa, il diritto alla disconnessione, nonché specifiche garanzie di procedimento da seguire nell’ipotesi di esclusione del lavoratore della piattaforma”.

[99] Sul punto, Redazione di diritto di internet, Tanto tuonò che piovve. Prima pronuncia sull’algoritmo (detto Frank) in tema di discriminazione collettiva dei lavoratori, 5 gennaio 2021, consultabile online; G. Fava, L’ordinanza del Tribunale di Bologna in merito alla possibile discriminatorietà dell’algoritmo utilizzato da Deliveroo, in Lavoro Diritti Europa, 14 gennaio 2021, consultabile online, per il quale: “Le perplessità sollevate dalla pronuncia del Tribunale di Bologna, qualora si analizzi attentamente l’iter logico-giuridico seguito dal giudice evitando di soffermarsi unicamente sulle conclusioni ivi rassegnate, sono molteplici: senza dubbio, gli ormai superati meccanismi censurati posti in essere dalla piattaforma così come la carenza di situazioni di oggettiva e reale discriminazione conseguenti all’adozione di tali meccanismi, tanto che il giudice bolognese si limita a condannare il potenziale effetto discriminatorio dell’algoritmo, finiscono per sollevare alcuni leciti interrogativi sull’effettiva portata storica di una pronuncia di tale genere. Peraltro, come visto, la vicenda dalla quale trae origine la pronuncia è antecedente all’entrata in vigore del nuovo CCNL Rider sottoscritto da Assodelivery e UGL, il quale reca disposizioni specifiche in materia in senso senza dubbio più garantista per i ciclofattorini”; M. Fasciglione, Gig economy e diritti fondamentali sul lavoro in una recente sentenza del Tribunale di Bologna, in Istituto di Ricerca su Innovazione e Servizi per lo Sviluppo, 9 febbraio 2021, consultabile online, ove si evidenzia che: “È proprio l’’indifferenza’, la presunta neutralità con cui opera l’algoritmo, l’oggetto delle censure del Tribunale di Bologna. L’algoritmo infatti produce come effetto di riservare il medesimo trattamento a situazioni diverse (equiparando chi non partecipa per futili motivi alla sessione di lavoro con coloro che esercitano il proprio diritto di astensione collettiva), ed origina una discriminazione indiretta (in quanto, dando attuazione ad una disposizione apparentemente neutra, si pone una determinata categoria di persone in una posizione di potenziale svantaggio). Secondo i giudici, inoltre, una chiara volontà della società convenuta di discriminazione è desumibile anche dal fatto che le uniche ipotesi ammesse di giustificazione della mancata partecipazione alla sessione di lavoro sono rappresentate solo dai casi di sinistro (su turni consecutivi che impediscono la prosecuzione dell’attività lavorativa) oppure dai casi in cui vi sia stato un problema tecnico della piattaforma. Unicamente in queste ipotesi è previsto l’intervento correttivo sul programma che elabora le statistiche dei riders, e la conservazione del ranking reputazionale”.

[100] Cfr. F. M. R. Livelli, Algoritmi “caporali” e diritti dei lavoratori, urge una regolamentazione: i temi sul tavolo, in Agenda digitale, 27 luglio 2021, consultabile online, ove si afferma che: “Pertanto, è ora di comprendere che non possiamo regolare la gig economy contemporanea come se fosse un fenomeno eccezionale, dal momento che la velocità del cambiamento renderebbe presto obsoleto questo sforzo. Si tratta di riscrivere i diritti dei lavoratori in modo tale da poter affrontare le sfide contingenti e future”.

[101] Cfr. A. Aloisi, V. De Stefano, Il tuo capo è un algoritmo. Contro il lavoro disumano, Roma-Bari, 2020.

[102] Sulla domotica, si rinvia al recentissimo volume di L. Vizzoni, Domotica e diritto. Problemi giuridici della smart home tra tutele e responsabilità, Milano, 2021. Della stessa autrice, avendo tale tema risvolto anche sul trattamento dei dati personali, Domotica e trattamento dei dati personali, in Diritto di internet, 4 dicembre 2019, consultabile online.

[103] Sul punto, si rinvia a S. Aterno, Alexa testimone in tribunale: i vantaggi per gli investigatori e le garanzie per la difesa, in Agenda digitale, 20 marzo 2020, consultabile online, ove si legge, in chiave certamente critica, che: “Occorre prestare attenzione a non estendere troppo questa teoria e questo orientamento dei rilievi tecnici oltre i suoi limiti di stretta interpretazione normativa. La tecnologia dei prossimi anni, l’AI, l’IOT, il 5G può moltiplicare le tracce presenti sulla scena di un crimine e ogni tecnologia in futuro potrà essere “sentita come testimone” ma la cosa più importante è non farsi prendere troppo dalla smania di trovare la pistola fumante a tutti i costi anche “stressando” le norme sulle garanzie difensive solo perché in presenza dell’occhio vigile dell’autorità giudiziaria o di un suo decreto autorizzativo o di una delega”.

[104] In tema, si rinvia a M. Mantovani, Profili attuali del nemo tenetur se detegere in senso sostanziale, in Discrimen, 14 ottobre 2021, pp. 1-7, consultabile online; A. Mangiaracina, Nuove fisionomie del diritto al silenzio. Un’occasione per riflettere sui vuoti domestici … e non solo, in Processo penale e giustizia, n. 4/2021, consultabile online; V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in Discrimen, 15 maggio 2020, consultabile online.

[105] Considerazioni simili vengono sviluppate da G. Dalia, Prospettive di utilizzo dell’I.A. nel contesto processuale penale tra esigenze di efficienza, valutazioni giudiziali e libero convincimento, in R. M. Agostino, G. Dalia, M. Imbrenda, S. Pietropaoli (a cura di), Frontiere digitali del diritto, cit., p. 53 ss.

[106] Sul rapporto tra diritto e social networs e sulle implicazioni “fattuali” e “giuridiche” del fenomeno, per un approfondimento, si rinvia a S. Vigliar, Consenso, consapevolezza, responsabilità nei social network sites. Profili Civilistici, Padova, 2012; F. Colapaoli, A. Coppola, F. R. Graziani, M. Mirone, M. Zonaro, Social network e diritto, Torino, 2021, specie p. XIV, ove si legge che: “Arriviamo così alla necessità di un cambio di paradigma in grado di recuperare le zone di contatto esistenti tra le ragioni della regolamentazione e quelle della formazione, tra le norme giuridiche e le condotte etiche. Il tutto in una logica di corresponsabilità tra produttori di contenuti, gestori delle piattaforme e fruitori. Questi ultimi sempre più interattivi (oltre che iperattivi) nella costruzione dei processi di significazione della realtà, in chiave denotativa e connotativa”.

[107] Si rinvia a L. Califano, La libertà di manifestazione del pensiero… in rete; nuove frontiere di esercizio di un diritto antico. Fake news, hate speech e profili di responsabilità dei social network, in Federalismi, n. 26/2021, pp. 1-25. Per una panoramica giurisprudenziale del fenomeno, si rinvia a E. Falletti, I social network: primi orientamenti giurisprudenziali, in Il corriere giuridico, n. 7/2015, p. 992 ss.

[108] Tra tutti, si veda M. Bassini, Libertà di espressione e social network, tra nuovi “spazi pubblici” e “poteri privati”. Spunti di comparazione, in Rivista italiana di informatica e diritto, n. 2/2021, pp. 43-56. Se la persona è un minore, bisogna avere ancora più cura di eliminare le fake news o ciò che possa turbare la sua sensibilità. In tal senso, si veda D. Antonella, A. La Lumia, Minori, internet e social networks, Milano, 2021.

[109] Sul punto, si rinvia a M. Nurra, “Fake news”, algoritmi, Facebook e noi, in Astrid, 18 maggio 2017, consultabile online, il quale offre lo spunto per un principio di accountibility informativo, laddove scrive: “Interpretare una realtà nuova usando categorie che appartengono al passato e strumenti legislativi inadeguati sarebbe un passo indietro irresponsabile. Non possiamo sfuggire alla complessità, non ci sono scorciatoie. Le notizie false continueranno a esistere, ma questa può essere un’occasione per migliorare. Migliorare la qualità dei nostri mezzi di informazione, migliorare la nostra cultura informativa (sin da piccoli), accettare le nostre responsabilità in quanto lettori non più passivi ma parte integrante dell’ecosistema mediatico” (p. 4); G. Marchetti, Le fake news e il ruolo degli algoritmi, in Media Laws, n. 3/2020, p. 35, ove si sottolinea che: “Vi sono diversi fattori, infatti, che portano a ritenere che gli strumenti di fact checking, anche qualora fossero perfezionati gli algoritmi a ciò preposti, non portino a grandi successi nel contrasto alle fake news. In realtà, il fenomeno delle fake news trova terreno fertile in un contesto sociale caratterizzato da una serie di elementi: una sempre più scarsa fiducia delle persone nei confronti delle istituzioni, della politica e dei mass media tradizionali; un elevato livello di analfabetismo funzionale (ossia l’incapacità di comprendere il significato di ciò che si legge) e di ritorno (fenomeno attraverso il quale un individuo alfabetizzatato, senza l’esercitazione delle competenze alfanumeriche, regredisce perdendo la capacità di utilizzare il linguaggio scritto per formulare e comprendere messaggi); i pregiudizi di conferma nell’ambito di una quantità elevatissima di informazioni, spesso di scarsa qualità; la tendenza degli utenti a credere alle notizie false perché in linea con le loro opinioni e con i loro pregiudizi. In questo contesto, è ravvisabile un elemento soggettivo del fenomeno della diffusione delle fake news che dipende dalla propensione degli utenti a chiudersi in una bolla informativa e a diffondere le informazioni a prescindere dai contenuti e dalla veridicità dei fatti. Per altro verso, poi, bisogna tener conto che i sistemi informatici che permettono la creazione e la diffusione delle fake news sono molto complessi e i meccanismi del loro funzionamento rimangono in gran parte oscuri sia agli utenti sia a coloro che dovrebbero adottare soluzioni di contrasto”. Da ultimo, sul punto, si veda S. Notaro, La lotta di Facebook alle fake news, in E-lex, 15 giugno 2021, consultabile online.

[110] È necessario, quindi, che l’algoritmo venga indirizzato alla tutela della persona e sia, in tale dimensione, regolato. Si veda, in questa ottica, F. Faini, Il diritto nella tecnica: tecnologie emergenti e nuove forme di regolazione, in Federalismi, n. 16/2020, specie p. 117, ove l’A. afferma che: “Una strada per raggiungere questi obiettivi è costituita da una nuova relazione tra diritto e tecnica, che incorpori il primo nella seconda, valorizzando in tal modo la costruzione del diritto stesso come scienza che nasce per conferire certezza alle relazioni umane, attribuendo diritti e doveri, riuscendo a tutelare la persona e la società rispetto alla tecnologia. Il valore della certezza del diritto non può essere smarrito a causa dell’evoluzione impressa dalle tecnologie emergenti e per realizzarsi può fare leva sull’incorporazione del diritto nella tecnica, accompagnata dal diritto alla comprensibilità e alla contestabilità della tecnologia e dalla responsabilizzazione degli esseri umani”.

[111] Sul concetto di “data-crazia”, si rinvia a D. de Kerckhove, La decisione datacratica, in A. Carleo (a cura di), Decisione robotica, cit., p. 97 ss.  

[112] Si faccia riferimento alla censura dai social di Donald Trump. Sul punto, interessante è la riflessione che propone G. Cassano, Il caso Trump, la cacciata dai social media ed il diritto positivo. Brevi note in tema di ostracismo nell’era digitale, in Diritto di internet, n. 2/2021, pp. 222-224, ove l’A. evidenzia che: “La questione Trump si pone in tutta la sua problematicità in termini non già di rispetto di norme contrattuali, e di qualificazione giuridica dell’atto di disattivazione di un profilo social e dei conseguenti strumenti di tutela (cautelare e di merito), bensì in termini molto più ampi che interessano le stesse fondamenta delle moderne democrazie (…). Nessuno può limitarsi ad essere mero spettatore degli eventi dovendosi ognuno interrogare sull’ammissibilità, o meno di interventi censori – posti in essere da una oligarchia di soggetti privati che opera con fine di lucro –  sul dibattito politico e sul merito delle idee politiche (…). Si intenda, sono ben accolte (e doverose) tutte le moderne tecniche di blocco dei contenuti violenti e discriminatori veicolati sui social, ma le stesse non devono tradursi, nei fatti, in sentenze che dispongono censure, peraltro di fatto inappellabili (e mettono al riparo il gestore da ogni responsabilità). Devono invece essere strumento di segnalazione all’Autorità pubblica per un pronto suo intervento”. Sul punto, si veda anche A. Alpini, Digital divide, censura digitale e antropocentrismo dei dati, in Comp. dir. civ., n. 3/2021, p. 879 ss. Sul rapporto, invece, tra utilizzo dei social media e garanzia di imparzialità ed indipendenza della magistratura, si veda S. Sica, Social media e magistratura, in questa rivista, n. 2/2020, p. 536 ss.

[113] Si leggano le riflessioni di S. Rodotà, Privacy, libertà, dignità, Discorso conclusivo della Conferenza internazionale sulla protezione dei dati, Roma, 13 settembre 2004, disponibile sul sito dell’Autorità del Garante della privacy, ove si legge che: “Questa impostazione non è estranea alla materia della protezione dei dati. Nel notissimo Census Act Case tedesco si sottolineava proprio che al centro del sistema costituzionale sta il valore della dignità della persona, che deve poter agire autonomamente come componente di una società libera. Si potrebbe osservare che questa conclusione è stata resa possibile dal fatto che il Grundgesetz tedesco fa un esplicito riferimento alla dignità già nel suo primo articolo. Ma questo argomento appare ormai superato: ad esempio, l’art. 1 della Carta dei diritti fondamentali dell’Unione europea (ora seconda parte del Trattato costituzionale) afferma che la dignità umana è inviolabile. Essa deve essere rispettata e tutelata”.

[114] In tale dimensione, già ampiamente condivisa da chi scrive, si veda A. Picchiarelli, Per un’intelligenza artificiale a misura d’uomo: una possibile regolamentazione valoriale?, in IAIA Papers, n. 47/2020, p. 1 ss.;

[115] Sul punto, si rinvia al testo scritto dell’udienza di Papa Francesco del 27 agosto 2021, consultabile sul sito di Avvenire, ove si legge che: “L’impegno dei cittadini, nei diversi ambiti di partecipazione sociale, civile e politica, è imprescindibile (…). Per guarire il mondo, duramente provato dalla pandemia, e per costruire un futuro più inclusivo e sostenibile in cui la tecnologia serva i bisogni umani e non ci isoli l’uno dall’altro, c’è bisogno non solo di cittadini responsabili ma anche di leaders preparati e animati dal principio del bene comune”. In tal senso, afferma ancora il Papa, “i politici proteggano la dignità umana dalle minacce delle tecnologie”. Su questi temi si erano già espressi alcuni studiosi. Si rinvia, pertanto, a B. Bisol, A. Carnevale, F. Lucivero, Diritti umani, valori e nuove tecnologie. Il caso dell’etica della robotica in Europa, in Metodo. International Studies in Phenomenology and Philosophy, n. 1/2014, p. 235 ss.

[116] Sul punto, si consenta rinviare a R. Trezza, L’algoritmo “protettivo”: gli istituti di protezione della persona alla prova dell’Intelligenza Artificiale, cit., p. 217 ss.

[117] Per una visione ormai superata dell’interdizione a favore di una figura diversa (collaboratore alla vita del disabile o dell’incapace), si rinvia a V. Barba, Persone con disabilità e capacità. Art. 12 della Convenzione sui diritti delle Persone con Disabilità e diritto civile italiano, in Rassegna di diritto civile, n. 2/2021, specie p. 445, ove l’A. sostiene che: “L’affermazione di un modello di protezione della persona con disabilità fondato sui diritti umani, significa un riconoscimento a tutto tondo di queste libertà e il riconoscimento che la persona possa sempre assumere queste decisioni, indipendentemente dal suo stato e grado di disabilità. La misura di sostegno non è preconfezionata dal legislatore, ma deve essere cucita e tagliata sulla singola persona, evitando, come è accaduto sino ad adesso, comode ipostatizzazioni o strutturazioni aprioristiche. È compito indispensabile degli interpreti e responsabilità di coloro che dovranno fare applicazione del diritto rendere concreti i principi della Convenzione e costruire ciascuna misura di sostegno della persona in funzione della persona con disabilità e in grado di garantire, nel massimo limite possibile per ciascuno, il pieno sviluppo della personalità umana e il piego godimento di tutti i diritti umani e le libertà fondamentali in eguaglianza di condizioni con tutti gli altri”.

[118] Sul punto, ad esempio, si veda G. Arcuri, R. di Bidino, La robotica nell’assistenza agli anziani: scenari e questioni aperte, in Agenda digitale, 8 marzo 2021, consultabile online, ove si evidenzia che: “La robotica per l’assistenza agli anziani è un settore in sviluppo sia dal punto di vista tecnologico, sia di quello delle evidenze di efficacia ed esperienze di utilizzo. Da più parti è riconosciuto che la maturità tecnologica bassa e l’ecosistema di business è immaturo persino in realtà, come quella finlandese, attente da tempo al tema. Ponendosi l’obiettivo di integrare con i robot la cura ed assistenza degli anziani bisogna considerare non solo gli aspetti tecnici, ma anche quelli umani ed organizzativi. Il coinvolgimento dei diversi stakeholder è un aspetto cruciale, come la definizione di un contesto regolatorio chiaro, che copra sia la fase di certificazione, sia quella di definizione della sostenibilità economica (alias rimborso) dei robot per gli anziani”.

[119] Si rinvia a C. Perlingieri, Amministrazione di sostegno e neuroscienze, in Rivista di diritto civile, n. 2/2015, pp. 330-343.

[120] In tal senso, si consenta rinviare nuovamente a R. Trezza, L’algoritmo “protettivo”: gli istituti di protezione della persona alla prova dell’Intelligenza Artificiale, cit., p. 226 ss.

[121] Su tale concetto, si rinvia primariamente a A. M. C. Monopoli, Roboetica: spunto di riflessione, Roma, 2011.

[122] Sul punto, si rinvia a M. Moruzzi, Robot sanitari alla sfida autonomia: la svolta “quinta dimensione”, in Agenda digitale, 21 ottobre 2020, consultabile online; S. Gugliersi, Robot infermieri? L’innovazione nel nuovo contesto sanitario, in www.intelligenzartificiale.unisal.it, 4 giugno 2020, consultabile online.

[123] Si rinvia, sul punto, a C. Perlingieri, Responsabilità civile e robotica medica, in questa rivista, n. 1/2020, pp. 161-190; E. Marchisio, Evoluzione della responsabilità civile medica e medicina “difensiva”, in Rivista di diritto civile, LXVI, n. 1/2020, pp. 189-220; R. Trezza, Preliminary profiles in the civil liability of health robots, in Iura and legal systems, n. 3/2021, pp. 1-4.

[124] Per un approfondimento sulla responsabilità medica, ex multiis, si rinvia a I. Partenza, La nuova responsabilità civile del medico e della struttura sanitaria. Commento aggiornato alla Riforma Gelli, Pisa, 2017; F. Martini, U. Genovese, C. Altomare (a cura di), Trattato operativo di responsabilità medica, Santarcangelo di Romagna, 2018; C. M. Masieri, Linee guida e responsabilità civile del medico. Dall’esperienza americana alla legge Gelli-Bianco, Milano, 2019; N. Todeschini (a cura di), La responsabilità medica. Guida operativa alla riforma Gelli Bianco. Inquadramento, profili civili e penali, assicurazione, procedimento stragiudiziale e giudiziale, casistica, Padova, 2019; F. Takanen, Responsabilità civile e penale medica, Padova, 2022; M. Hazan, D. Zorzit, F. Gelli, Responsabilità, rischio e danno in sanità, Milano, 2022.

[125] Si veda, a tal uopo, V. Rotondo, Responsabilità medica e autodeterminazione della persona, Napoli, 2020, p. 159 ss., ove l’A. si sofferma proprio sull’interazione tra la responsabilità civile e i robot e le intelligenze artificiali in sanità. L’A., a tal riguardo, sembra aderire alla tesi per cui sarebbe applicabile l’art. 2050 c.c., in quanto nulla vieta che un’attività artificiale simile possa rientrare tra le c.d. “attività pericolose” (p. 173). Sembra, inoltre, in maniera del tutto condivisibile, palesare la configurabilità di una responsabilità contrattuale della struttura sanitaria qualora un robot medico dovesse malfunzionare o provocare dei danni (pp. 179-180).

[126] Sul punto, sono sempre attuali le riflessioni svolte da F. Gazzoni, Obbligazioni e contratti, Napoli, 2013, p. 964 sul c.d. “contratto con effetti protettivi a favore di terzo”. Nello specifico caso della configurabilità di tale ipotesi di contratto e i suoi effetti nel campo della responsabilità medica, si faccia riferimento a S. Garreffa, Il contratto con effetti protettivi verso terzi e la responsabilità medica, in Giustiziacivile.com, 25 gennaio 2017, consultabile online. Per un’applicazione giurisprudenziale in tema, si rinvia a Cass. civ., sez. III, 9 luglio 2020, sent. n. 14615, in La nuova procedura civile, n. 4/2020, pp. 1-8.

[127] Sul punto, si consenta rinviare a R. Trezza, La responsabilità civile del medico: dall’oscurantismo al doppio positivismo. Focus sulla responsabilità civile del medico prenatale, Salerno, 2019, p. 29 ss.; R. Trezza, La responsabilità civile del medico: approccio e dintorni, in R. Trezza (a cura di), Diritto alla vita, diritto alla salute e responsabilità medica. Riflessioni prospettiche sull’autodeterminazione della persona umana, Salerno, 2020, p. 55 ss.

[128] Alla domanda se “Robot delinquere potest”, qualcuno ha già cercato di dare una risposta. Si veda, in tal senso, F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Diritto penale e Uomo, n. 9/2019, specie p. 33, ove si evidenzia: “Abbiamo, infatti, indagato le possibile applicazioni di IA nelle attività di law enforcement, con particolare attenzione allo specifico ambito della polizia predittiva. Siamo poi passati a verificare se i c.d. automated decision systems siano già usati, o possano essere in futuro efficientemente e legittimamente usati anche per prendere decisioni all’interno di procedimenti penali. La nostra attenzione si è, quindi, spostata sui c.d. algoritmi predittivi, impiegati per valutare la pericolosità criminale di soggetti in vario modo implicati negli ingranaggi della giustizia penale. Infine, ci siamo interrogati sulle possibili ipotesi di coinvolgimento – come strumento, come autore, o come vittima – di un sistema di IA nella commissione di un reato. Tutti questi quattro scenari – per dipingere i quali, a dire il vero, abbiamo dovuto spesso procedere alla formulazione di mere ipotesi e incerte previsioni rivolte al futuro – sembrano accomunati dall’attuale assenza di una regolamentazione normativa, e in particolare di una regolamentazione che prevenga o reprima offese penalmente rilevanti. Le ipotesi e le previsioni, tuttavia, potrebbero presto divenire realtà, e allora quell’assenza normativa comporterebbe conseguenze drammatiche”; R. Borsari, Intelligenza Artificiale e responsabilità penale: prime considerazioni, in Media Laws, n. 3/2019, consultabile online, ove si legge: “Di fronte al vuoto di tutela penale connesso ai nuovi sistemi di Intelligenza Artificiale, a parte i possibili rimedi civilistici o amministrativi (si potrebbero ipotizzare misure corrispondenti a quelle sanitarie previste per gli animali pericolosi), le strade sono due: o si vieta radicalmente la realizzazione di tali sistemi, in base al principio di precauzione, con la conseguente rinuncia ai benefici sociali apportati dagli stessi; oppure si individua un’area di rischio consentito, attraverso complessi bilanciamenti tra l’utilità collettiva e i rischi imponderabili dei vari sistemi. Ad esempio, potrebbe essere consentito l’ingresso sul mercato di auto senza conducente, nonostante il rischio di cagionare lesioni, se non la morte, ad altri utenti della strada, perché tali auto sono comunque migliore soluzione per i problemi del traffico; e vietare senz’altro la realizzazione di droni armati. Non manca nemmeno, tuttavia, chi, in funzione provocatoria, ipotizza pratiche afflittive lato sensu penali nei confronti dei sistemi di intelligenza artificiale, che, in quanto res, potrebbe essere sacrificata per apportare un beneficio psicologico della vittima, assecondando la sua irrazionale sete di vendetta”; C. Iagnemma, I ‘robot medici’: profili problematici in tema di alleanza terapeutica e di responsabilità penale, in Corti supreme e salute, n. 2/2020, specie p. 457, ove l’A. sostiene che: “La ‘duttilità’ della mente consente, infatti, di affrontare l’imprevedibile variabilità biologica dell’organismo umano, escogitando soluzioni originali tramite processi deliberativi, il più delle volte, guidati dall’intuizione. Facoltà, questa, che non potrà essere, di certo, appresa dalle macchine, essendo programmate secondo rigidi modelli matematici. Ma lo stesso  può dirsi con riguardo, altresì, alle ‘capacità relazionali’ degli operatori in carne e ossa: trattandosi di qualità indispensabili – al pari di quelle tecnico-scientifiche, di cui dispongono anche i robot – per il trattamento del paziente, specie nella fase terminale di una patologia. Il che vale, in particolare, per l’attitudine al dialogo con il malato, della quale, anche sul piano normativo, s’è riconosciuta la centralità nella relazione di cura. Nella consapevolezza che il paziente avverta la necessità di comunicare, soprattutto nei contesti più critici, l’esperienza dalla sua malattia al medico, così che quest’ultimo possa ‘supportarlo’ «nell’individuazione dei valori insiti nelle possibili e differenti opzioni diagnostiche e terapeutiche». Qualunque robot, anche il più evoluto, a ben vedere, non riuscirebbe a soddisfare tale bisogno di umanità”. Di recente, si rinvia a Aa. Vv., Giurisdizione penale, intelligenza artificiale ed etica del giudizio, Milano, 2021.

[129] Sul punto, si rinvia a S. Amato, Biodiritto 4.0. Intelligenza artificiale e nuove tecnologie, Torino, 2020, p. 120. Inoltre, si rinvia allo scritto interessante di P. Perlingieri, Note sul “potenziamento cognitivo”, in questa rivista, n. 1/2021, p. 209 ss.

[130] Sull’uomo c.d. “aumentato”, si veda S. Cucchetti, Homo creativus. Nuove sfide per la bioetica, in Il Regno – Attualità, n. 16/2019, p. 477, ove si evidenzia che: “Le questioni delle tecniche d’intelligenza artificiale, d’integrazione uomo-macchina, di gestione dei dati e di potenziamento umano richiedono una verifica attenta e un discernimento serio sulle strutture di governance che le guidano e le regolano. Il pericolo più grande che si possa realizzare è una gestione che non conosca il potenziale di queste tecniche e il loro funzionamento, mentre la questione etica si traduce in un discernimento sulle strutture socio-economiche e sulla idea d’innovazione e progresso che le nutre”; A. Di Corinto, Siamo pronti a vivere nell’età dell’essere umano “aumentato”? Il potenziamento del corpo umano è ormai una realtà tecnologica. Ora la sfida è mettere al sicuro i dati e prevenire gli attacchi informatici, in www.wired.it, 24 marzo 2021, consultabile online, ove si legge che: “Le riflessioni relative al potenziamento biologico ripercorrono almeno 30 anni di dibattito, dalle cyberstrategie prostetiche di Stelarc al ruolo delle tecnologie dell’intelligenza di Pierre Lévy e al successo del Partito Transumanista di Istvan Zoltan che, immaginando un futuro di esseri potenziati dalla tecnologia, predica il potenziamento umano per sconfiggere morte e malattie. Un futuro che è già presente. Così tanto presente da porci serie domande su come evolverà il nostro già stretto rapporto con la tecnologia. A cominciare dal fatto che ogni dispositivo artificiale può essere hackerato. Incluse le protesi che sono connesse in rete e la cui sicurezza è fondamentale. Come ha detto Modesta, che sente “di aver bisogno di una sorta di maggiore sicurezza, per il rapporto intimo che tutti abbiamo con la tecnologia”, e che “ci obbliga”, secondo David Jacoby di Kaspersky, a farlo prima di immettere nuove tecnologie sul mercato: “Se non ci pensiamo oggi dovremo pensarci domani”, visto che nel futuro prossimo queste tecnologie saranno economiche e disponibili a tutti”; M. Sartori, Potenziamento umano e vulnerabilità: la lezione di Coeckelbergh, in www.colloquidibioetica.com, 21 marzo 2021, consultabile online, il quale propone una “regolamentazione giuridica del fenomeno”. In chiave completamente critica rispetto al fenomeno, si rinvia a E. Perucchietti, Cyberuomo. Dall’intelligenza artificiale all’ibrido uomo-macchina. L’alba del transumanesimo e il tramonto dell’umanità, Geraci Siculo, 2020.

[131] Si veda, nel rapporto corpo e nuove tecnologie, C. Maccaferri, Il corpo nell’era digitale: dal simulacro alla performance capture, tesi di dottorato discussa presso l’Università del Sacro cuore di Milano nell’anno accademico 2011-2012, consultabile online.

[132] Cfr. S. Amato, Neuroscienze e utilizzazione militare delle tecniche di potenziamento umano, in Ethics & Politics, n. 2/2014, pp. 182-198.

[133] Su tale aspetto, è intervenuta la Risoluzione del Parlamento europea del 21 gennaio 2021, proprio sui temi del diritto internazionale militare e le implicazioni sull’utilizzo delle nuove tecnologie in guerra. Sul punto, A. Azzariti, Attacchi con i droni: profili di diritto internazionale, in Cyber Laws, 19 novembre 2018, consultabile online. Inoltre, si veda il Rapporto di ricerca dell’Istituto di Ricerche Internazionali Archivio Disarmo – IRIAD, Roma, aprile 2017, consultabile online, dal titolo “Droni militari: proliferazione o controllo?”.

[134] Cfr., sul punto, L. Martino, La quinta dimensione della conflittualità. La rilevanza strategica del cyberspace e i rischi di guerra cibernetica, in Center for Cyber Security and International Relations Studies, consultabile online, pp. 1-60.

[135] Cfr., sul punto, G. Azzoni, Dignità umana e diritto privato, in Ragion pratica, n. 1/2012, p. 75 ss.; C. Piciocchi, La dignità come rappresentazione giuridica della condizione umana, Padova, 2013, specie p. 246, ove si evidenzia che: “Se la dignità come nucleo fondante gli ordinamenti costituzionali è un dato acquisito del secondo dopoguerra, la dignità nel suo rapporto con la libertà degli individui rappresenta invece una delle sfide contemporanee, fornendo però una chiave di lettura importante per comprendere il panorama giuridico attuale, rappresentando sia acquisizione sia programma, ma sicuramente ponendosi come risorsa cruciale”; G. M. Flick, Elogio della dignità (se non ora, quando?), in Rivista AIC, n. 4/2014, specie p. 31, ove si mette in luce che: “Infatti, tutti i diritti fondamentali tutelati dalla Costituzione – osserva la Corte – sono in rapporto di integrazione reciproca fra di loro. Nessuno di essi può avere la prevalenza assoluta sugli altri; nessuno di essi può espandersi illimitatamente e divenire “tiranno” nei confronti dell’insieme delle altre situazioni giuridiche costituzionalmente protette, che è espressione della dignità della persona”; N. Guasconi, La dignità umana come fondamento e limite del sistema delle libertà, in Riv. trim. sc. amm., n. 2/2015, pp. 83-100; F. Viola, Dignità umana, diritti e legge naturale, in Prudentia Iuris, n. 83/2017, p. 31 ss.; L. Leo, Dignità e costituzione: storia di un diritto controverso, in Cammino Diritto, n. 8/2020, pp. 1-25; F. Mastromartino, Due concetti di dignità per due concetti di autonomia?, in Diritto e Questioni pubbliche, n. 1/2021, p. 239 ss.

[136] Questione centrale dibattuta anche da S. Amato, Biodiritto 4.0., cit., p. 167 ss.

[137] Cfr., in tema, L. Parona, Prospettive europee e internazionali di regolazione dell’intelligenza artificiale tra principi etici, soft law e self-regulation, in Rivista della regolazione dei mercati, n. 1/2020, consultabile online; A. Confalonieri, L’AI deve apprendere i valori dell’UE e il rispetto dei diritti umani, in www.unionedirittiumani.it, 31 marzo 2021, consultabile online; R. Samperi, Brevi riflessioni in merito al possibile impatto dell’Intelligenza Artificiale sui diritti umani, in Cammino Diritto, n. 7/2021, consultabile online.

[138] Sul punto, la Redazione della Rivista Opinio Iuris ha pubblicato un Report, il 1° settembre 2021, dal titolo “I droni che uccidono”, consultabile online, ove si legge che: “Non è da dimenticare, comunque, che molti giuristi sostengono che l’attuale quadro normativo del diritto internazionale sia già sufficiente a regolamentare efficacemente l’uso dei droni armati senza ulteriore codificazione. Ciò può essere vero, ma di fronte alla centralità che i droni stanno assumendo nei conflitti armati contemporanei la necessità di norme giuridiche chiare ed efficaci che disciplinino la condotta dei droni armati dovrebbe essere una priorità per la comunità internazionale”.

[139] Cfr., sul punto, soprattutto alla luce del clima di guerra che si respira nel continente europeo all’indomani dell’invasione dell’Ucraina da parte della Russia, F. Ruschi, Il volo del drone. Verso una guerra post-umana? Una riflessione di filosofia del diritto internazionale, in Jura Gentium, n. 1/2016, p. 12 ss.; P. Rivello, Gli aspetti giuridici connessi all’uso dei droni, in Il diritto penale della globalizzazione, 31 maggio 2018, consultabile online, il quale osserva che: “Bisogna, semplicemente, in aderenza alle indicazioni offerte dal Working Group art. 29, essere particolarmente attenti agli effetti potenzialmente invasivi ricollegabili al loro uso, in quanto sottratti alla percezione dei singoli eventualmente sottoposti ad operazioni di sorveglianza “dall’alto”. Non a caso il Gruppo dei Garanti costituenti il Working Group ha raccomandato ai costruttori di droni l’adozione di misure di privacy by default e l’adozione di misure volte a rendere quanto più possibili visibili ed identificabili i droni utilizzati a fini commerciali. Valgono, per il resto, i criteri generali in tema di captazioni di immagini, volte a vietare le riprese all’interno di luoghi di privata dimora  ed al contempo a consentire le riprese in luoghi pubblici, giacché in tal caso le persone inquadrate nelle riprese possono essere considerate parte integrante del paesaggio ripreso, in quanto “necessariamente” consapevoli della loro esposizione”; C. Meloni, Droni armati in Italia e in Europa: problemi e prospettive, in Diritto penale contemporaneo, 2017, pp. 1-48; N. Colacino, Impiego di droni armati nella lotta al terrorismo e accesso alla giustizia da parte delle vittime, in Rivista di diritto dei media, n. 2/2018, p. 1 ss.; L. Damiano, F. Songini, Se l’intelligenza artificiale uccide, senza controllo umano: ecco i punti chiave del dibattito, in Agenda digitale, 10 giugno 2021, consultabile online. Sull’utilizzo dei droni “ordinari” e la loro implicazione sul diritto alla privacy, si rinvia a E. Damiani, L’utilizzo dei droni e le inerenti ricadute sul diritto della privacy e della responsabilità civile, in Diritto Mercato Tecnologia, n. 5/2021, specie p. 53, ove l’A. conclude in tali termini: “nel contesto normativo attuale, risulta sempre più diffusa la creazione e la diffusione di “regole tecniche” che delineano in maniera chiara le caratteristiche strutturali e gli standards di sicurezza dei mezzi aerei a pilotaggio remoto. La giuridicizzazione di questi parametri tecnici – da realizzare previo richiamo degli stessi attraverso le fonti di normazione primaria – può risultare di grande utilità al fine di garantire l’efficace funzionamento del mercato ed una sana competizione tra gli operatori del settore nell’Unione europea”; id., Privacy e utilizzo dei droni in ambito civile, in European Journal of Privacy Law & Technologies, n. 1/2021, p. 158 ss.

[140] Neuralink Corporation è una azienda statunitense di neuro-tecnologie, fondata da un gruppo di imprenditori, tra cui Elon Musk, che si occupa di sviluppare interfacce neurali impiantabili. La sede dell’azienda è a San Francisco;è stata avviata nel 2016 e fu riportata pubblicamente per la prima volta a marzo 2017.Il marchio “Neuralink” è stato acquistato dai precedenti proprietari a gennaio 2017.

[141] Voci internazionali fanno sapere che addirittura alcuni ricercatori americani sarebbero alla ricerca di cellule staminali capaci di far ripartire il cervello, dopo la morte, da zero e progredire dallo stadio di sviluppo zero a quello ultimo del ciclo naturale. Questo, ad esempio, sarebbe un chiaro esempio di “disumanizzazione” dell’uomo.

[142] È recente, infatti, la notizia che degli elettrodi impiantati nel midollo spinale possano far ritornare la dinamica fisica alle persone. Si veda, in tal senso, Tre pazienti paralizzati tornano a camminare grazie a elettrodi impiantati nel midollo spinale, su Focus, consultabile online.

[143] Sul binomio I.A.-psicologia, si veda R. Cubelli, Psicologia e intelligenza artificiale tra ampliamento della conoscenza e innovazione tecnologica, in Giornale italiano di psicologia, n. 1/2018, p. 105 ss.; M. Lazzeri, Intelligenza artificiale e psicologia, un binomio possibile: il punto sulle ricerche, in Agenda digitale, 20 ottobre 2021, consultabile online; E. Galletti, Intelligenza artificiale e benessere psicologico: l’idea di IDEGO presentata all’European Conference on Digital Psychology, in State of Mind – Il giornale delle scienze psicologiche, 12 marzo 2021, consultabile online; C. Galante, L’AI incontra la Psicologia: l’Intelligenza Artificiale Emotiva, in www.psicologinews.it, 11 gennaio 2022, consultabile online. Il robot risuscitativo, dunque, potrebbe avere gli stessi effetti di uno psicologo, ma quest’ultimo – come figura umana – non potrà essere soppiantato totalmente, ma va considerato come strumento ausiliario finalizzato al raggiungimento di un benessere psicologico della persona umana che ha subito un trauma. Cfr., in chiave provocatoria, R. Avico, Un robot come psicologo? Intelligenza artificiale e chatbot, facciamo il punto, in www.psiche.it, 4 luglio 2019, consultabile online, ove si legge, così come già detto dallo scrivente, che: “Esistono diversi studi che hanno valutato l’efficacia di un percorso di psicoterapia fatto tramite Bot. Allo stato attuale, la sensazione (perché di questo si tratta) che non si abbia a che fare con un individuo, e mancando quindi in pieno l’aspetto relazionale e affettivo, rende lo strumento utile, ma non del tutto efficace o risolutivo se si ragiona in termini di trattamento o cura di un determinato disturbo. Lo psicoterapeuta virtuale, per lo stato attuale delle cose, non riesce a sostituire un terapeuta umano formato, ponendosi più realisticamente come supporto integrativo in grado di assolvere a funzioni minori (come il triage iniziale di un paziente, il fornire reperibilità costante, avere un costo nullo, l’indirizzamento su una pagina internet a un giusto recapito), nell’ambito dell’erogazione di servizi di supporto alla salute mentale”.

[144] In tal senso, come già detto, si rinvia nuovamente a R. Trezza, I diritti della persona tra “tecniche” e “intelligenze” artificiali, cit., p. 27.

[145] In tali termini, S. Amato, Biodiritto 4.0., cit., pp. 172-179, ove si mette in collegamento la necro-etica con la bioetica.

[146] Su tale aspetto, si rinvia a L. Palazzani, R. Zannotti, Il diritto nelle neuroscienze. Non «siamo» i nostri cervelli, Torino, 2013; N. Lettieri, S. Faro, E. Fabiani, Diritto, neuroscienze, scienze della cognizione, Napoli, 2015; A. Santosuosso, Le neuroscienze e il diritto, Milano, 2009; C. Grandi, Neuroscienze e responsabilità penale. Nuove soluzioni per problemi antichi?, Torino, 2016; V. Zambrano, Le neuroscienze, la capacità e la radiografia della macchina del pensiero, in Comp. dir. civ., 2018, pp. 1-27; O. Di Giovine, Ripensare il diritto penale attraverso le (neuro-)scienze?, Torino, 2019; R. Trezza, Los tratamientos neurocientifìcos en detenidos: perfil civilista del consientimento a las técnicas, in E. Quarta, Dalla lectio magistralis del Ministro della Giustizia Marta Cartabia agli indici di rifrazione della metamorfosi della pena. Dal paradigma punitivo delle Erinni al paradigma riconciliativo delle Eumenidi. Lo sguardo nuovo sul sistema penitenziario nei dialoghi dei giuristi tra Italia, Perù e Cuba, Roma, 2021. Per una differenza tra “scienza giuridica” e “scienza cognitiva”, si consenta rinviare a R. Trezza, Diritto e intelligenza artificiale, cit., p. 100 ss.; P. Perlingieri, Note in tema di “potenziamento cognitivo”, cit., p. 216, ove l’A., in maniera del tutto condivisibile, si esprime in questi termini: “Il giurista ha il compito di contribuire a realizzarla (la dignità della persona), proponendo soluzioni adeguate”.

[147] In tema, L. Tafaro, Neuroscienze e diritto civile: nuove prospettive, in Rivista di biodiritto, n. 3/2017, specie p. 257, la quale pone in evidenza: “Il riflesso delle neuroscienze nello specchio del diritto civile si coglie anzitutto con riferimento alla scoperta dei cc.dd. neuroni-specchio, quei particolari neuroni che, com’è noto, sono in grado di indurre istintivamente, nella interazione con gli altri, partecipazione empatica e comportamenti imitativi. Per essa occorre domandarsi se l’uso delle conoscenze neuroscientifiche relative al loro funzionamento possa profilare nuove aggressioni e, di conseguenza, nuovi bisogni di tutela della persona umana”.

[148] Sul punto, si rinvia a D. Onori, A. R. Vitale, Neuroscienze e diritto: quale sorte per la libertà?, in Centro studio Livatino, 15 marzo 2021, consultabile online; M. Di Florio, Colpevolezza, conseguenze sanzionatorie e neuroscienze in rapporto al diritto penale, Pisa, 2021.

[149] Sul c.d. “neuromarketing”, si rinvia a L. Tafaro, Neuromarketing e tutela del consenso, Napoli, 2018, specie p. 64 ss., con recensione di R. Picaro, in questa rivista, n. 1/2020, p. 378, il quale evidenzia che: “l’utilizzo delle tecniche di neuromarketing nella contrattazione interferisce con la libera formazione della volontà del consumatore, condizionandone la libertà economica e contrattuale” così andandosi ad innestare “nei processi decisionali, inducendo i contraenti a compiere scelte di consumo suggerite dall’uso strumentale della conoscenza delle loro preferenze ed abitudini di vita, ossia dati concerneneti il nucleo della sua identità e della personalità stessa del consumatore”. Ancor prima, si veda F. Vincenzi, Neuromarketing e web: un connubio legale?, in Cyberspazio e diritto, n. 3/2017, p. 615 ss.; R. Catalano, Neuromarketing e tutela civile dei dati personali biometrici, in Comp. dir. civ., 2019, pp. 1-18.

[150] Su tale aspetto, tra i primi, si rinvia a M. Imbrenda, Persona e scelte di consumo tra conoscenze neuroscientifiche e nuove frontiere tecnologiche, in Actualidad Jurídica Iberoamericana, n. 14/2021, p. 833, ove l’A. evidenzia che: “L’infrastruttura digitale si disvela essere il tramite di un percorso emancipatorio del “consumatore” che, oltre ad agire sul mercato in veste di arbitro (si pensi alle potenzialità offerte dalla blockchain per monitorare il processo produttivo e quindi orientare le proprie scelte di consumo sulla base delle informazioni e dei riscontri acquisiti), approda al ruolo ibrido di “prosumer”, tramutandosi in un vero e proprio attore economico. Dinanzi a questo complesso scenario, fatto di luci ed ombre, diviene ancora più stringente l’invito, rivolto a suo tempo all’interprete – compito primario del quale è l’identificazione e la tutela delle posizioni di libertà civili ed economiche della persona –, a non rifugiarsi nell’astrazione per impegnarsi nella definizione di nuove tecniche di attuazione e concretizzazione dei principi”. Da ultimo, interessante è la riflessione che propone A. Mendola, Atto di consumo e libertà di scelta nel social media marketing, in Rivista di diritto privato, 2022, specie p. 29, la quale propone di utilizzare la categoria della nullità di protezione qualora un consumatore-utente venga “frodato” (rectius dolo negoziale) in rete e, dunque, violata sarebbe la sfera della sua libertà di scelta. L’A. mette anche in luce le teorie avverse, quelle enucleabili l’applicabilità della disciplina della annullabilità al caso prospettato. In realtà, sul punto, non può che rilevarsi la lungimiranza nelle argomentazioni di G. Perlingieri, L’inesistenza della distinzione tra regole di comportamento e di validità nel sistema italo-europeo, Napoli, 2013, p. 93 ss., ove l’A. avverte che: “il contratto sia viziato funzionalmente, ossia nullo per una condotta illecita che, in un rapporto causa-effetto, è risultata capace di colorare il regolamento di interessi”; R. Picaro, Relazioni consumeristiche, intelligenza artificiale e nuove identità, in Rass. dir. civ., n. 4/2020, p. 1485 ss. Ancora, proprio di recente, si rinvia a L. Carrubbo, A. Mendola, Le scelte “inconsapevoli” nelle nuove dinamiche d’acquisto. Il neuromarketing e la tutela del consumatore-follower, Padova, 2022.

[151] Sul punto, si rinvia, tra tutti, a E. Leccese, Capacità e neuroscienze cognitive: un dialogo con il Prof. Stanzione, in Comp. dir. civ., n. 3/2020, p. 87 ss.

[152] Si veda A. Forza, Neuroscienze e diritto, in Rivista penale, n. 3/2009, p. 253; P. Pietrini, La macchina della verità alla luce delle recenti acquisizioni delle neuroscienze, in Cassazione penale, 2008, p. 141 ss.

[153] Sul punto, tra tanti, si veda P. Martucci, All’inizio era il male: determinismo biologico e destino nella criminologia di Cesare Lombroso, in Rassegna italiana di criminologia, n. 1/2013, p. 52 ss.

[154] Sui vari tipi di “determinismo”, si rinvia, da ultimo, per un approfondimento attualizzante, a G. Braccili, Teorie bio-antropologiche nel XIX secolo: la scuola positiva di Cesare Lombroso, Enrico Ferri e Raffaele Garofalo, in Scienze criminologiche, 21 marzo 2021, consultabile online.

[155] Mutuando l’espressione dal grande Z. Bauman, Modernità liquida, Roma-Bari, 1999. 

[156] Sul deep web, tra tanti, si rinvia a R. Meggiato, Il lato oscuro della Rete: Alla scoperta del Deep Web e del Bitcoin, Adria, 2014; M. Faccioli, Minori nella rete. Pedofilia, pedopornografia, deep web, social network, sexting, gambling, grooming e cyberbullismo nell’era digitale, Roma, 2015; L. Varriale, La prigione dell’umanità. Dal deep web al 4.0, le nuove carceri digitali, Bologna, 2017; G. Malato, Deep web, Forlì, 2019; E. Florindi, Deep web. Vizi privati e pubbliche virtù della navigazione in rete, Torino, 2020.

[157] Sul tema, si rinvia a A. Cadoppi, S. Canestrari, A. Manna, M. Papa, Cybercrime, Milano, 2019; E. Bassoli (a cura di), I crimini informatici, il dark web e web room, Pisa, 2021. Da un punto di vista rimediale, si rinvia a J. Kulesza, F. Delerue, Cybersecurity in teh Year of the Plague: Due Diligence as a Remedy to Malicious Activities, in questa rivista, n. 2/2020, p. 404 ss.; A. Rotondo, Prevenzione e contrasto della minaccia informatica in Europa: note a margine del Regolamento (UE) 2019/881, in questa rivista, n. 1/2020, p. 195 ss.

[158] Tale è la sollecitazione proveniente da P. Perlingieri, Note in tema di “potenziamento cognitivo”, cit., specie p. 214.

[159] Questa espressione viene utilizzata da S. Amato, Biodiritto 4.0., cit., p. 122. In tal senso, però, si legga anche l’intervento del Presidente dell’Autorità Garante della privacy, prof. Pasquale Stanzione, del gennaio 2021, il quale ha sottolineato che, oltre all’habeas corpus e all’habeas data, vi sia anche l’habeas mentem a cui apprestare tutela. In sintonia anche M. Imbrenda, Nuove tecnologie e dinamiche regolatorie dell’autonomia privata, in R. M. Agostino, G. Dalia, M. Imbrenda, S. Pietropaoli (a cura di), Frontiere digitali del diritto, cit., p. 112 ss.

[160] Sembra che una risposta a tale interrogativo possa essere affermativa, specie prendendo in considerazione la nuova Legge n. 10/2020 “Norme in materia di disposizione del proprio corpo e dei tessuti post mortem a fini di studio, di formazione e di ricerca scientifica”, la quale, all’art. 3, prevede l’obbligo informativo, il consenso informato, la possibilità di nomina di un “fiduciario” e la revocabilità del consenso in extremis – essendo un diritto fondamentale della persona umana –. Cfr., sul punto, R. Trezza, La revocabilità per facta concludentia del consenso all’anonimato e il diritto a conoscere le proprie origini “in espansione”, in Nomos – Le attualità nel diritto, n. 1/2021, pp. 1-12; id., La fecondazione omologa post matrimonio: l’embrione crioconservato è “concepito”?, in Familia, 15 febbraio 2022, consultabile online, ove si evidenzia che il consenso all’impianto può essere revocato sino a quando l’embrione artificiale non venga impiantato nell’utero materno. In accordo con lo scrivente, anche G. Giaimo, Frozen embryos, frozen law. Brevi notazioni, in chiave comparatistica, su di una recente decisione in tema di procreazione medicalmente assistita, in Dir. fam. pers., n. 3/2021, p. 1331 ss.). Sulla Legge suddetta, che è passata in sordina per molti perché pubblicata in un tempo problematico quale quello epidemico, si veda M. Tomasi, L. 10/2020: disposizione del proprio corpo a fini di ricerca scientifica, in Rivista di biodiritto, 4 marzo 2020, consultabile online; L. Atzeni, Brevi note a margine della legge 10 febbraio 2020, n. 10 in tema di disposizione del proprio corpo e dei tessuti post mortem a fini di studio, di formazione e di ricerca scientifica, in Rivista AIC, n. 5/2020, specie p. 67, ove l’A. afferma che: “D’altra parte, al fine di rendere effettivo il diritto al rispetto delle proprie volontà espresse in vita, e, al contempo, al fine di garantire il diritto alla riservatezza, è fondamentale che, in conformità con l’articolo 9 del Decreto del Ministero della Salute del 18 dicembre 2019, quest’ultimo Ministero svolga una costante attività di monitoraggio volta a verificare l’idoneità della regolamentazione della banca dati nazionale destinata alla registrazione delle DAT, nonché il suo puntuale aggiornamento. Infatti, solamente nel caso in cui il diritto all’autodeterminazione fisica e il diritto all’autodeterminazione informativa del disponente vengano contestualmente garantiti, si potrà rendere effettiva la tutela della libertà e della dignità della persona umana”; M. Ghione, Luci e ombre della l. n. 10/2020 in materia di disposizione del proprio corpo e dei tessuti post mortem, in Familia, n. 4/2020; R. Masoni, In G.U. disposizioni del proprio corpo post mortem, in Il familiarista, 11 marzo 2020, consultabile online; G. Giaimo, Il lascito del proprio corpo a fini didattici e di ricerca. Il nobile (ma vano) intento della legge 10/2020, in Rivista di biodiritto, n. 2/2021, specie p. 190, ove, in chiave critico-legislativa, si afferma che: “Ancora una volta, allora, la legge n. 10/2020 dimostra le sue evidenti insufficienze alle quali occorre rimediare in via di interpretazione, sempre in attesa del regolamento attuativo che, finalmente, ne consentirà l’effettiva applicazione. Ciò che resta, tuttavia, è un sentore di irresolutezza, dovuto a un legislatore rimasto a metà del guado tra quei provvedimenti che hanno ispirato il suo agire (la normativa in materia di trapianti e quella relativa alle disposizioni anticipate di trattamento) e incapace di prevedere quei semplici accorgimenti che avrebbero potuto condurre a una disciplina capace di ambire a farsi modello per gli altri ordinamenti ma che, invece, ha il gusto insipido delle occasioni non colte”.

[161] Sul punto, si consenta rinviare a R. Trezza, Artificial intelligence, civil law and ethics in Italy: a possible interaction, in Cultura giuridica e diritto vivente, n. 9/2021, p. 12. Inoltre, non si può, sul punto, non rinviare a E. Caterini, L’intelligenza artificiale «sostenibile» e il processo di socializzazione del diritto civile, Napoli, 2020, specie p. 32, ove si legge che: “Il processo di soggettivazione dell’intelligenza artificiale, generato dalla capacità regolativa che è propria dell’autonomia dei privati, tanto nel perseguimento di interessi generali che particolari, unitamente alla connessione di essa con la dignità dell’uomo, avviano senza esitazioni gli autori algoritmici e gli attanti macchinici verso un processo di responsabilizzazione. Non è soltanto una responsabilità civile ma anche sociale che induce ad impedire che l’AI divenga causa di aggravamento delle differenze piuttosto che veicolo di eguaglianza. L’interprete di ogni angolo della galassia giuridica deve assumere una posizione coerente con la legge fondamentale della Repubblica e ogni ritrovato della scienza non deve sottrarsi al primato del diritto come strumento per la costruzione di una società giusta. La lenezza dell’interprete, brandita come inno alla libertà, spesso malcela la scelta ideologica di chi vuole far prevalere la giustizia della forza (economica o tecnica) piuttosto che la forza della giustizia. Le Costituzioni contengono delle “ideologie reali”, ideologie, perché portatrici della speranza di un progetto ideale, reali, perché munite della precettività della norma giuridica. Gli interpreti e applicatori devono avere la consapevolezza della responsabilità di non disattendere la speranza di un’ideologia imperativa. Anche l’umanità automata deve assolvere alla funzione sociale di consentire e agevolare l’“accessibilità a tutti” di quelle applicazioni dell’intelligenza artificiale che garantiscono il “minimo vitale”. Altrimenti, se è possibile che il leone e il vitello giacciano insieme, è pur vero che il vitello dormirà poco”.

[162] Si faccia riferimento a D. Di Sabato, Gli smart contracts: robot che gestiscono il rischio contrattuale, in Contratto e impresa, n. 2/2017, p. 378; S. Comellini, M. Vasapollo, Blockchain, criptovalute, I.C.O. smart contracts, Santarcangelo di Romagna, 2019; A. Contaldo, F. Campora, Blockchain, criptovalute, smart contract, industria 4.0, Pisa, 2019;G. Gallone, La pubblica amministrazione alla prova dell’automazione contrattuale. Note in tema di smart contracts, in Federalismi, n. 20/2020, pp. 142-170; A. Stazi, Automazione contrattuale e “contratti intelligenti”. Gli smart contracts nel diritto comparato, Torino, 2019; A. Stazi, Automazione contrattuale e “contratti intelligenti”. Gli smart contracts nel diritto comparato, Torino, 2019; T. Pellegrini, Prestazioni auto-esecutive. Smart contract e dintorni, in Comp. dir. civ., n. 3/2019, p. 843 ss.; A. Davola, “Blockchain” e “Smart Contract as a Service” (SCaaS): prospettive di mercato a criticità normative delle prestazioni BaaS e SCaaS alla luce di un’incerta qualificazione giuridica, Relazione al Convegno “La grande innovazione e le sue regole: Intelligenza artificiale, Data analysis, Tecnologia blockchain”, Parma, 25 ottobre 2019, in Il Diritto industriale, n. 2/2020, pp. 147-156; I. Ferlito, “Smart contract”. Automazione contrattuale ed etica dell’algoritmo, in Comp. dir. civ., n. 2/2020, p. 661 ss.; F. Bruschi, Le applicazioni delle nuove tecnologie: criptovalute, “blockchain” e “smart contract”, Relazione al Convegno “La grande innovazione e le sue regole: Intelligenza artificiale, Data analysis, Tecnologia blockchain, Parma, 25 ottobre 2019, in Il Diritto industriale, n. 2/2020, pp. 162-164;C. Pernice, Distributed ledger technology, blockchain e smart contracts: prime regolazioni, in questa rivista, n. 2/2020, p. 490 ss.;  M. Giaccaglia, Il contratto del futuro? Brevi riflessioni sullo smart contract e sulla perdurante vitalità delle categorie giuridiche attuali e della norme vigenti del Codice civile italiano, in questa rivista, n. 1/2021, p. 113 ss. Ancora più di recente, si veda F. Gambino, Blockchain, smart contract e diritto sradicato, in questa rivista, n. 2/2021, p. 29 ss.; J. Fortuna, Smart contract e formazione del contratto: un’analisi comparatistica della nascita del vincolo giuridico, in Comp. dir. civ., n. 2/2021, p. 595 ss.

[163] Sul punto, si veda M. D’Ambrosio, Arbitraggio e determinazione algoritmica dell’oggetto, Napoli, 2020.

[164] Si faccia riferimento alla pronuncia del Tribunale di Milano del 9 febbraio 2021, in Diritto di Internet, 10 febbraio 2021, consultabile online. Sul punto, alcune riflessioni, sono state proposte da I. Martone, Sulla trasmissione a causa di morte del “patrimonio digitale”, in questa rivista, n. 2/2020, p. 420 ss.; R. Berti, S. Zanetti, L’eredità digitale tra norma e tecnologia: come le big tech stanno risolvendo un problema giuridico con strumenti informatici, in Media Laws, 29 luglio 2021, consultabile online, ove si legge, condivisibilmente, che: “La situazione attuale vede quindi un acceso conflitto fra la dimensione giuridica, ancorata ai concetti di contenuto economico, diritti morali degli eredi e riservatezza dei defunti, e dimensione tecnologica, che traduce la dimensione contrattuale in un rapporto ritagliato sul singolo utente, violato dalla condivisione delle credenziali salvo questa sia “incanalata” nelle procedure eventualmente messe a disposizione dal fornitore del servizio/dispositivo per trasmettere a terzi il servizio/dispositivo stesso. All’aumentare dell’importanza materiale e morale dei valori inseriti in queste piattaforme/servizi sorgono dei conflitti, gestiti in sede giudiziale solamente perché la tecnologia non ha, ad oggi, per interessi propri o disinteresse verso questo tema delicato, saputo fornire soluzioni adeguate al problema. Dal canto suo nemmeno il diritto è in grado di fornire soluzioni appaganti in quanto è di tutta evidenza che al giudice è richiesta una difficile valutazione di bilanciamento da effettuare caso per caso fra il diritto dei parenti ad accedere ai dati ed al patrimonio ereditario del defunto e il diritto alla riservatezza del defunto stesso, che verosimilmente avrebbe voluto escludere da questa condivisione almeno una parte dei contenuti dallo stesso privatamente condivisi in vita”; A. d’Arminio Monforte, La successione nel patrimonio digitale, Pisa, 2020. Di recente, sulla stessa lunghezza d’onda, anche il Tribunale di Roma, con ordinanza del 10 febbraio 2022, con la quale si è ordinato alla società Apple di prestare assistenza alla ricorrente per il recupero dei dati dell’account, anche mediante consegna delle credenziali di accesso, sulla base dell’art. 2 terdecies del d.lgs. 101/2018.

[165] Si rimanda, per un approfondimento, a G. Sartor, Gli agenti software: nuovi soggetti del ciberdiritto, in Contratti e impresa, 2022, II, p. 456 ss.; C. Perlingieri, L’incidenza dell’utilizzazione della tecnologia robotica nei rapporti civilistici, in Rassegna di diritto civile, 2015, p. 1235 ss.; G. Teubner, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, a cura di P. Femia, Napoli, 2019; E. Morotti, Una soggettività a geometrie variabili per lo statuto giuridico dei robot, in F. Bilotta, F. Raimondi (a cura di), Il soggetto di diritto. Storia ed evoluzione di un concetto nel diritto privato, Napoli, 2020; U. Ruffolo, Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies, n. 2/2020, p. 87, ove si pone in luce: “Dobbiamo, proattivamente, allora, porci già il problema del che fare, e come “trattare” la creazione – poco importa, ai nostri fini, quanto illecita – di entità “intelligenti”, e magari emotive e senzienti, di tipo diverso dal nostro. Da che momento – se si vuole, da quale grado di intelligenza – esse diventano insopprimibili e tutelabili, o comunque “disciplinabili”? È severamente vietata sia la clonazione sia la creazione di chimere (v. legge n. 40/2004, art. 13). Ma, qualora tali pratiche ricevessero – poco importa quanto illecita – attuazione, gli “esseri” così venuti al mondo sarebbero entità comunque “viventi” (qualsiasi cosa questo voglia dire). Come andrebbero trattati e classificati? Quale status e tutela (e libertà, e diritti) potrebbero/dovrebbero essere loro attribuiti? I “diritti umani”, se considerati come universo esaustivo, sono ormai troppo antropocentrici?”.

[166] In merito, si rinvia a M. De Felice, Decisione robotica negoziale. Nuovi “punti di presa” sul futuro, in A. Carleo (a cura di), Decisione robotica, cit., p. 179 ss. Nello stesso volume, ancora, F. De Stefano, Spunti di riflessione sulla decisione robotica negoziale, p. 215 ss.; G. Gitti, La decisione robotica negoziale, p. 251 ss.

[167] Sul punto, si rinvia alla lettura di S. Aceto Di Capriglia, Contrattazione algoritmica. Problemi di profilazione e prospettive operazionali. L’esperienza “pilota” statunitense, in Federalismi, n. 18/2019, specie p. 60, ove l’A. conclude in tal modo: “È possibile ed è consigliabile, però, offrire agli interpreti criteri ermeneutici dedotti dai princìpi generali e dalle esperienze straniere più avanzate che (a prescindere dal mutamento dei tempi e della tecnica), sono destinati a costituire il faro che illumina la buia foresta delle molteplici forme di negoziazione digitale. All’uopo, quest’ultima risulta certamente uno strumento utile, ma è necessario che venga presa in considerazione dal legislatore eurounitario oltre che da quello domestico, e che sia circondata da apposite tutele e accorgimenti. Tali cautele normative dovranno essere attentamente predisposte affinché il dominio negli algoritmi non si trasformi, in ultima analisi, nell’abuso da parte di soggetti tecnologicamente più avanzati e quindi dotati di competenze tali da tiranneggiare il quivis de populo, oggi più che mai esposto al rischio di sfruttamenti e raggiri sul piano consumeristico”.

[168] Sul punto, in merito alle dinamiche dell’autonomia negoziale, si rinvia a F. Criscuolo, Autonomia negoziale e autonomia contrattuale, Napoli, 2008, p. 1 ss.; S. Giova, G. Perlingieri, L. Tullio (a cura di), Autonomia negoziale e successioni mortis causa, Napoli, 2020; Aa. Vv., L’autonomia negoziale nella giustizia arbitrale, Napoli, 2016.

[169] Si consenta rinviare a R. Trezza, Il contratto nell’era del digitale e dell’intelligenza artificiale, in Il diritto dell’economia, n. 2/2021, pp. 287-319.

[170] Si rinvia, anche in chiave comparatistica, a P. D’Elia, Digital relationships and private autonomy in the EU legal framework, in Comp. dir. civ., n. 2/2021, p. 629 ss. Inoltre, è meglio parlare di “rapporti negoziali”, laddove anche il negozio, qualora dovesse essere “trattato algoritmicamente”, dovrebbe avere le medesime cautele. Sul punto, E. Palmerini, Negozio e automazione: appunti per una mappa concettuale, in A. Carleo (a cura di), Decisione robotica, cit., p. 291 ss.

[171] Sul punto, si rinvia a P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 715 ss.

[172] Su tale concetto, si rinvia a S. Orlando, Gli smart contracts  come prodotti software, in S. Orlando, G. Capaldo (a cura di), Annuario 2021. Osservatorio Giuridico sulla Innovazione Digitale, Roma, 2021, specie p. 252, ove l’A. differenzia l’asimmetria informativa da quella informatica: “L’asimmetria informatica, nel senso sopra delineato, è ben distinguibile dall’asimmetria informativa, perché mentre quest’ultima esprime la mancanza di conoscenza di informazioni rilevanti, secondo le circostanze, da parte di un contraente, a fronte della conoscenza delle medesime informazioni da parte di un altro contraente, l’asimmetria informatica, nel senso sopra inteso e riferito allo smart contract, esprime la mancanza di conoscenza da parte di un contraente del linguaggio nel quale un altro contraente pretenderebbe che fosse dichiarato il contenuto di un contratto, ossia il linguaggio in cui è espresso un programma per elaboratore. Per tale motivo, laddove anche il programma per elaboratore di uno smart contract venga reso accessibile in open source (ciò che anche negli ecosistemi blockchain dipende sempre da una precisa scelta del predisponente), non per questo solo potrà ritenersi che esso è stato reso conoscibile alla generalità dei potenziali contraenti secondo l’ordinaria diligenza, essendo viceversa ostativa a questa conclusione la carenza di intelligibilità (qui non coincidente con la conoscibilità) del medesimo programma, a cagione dell’ignoranza del linguaggio nel quale esso è espresso”.

[173] Sul punto, tra tutti, si rinvia a A. Federico, Equilibrio e contrattazione algoritmica, in Rass. dir. civ., n. 2/2021, p. 483 ss. Un simile squilibrio, di per sé, si è verificato anche con l’evento pandemico. Sul punto, si rinvia a C. Cosentino, Eteronomia giudiziale e contratto diseguale, in Comp. dir. civ., pp. 1-20, consultabile online; A. S. M. Roseti, Il COVID-19 riaccende l’eterno conflitto tra il principio pacta sunt servanda e il principio rebus sic stantibus, in Il diritto del risparmio, pp. 1-20, consultabile online; N. Cipriani, L’impatto del lockdown da COVID-19 sui contratti, in Rivista di diritto bancario, n. 4/2020, p. 652 ss.; C. Pilia, Le tutele dei diritti durante la pandemia Covid 19: soluzioni emergenziali o riforme strutturali?, in Persona e Mercato, n. 5/2020, p. 77 ss.; T. Sica, Sopravvenienze contrattuali da Covid-19 e rapporti concessori. Scelta del rimedio e profili regolatori, in Osservatorio del diritto civile e commerciale, n. 2/2021, p. 507 ss.; F. Piraino, Contratto ed emergenza sanitaria in Italia, in Revista de Direito da Cidade, n. 3/2021, p. 1531 ss.; M. Franzoni, El Covid 19 y la ejecucìon del contrato, in Revista cubana de derecho, n. 2/2021, p. 247 ss.; C. Marchetti, Pacta sunt servanda ai tempi del Covid-19, in R. E. Cerechia (a cura di), Percorsi di diritto comparato, Milano, 2021, p. 57 ss.; O. Clarizia, Coronavirus ed esonero da responsabilità per inadempimento di obbligazione ex art. 1218 c.c.: impossibilità sopravvenuta oppure inesigibilità della prestazione?, in Actualidad Jurídica Iberoamericana, n. 12/2020, pp. 352-365; E. Damiani, Le tutele civilistiche per i contratti iniqui stipulati a causa della diffusione del coronavirus, in Judicium, 9 maggio 2020, consultabile online; V. Di Cataldo, Pandemia, imprese e contratti di durata, in Osservatorio del diritto commerciale, n. 3/2020, consultabile online; A. Lestini, La c.d. “clausola di irresolubilità”: tra sopravvenienze e rimedi contrattuali preventivi, in Ratio iuris, 30 marzo 2021, consultabile online; A. Federico, Misure di contenimento della pandemia e rapporti contrattuali, in Actualidad Jurídica Iberoamericana, n. 12bis/2020, pp. 236-249; G. Carapezza Figlia, Coronavirus e locazioni commerciali. Un diritto eccezionale per lo stato di emergenza?, in Actualidad Jurídica Iberoamericana, n. 12bis/2020, pp. 422-433; E. Tuccari, Sopravvenienze e rimedi ai tempi del Covid-19, in Jus civile, n. 2/2020, p. 465 ss.; V. Roppo, R. Natoli, Contratto e Covid-19, in Giustizia insieme, 28 aprile 2020, consultabile online; S. Aceto di Capriglia, Effetti del lockdown sui contratti di diritto privato. Un dialogo tra esperienze giuridiche, in Federalismi, n. 3/2022, p. 1 ss.

[174] In tal senso, si veda V. Bellomia, Il contratto intelligente: questioni di diritto civile, in Judicium, 10 dicembre 2020, consultabile online, ove l’A. evidenzia che: “Emerge da questa breve panoramica che lo studio sulla compatibilità tra la blockchain, in particolare pubblica e permissionless, e la vigente data protection law è ampiamente e tuttora in corso, alla ricerca delle indispensabili soluzioni tecniche. Se queste ultime saranno trovate e si riveleranno efficaci e conformi alla legislazione vigente – la quale non è peraltro affatto escluso possa aggiornarsi nel prossimo futuro con espresso riferimento proprio a tali fenomeni ed alle irrisolte problematiche – il sistema potrà legittimamente e proficuamente trovare applicazione nell’ordinamento, anche da questo punto di vista”; A. M. Benedetti, Contratto, algoritmi e diritto civile transnazionale: cinque questioni e due scenari, in Riv. dir. civ., n. 1/2021, p. 1 ss.; G. Castellani, Smart contracts e profili di diritto civile, in Comp. dir. civ., pp. 1-14 consultabile online; A. Galiano, A. Leogrande, S. F. Massari, A. Massaro, I processi automatici di decisione: profili critici sui modelli di analisi e impatti nella relazione con i diritti individuali, in Rivista italiana di informatica e diritto, n. 2/2019, p. 41 ss.; M. Crisafulli, L’era degli Smart Contracts: potenzialità e limiti di uno strumento rivoluzionario, in Diritto Mercato Tecnologia, n. 3/2021, p. 1 ss.

[175] Ciò spiega il motivo per il quale anche l’interpretazione della norma in generale, e più specificamente l’interpretazione del contratto, siano costrette a subire una modifica. In tal senso, per un adeguamento interpretativo, si legga, E. Damiani, Trasformazione digitale ed evoluzione dell’interpretazione giuridica, in questa rivista, n. 2/2021, p. 13 ss.

[176] Sul punto, si rinvia a P. Perlingieri, Struttura algoritmica e interpretazione, in questa rivista, n. 2/2020, p. 484 ss.

[177] In tal senso, si veda C. Perlingieri, Diritto privato delle nuove tecnologie, inquesta rivista, n. 2/2021, p. 71, la quale pone in evidenza che: “(…) alla luce di queste considerazioni necessario è il tentativo di riflessione sull’attuale ruolo del civilista seriamente minacciato dal dominio tecnologico (…), ma la tempo stesso fortemente convinto di volere salvaguardare il diritto nel suo essere umano al fine di impedire la formazione di un diritto nuovo e diversamente declinato dall’applicazione delle procedure algoritmiche frutto del solo pensiero calcolante”.

[178] Si veda, proprio in tal senso, L. Valle, Il contratto e la realizzazione dei diritti della persona, Torino, 2020, specie p. 7, ove l’A. ben mette in evidenza che: “Questa separazione tra diversi ambiti dell’ordinamento giuridico, del diritto contrattuale rispetto a quello dei diritti della persona, che si è associata alla distinzione tra la regolazione della sfera delle situazioni e dei rapporti giuridici patrimoniali rispetto quella delle situazioni e dei rapporti non patrimoniali, appare oggi non più attuale alla luce del concorso di più fattori”. In completo accordo si trova la visione, sempre attuale, di P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 715, ove si criticano i c.dd. “diritti della personalità”. Questa è la logica per la quale si legge l’art. 2059 c.c. in ottica costituzionalmente orientata, come una clausola aperta, esattamente come l’art. 2 Cost.

[179] Si pensi all’adozione di un decreto ingiuntivo in ambito processuale civile, ove al giudice spetta solo la valutazione della sussistenza dei presupposti di legge ex art. 633 ss. c.p.c. Si pensi, ancora, sempre in ambito processuale, alla valutazione dei presupposti per la declaratoria di inammissibilità dei ricorsi (artt. 348bis e 360bis c.p.c.). In tal caso, con delle banche date di tracciamento, potrebbe essere semplice uno snellimento accelerato del processo, anche per perseguire ragioni di economicità e durata ragionevole del processo. In tal senso, infatti, ovvero nel rapporto tra processo e I.A., bisogna che sia raggiunto sempre il rispetto di tutti i valori contenuti nell’art. 111 Cost., tanto che si potrebbe parlare di un “giusto processo elettronico”. Su tale aspetto, anche in un’ottica di abbattimento del contenzioso, si rinvia a A. Carleo, Sugli algoritmi nel contratto? per ridurre il contenzioso?, in id. (a cura di), Decisione robotica, cit., p. 203 ss.

[180] A proposito delle piattaforme, altro tassello necessario è l’individuazione di un “responsabile” qualora i contenuti “presentati”, “immessi” o “ospitati” sulle stesse cagionino dei danni patrimoniali o non patrimoniali alla persona umana. Nell’ambito dei servizi della società dell’informazione, la responsabilità dell’hosting provider, prevista dall’art. 16, d.lgs. 9 aprile 2003, n. 70, sussiste in capo al prestatore di servizi che non abbia provveduto alla immediata rimozione dei contenuti illeciti, nonché se abbia continuato a pubblicarli, pur quando ricorrano congiuntamente le seguenti condizioni: a) sia a conoscenza legale dell’illecito perpetrato dal destinatario del servizio, per averne avuto notizia dal titolare del diritto leso oppure aliunde; b) l’illiceità dell’altrui condotta sia ragionevolmente constatabile, onde questi sia in colpa grave per non averla positivamente riscontrata, alla stregua del grado di diligenza che è ragionevole attendersi da un operatore professionale della rete in un determinato momento storico; c) abbia la possibilità di attivarsi utilmente, in quanto reso edotto in modo sufficientemente specifico dei contenuti illecitamente immessi da rimuovere. Sulla c.d. “responsabilità civile dell’hosting provider” (pur in mancanza di un obbligo generale di sorveglianza, gli internet service provider rispondono civilmente del contenuto dei servizi se, richiesti dall’autorità giudiziaria o amministrativa, non agiscano prontamente per impedire l’accesso al contenuto di tali servizi), si rinvia a C. D’Urso, I profili informatici nella valutazione della responsabilità dell’Hosting Provider, in Rivista italiana di informatica e diritto, n. 1/2021, p. 79 ss.; A. La Rosa, I profili di responsabilità di Amazon in quanto hosting attivo, in Diritto di internet, 7 aprile 2021, consultabile online; R. Cosio, La responsabilità del prestatore di servizi di hosting, in Jus civile, n. 4/2020, p. 887 ss.; G. D’Alfonso, Verso una maggiore responsabilizzazione dell’hosting provider tra interpretazione evolutiva della disciplina vigente, innovazioni legislative e prospettive de jure condendo, in Federalismi, n. 2/2020, p. 108 ss.; S. Sica, Giurisprudenza nazionale ed europea e frammentazione legislativa della responsabilità civile del provider, in Comp. dir. civ., n. 2/2019, p. 353 ss.; M. D’Ambrosio, Tutela dei diritti della personalità nella rete: ruolo del provider nella fruizione dei servizi online e (a)territorialità dell’ingiunzione di rimozione dei contenuti illeciti, in questa rivista, n. 2/2020, p. 582 ss.; M. Foti, Contraffazione online: il ruolo degli Internet Service Providers nell’uso illecito del marchio altrui, in questa rivista, n. 2/2020, p. 604 ss.; M. Belli, Sui presupposti e sui limiti della tutela esperibile nei confronti dell’internet service provider (hosting e caching) la Cassazione tenta di fare chiarezza, in questa rivista, n. 1/2020, p. 299 ss. Si veda, ancora, E. Tosi, Responsabilità civile degli hosting provider e inibitoria giudiziale dei contenuti digitali illeciti equivalenti tra assenza dell’obbligo di sorveglianza ex ante e ammissibilità ex post, in Il diritto degli affari, n. 1/2020, p.p. 23-24, ove l’A. evidenzia che: “Non si tratta, infatti, di imporre giudizialmente un obbligo generale ex ante – vietato, come si è rilevato supra, dall’art. 17 del D.lgs. 70/2003 – quanto, invece, di un obbligo particolare – circostanziato – di prevenzione o rimozione di nuove violazioni, ormai prevedibili, relativamente allo stesso contenuto digitale illecito già in precedenza comunicato formalmente all’ISP o a contenuti digitali equivalenti che presentino minime differenze rispetto al contenuto oggetto di inibitoria, tali da non richiedere autonoma valutazione da parte del prestatore di servizi della società dell’informazione. Richiedere tale condotta attiva al prestatore di servizi successivamente all’individuazione di contenuti digitali illeciti da parte del titolare dei diritti di proprietà intellettuale e industriale – rectius ex post – al fine di prevenire la reiterazione della condotta illecita in relazione allo stesso contenuto digitale illecito – o a contenuti digitali equivalenti – pare senza dubbio compatibile, anche a mente del generale principio di bilanciamento dei diritti contrapposti, con la tutela costituzionale della libertà di impresa e più in generale del diritto comunitario”; M. Tescaro, Una proposta ricostruttiva contrastante con il diritto vivente in tema di responsabilità civile dell’internet provider nel diritto italiano tra Direttiva 2000/31/CE, Regolamento UE 2016/679 e Direttiva UE 2019/790, in Jus civile, n. 1/2020, p. 106, ove, in chiave critica, fa osservare: “Se tutto ciò è esatto, possiamo concludere che il quadro normativo esaminato – che poteva senz’altro essere più chiaramente delineato dal legislatore europeo e da quello nazionale – è, in fin dei conti, ancora orientato a contemperare le varie posizioni tendenzialmente favorendo quella del provider, ciò che può giustificarsi in considerazione dei rilevanti interessi collettivi e individuali che con detta posizione d’ordinario coincidono, essendo del resto il «mercato […] ancora oggi […] il perno intorno al quale ruota gran parte del sistema normativo e delle politiche comunitarie». Ma abbiamo anche veduto come larga parte della giurisprudenza tenda e prevedibilmente continuerà a tendere in futuro a modificare il citato contemperamento in favore piuttosto dei titolari di quei diritti, per esempio ma non solo quello alla privacy, che possono entrare in conflitto con la posizione del provider”. Da ultimo, dal punto di vista giurisprudenziale, si rinvia a Cass. civ., sez. I, 13 dicembre 2021, n. 39763, in E-lex, 12 gennaio 2022, consultabile online, con nota di D. Malandrino, La Cassazione torna a pronunciarsi sulla responsabilità delle piattaforme per contenuti di terzi, la quale ha statuito che: “n tema di diritto d’autore, la violazione del diritto d’esclusiva che spetta al suo titolare costituisce danno in re ipsa, senza che incomba al danneggiato altra prova del lucro cessante che quella della sua estensione, a meno che l’autore della violazione fornisca la dimostrazione dell’insussistenza, nel caso concreto, di danni risarcibili, e tale pregiudizio è suscettibile di liquidazione in via forfettaria con il criterio del prezzo del consenso di cui alla L. 22 aprile 1941, n. 633, art. 158, comma 2, terzo periodo, che costituisce la soglia minima di ristoro”.

[181] Si legge su AdnKronos, 26 ottobre 2021, consultabile online, che: “Arriva il primo testamento digitale e che viaggia sulla blockchain. A lanciare l’innovazione é la startup innovativa Lastello fondata nel 2016 con l’obiettivo di aiutare con la tecnologia le persone che devono affrontare un lutto e le sue implicazioni anche attraverso la tecnologia blockchain per garantire le ultime volontà. Da oggi la startup romana guidata da Gianluca Tursi annuncia la nascita direttamente dal proprio sito del primo testamento digitale che può essere registrato grazie alla tecnologia blockchain, una procedura guidata con wizard intelligente che aiuterà l’utente nel corso della compilazione attraverso semplici domande e che consente così di predisporre le proprie volontà in modo facile e sicuro; (…) il documento sarà validato dalla procedura informatica creata secondo le norme di compilazione e l’utente dovrà solo trascrivere di proprio pugno e firmare il testo per ottenere il proprio testamento olografo. Per garantire la data di compilazione dell’atto e le volontà in esso contenuto, e quindi renderlo a prova di contraffazione, con Lastello, sarà possibile caricare il testamento sulla blockchain di Ethereum. Ogni anno si compilano 80.000 di testamenti, circa il 13% della popolazione vuole assicurarsi che le proprie volontà siano rispettate, per un giro d’affari di 30 milioni di euro”. Ma la blockchian è affidabile per “consacrare” il testamento olografo? Secondo qualcuno, la risposta deve essere affermativa, in quanto le caratteristiche che rendono la blockchain così affidabile sono: decentralizzazione: le informazioni sono registrate tra più nodi del sistema; tracciabilità: ogni elemento del registro è rintracciabile; assenza di intermediari: non vi sono enti centrali, ogni operazione viene effettuata e registrata attraverso i nodi; trasparenza: il contenuto del registro è visibile e consultabile da chiunque; immutabilità: una volta che i dati vengo registrati, non possono essere più modificati senza il consenso della rete. Cfr., sul punto, A. De Lucia, Testamento digitale: finalmente è possibile, in www.altalex.it, 16 dicembre 2021, consultabile online.

[182] A tal proposito, su di una c.d. “funzionalizzazione” del diritto alla riservatezza, si rinvia alla riflessione di T. M. Ubertazzi, Functional evolution of the right to privacy, in Comp. dir. civ.,n. 3/2021, p. 857 ss.

[183] In dottrina, si trovano spunti interessanti in A. Vesto, Successione digitale e circolazione dei beni online: note in tema di eredità digitale, Napoli, 2020.

[184] È d’uopo anche riferirsi al fatto che la privacy debba essere ancora più contornata da “maggior tutela” qualora i beni digitali appartengano a minori. In tale ottica, si rinvia a O. Lanzara, Il caso Tik Tok: privacy e minori di età, in Comp. dir. civ., n. 3/2021, p. 977 ss.; A. Ferrero, Ambiente digitale e tutela dei minori online: la strategia europea, in Familia, 8 febbraio 2021, consultabile online, per la quale: “La Commissione europea rispondendo all’interrogazione parlamentare E-005402/2020 ha recentemente ribadito che «il benessere dei bambini online è una delle priorità della Commissione da quando Internet è divenuta ampiamente disponibile anche a loro ed è perseguito tramite finanziamenti il coordinamento con gli Stati membri e un quadro legislativo adatto all’era digitale». Nell’ambito della strategia europea per un’Internet migliore per i ragazzi, la Commissione cofinanzia in tutta Europa i centri per un’Internet più sicura (Safer Internet Centres, SIC), che organizzano campagne di sensibilizzazione, forniscono formazione alle famiglie e alle scuole, gestiscono servizi di assistenza telefonica rispondendo a domande su come reagire a contatti pericolosi quali l’adescamento di minori online e mettono a disposizione linee telefoniche dirette per segnalare in modo anonimo materiale pedopornografico in rete”.

[185] Sul punto, di recente, si veda L. Bolognini (a cura di), Privacy e libero mercato digitale, cit., p. 1 ss.

[186] Ovviamente, salva diversa volontà del titolare, il diritto alla privacy non si estingue con la morte. In tal senso, S. Aceto di Capriglia, Vocazione mortis causa negli assets digitali. Una prospettiva comparatistica, in questa rivista, n. 1/2021, p. 40, ove l’A. sottolinea che: “l’evento morte non può e non deve essere qualificato come estintivo di questi diritti”. In tale ottica, anche I. Sasso, La tutela dei dati personali “digitali” dopo la morte  dell’interessato, in Diritto delle successioni e della famiglia, 2019, p. 181 ss.

[187] Dei riferimenti in tal senso sono stati già posti in rilievo da R. Trezza, Diritto e intelligenza artificiale, cit., p. 29 ss.

[188] L’intuizione viene fuori dopo aver letto le pagine di V. Barba, Contenuto del testamento e atti di ultima volontà, Napoli, 2018, p. 7 ss.

[189] Su tale tema, solo per un rapido approfondimento, si rinvia a S. Cacace, A. Conti, P. Delbon (a cura di), La volontà e la scienza. Relazione di cura e disposizioni anticipate di trattamento, Torino, 2019; M. Del Vecchio, I diritti umani nelle disposizioni anticipate di trattamento, Roma, 2018; M. Gabriella Di Pentima, Il consenso informato e le disposizioni anticipate di trattamento. Commento alla l. n. 219/2017, Milano, 2018; E. Calò, Consenso informato e disposizioni anticipate, Napoli, 2019; U. Adamo, Costituzione e fine vita. Disposizioni anticipate di trattamento ed eutanasia, Padova, 2018. Da ultimo, si rinvia allo scritto di F. Parente, Le disposizioni anticipate di trattamento: struttura, contenuto, forma e pubblicità, in Rass. dir. civ., n. 4/2020, p. 1399 ss.

[190] In tal senso, si veda A. G. Parisi, Privacy e diritto all’oblio, in Comp. dir. civ., 2016, pp. 1-11; G. Vettori (a cura di), Diritto all’oblio e società dell’informazione, Padova, 2020; S. Martinelli, Diritto all’oblio e motori di ricerca, Milano, 2017; R. Pardolesi, L’ombra del tempo e (il diritto al)l’oblio, n. 1/2017, consultabile online; E. Errigo, Il diritto all’oblio e gli strumenti di tutela tra tradizione e nuovi contesti digitali, in Diritti fondamentali, n. 1/2021, specie p. 669, ove l’A. afferma che: “Pertanto, è ragionevole affermare che la digitalizzazione ha alimentato le occasioni di aggressione agli interessi e ai diritti c.d. nuovi, rendendo ancora più difficoltosa la possibilità di apprestarne una tutela immediata. Per altro verso, il rilievo che assume l’autodeterminazione informativa come strumento di protezione delle situazioni esistenziali nel contesto digitale deve condurre a propendere per l’elaborazione di nuovi strumenti di protezione, sempre di tipo precauzionale ma concepiti muovendo proprio dalle caratteristiche della rete e affidati al soggetto interessato. Strumenti, quindi, preventivi ma, al contempo, successivi alla pubblicazione, così come ad esempio il potere ascrivibile all’utente di scegliere la durata di archiviazione delle proprie informazioni online prima della pubblicazione o quello di rimuovere, non soltanto alcuni link di collegamento, quanto e piuttosto alcune pagine non più aggiornate: soluzioni, dunque, che consentirebbero pur sempre di tutelare l’identità personale, l’esatta percezione della propria vita, la personalità del soggetto, in vista dell’attuazione effettiva delle situazioni esistenziali”; M. A. Livi, Quale diritto all’oblio?, Napoli, 2020, specie p. 113 ss.; F. Lazzarelli, Tutela dei dati personali nell’età globale: il diritto all’oblio, in Le Corti salernitane, n. 1/2021, p. 3 ss.

[191] Sul punto, sembra andare in questa direzione C. Irti, Consenso “negoziato” e circolazione dei dati personali, Torino, 2021, p. 74 ss.

[192] Riflessioni “interrogative” che vengono sollecitate dalla lettura attenta delle pagine di G. Perlingieri, Il ruolo del giurista nella modernizzazione del diritto successorio tra autonomia ed eteronomia, in Diritto delle successioni e della famiglia, n. 1/2018, p. 1 ss. Tra l’altro, una ricostruzione simile, è offerta da A. Di Porto, Avvocato-robot nel “nostro stare decisis”. Verso una consulenza legale “difensiva”, in A. Carleo (a cura di), Decisione robotica, cit., p. 239 ss.; G. Laurini, G. Perlingieri, Professioni legali e nuove tecnologie. Come sarà il notaio del futuro?, in questa rivista, n. 1/2021, p. 170 ss.

[193] Cfr., in tal senso, A. Alpini, La trasformazione digitale nella formazione del giurista, inquesta rivista, n. 2/2021, p. 11, la quale fa notare che: “ciò  che unisce tutte le scienze è la storia dell’uomo e il civilista, assumendo il delicato ruolo di introdurre il giovane studioso alle scienze giuridiche, deve tener conto di questa chiave di lettura”.

[194] Si veda T. E. Frosini, Le sfide attuali del diritto ai dati personali, in S. Faro, T. E. Frosini, G. Peruginelli (a cura di), Dati e algoritmi. Diritto e diritti nella società digitale, Bologna, 2020, p. 35 ss.

[195] Su tale aspetto, sembra convenire anche F. Calisai, Dati, informazioni e conoscenze: inquadramento giuridico e regolazione. Appunti su un potenziale paradigma appropriativo, in questa rivista, n. 1/2020, p. 13 ss.

[196] È necessario adoperare una interpretazione teleologico-assiologica specie in relazione ai nuovi risvolti del diritto civile. In tal senso, P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 580 ss.

[197] Non si può non rinviare a P. Perlingieri, La personalità umana nell’ordinamento giuridico, Napoli, 1972, p. 12 ss.

[198] Interessanti gli spunti provenienti da A. Gorassini, Il valore della cultura giuridica nell’era digitale, inquesta rivista, n. 2/2021, p. 38 ss.

[199] Questa è la ragione per la quale chi scrive ha avuto modo di disegnare questo fenomeno con il termine “meritevolezza ciclica”. Cfr. R. Trezza, Artficial Intelligence Act, cit., p. 60 ss.

[200] Cfr. P. Benanti, il quale, intervistato da Sir – Agenzia di informazione, evidenzia che bisogna “umanizzare la tecnica e non macchinizzare l’uomo”. Serve, dunque, un’“algor-etica”, consultabile online, 25 febbraio 2020.

[201] Si rinvia a R. Trezza, Diritto e intelligenza artificiale, cit., p. 27; R. Trezza, I diritti della persona tra “tecniche” e “intelligenze” artificiali, cit.

[202] Sul tema, tra tutti, si veda E. Al Mureden, Sicurezza “ragionevole” degli autoveicoli e responsabilità del produttore nell’ordinamento giuridico italiano e negli Stati Uniti, in Contr. impr., 2012, p. 1508 ss.; A. Albanese, La responsabilità civile per i danni da circolazione di veicoli ad elevata automazione, in Europa e diritto privato, n. 4/2019, p. 995 e ss.; M. Tamperi, L’intelligenza artificiale: una nuova sfida anche per le automobili, in Contr. impr., 2020, p. 745 ss.; G. Calabresi, E. Al Mureden, Driverless cars. Intelligenza artificiale e futuro della mobilità, Bologna, 2021; V. V. Cuocci, Guida autonoma, intelligenza artificiale e sistemi assicurativi no-fault. Alcuni riflessioni comparative, in Comp. dir. civ., n. 1/2021, p. 255 ss.

[203] Interessante, in tal senso, è la riflessione che porta avanti A. Alpini, Identità, creatività e condizione umana nell’era digitale, in questa rivista, n. 1/2020, pp. 4-12.

[204] Sul punto, si veda A. Frisoli, Robotica collaborativa, perché è la chiave per l’industria 5.0, in Agenda digitale, 21 aprile 2021, consultabile online, ove si parla di “robotica collaborativa” e di “industria 5.0.”. Inoltre, in accordo con l’A., si auspica che la robotica possa essere utilizzata nella c.d. “manutenzione predittiva”. L’A., infatti, evidenzia che: “Non da ultimo, e non meno trascurabile, è la categoria dei robot per ispezione e per la manutenzione, che grazie alle tecnologie di visione artificiale potenziate dall’Intelligenza Artificiale sono in grado di potenziare il paradigma della manutenzione predittiva, ovvero un tipo di manutenzione che prevede ed anticipa il guasto, attraverso la misura con sistemi di sensori di parametri fisici di sistema e di modelli matematici che consentono di identificare il tempo residuo prima del guasto”. Anche qui, la figura umana non potrà scomparire in quanto avrà l’onere di inserire nel robot le “variabili capto-manutentive”.

[205] P. Perlingieri, Il diritto civile nella legalità costituzionale, cit., p. 713 ss.

[206] Sul rapporto tra scienza e dignità, si rinvia a F. Rigano, Scienza e dignità della persona, in Il Politico, n. 3/2009, pp. 100-107. Si veda, ancora, U. Vincenti, Diritti e dignità umana, Bari-Roma, 2009, p. 7 ss.; E. Maestri, Genealogie della dignità umana, in Diritto e Questioni pubbliche, n. 9/2009, p. 509 ss.; G. Bardone, La dignità della persona umana e le leggi sul volontariato, Napoli, 2012; S. Rodotà, Il diritto di avere diritti, Roma-Bari, 2012, p. 184 ss.; G. Tarantino, Autonomia e dignità della persona umana, Milano, 2018. Da ultimo, invece, si rinvia a C. Scognamiglio, Dignità dell’uomo e tutela della personalità, in Giustizia civile, n. 1/2014, consultabile online, ove si legge che: “Muovendo, infatti, dalla premessa, sulla quale ci si è soffermati in precedenza, della centralità del valore della persona, e del principio di dignità della medesima nel vigente ordinamento, lo strumento della condanna risarcitoria per danno morale soggettivo, commisurata alla serietà e gravità della lesione, può presidiare efficacemente la dignità della persona. La negazione del valore della persona, e della sua dignità, che il fatto produttivo di danno morale abbia potuto determinare, trova, dunque, risposta, da parte dell’ordinamento, nella condanna risarcitoria adottata a carico del responsabile (…). Intesa nei termini che si sono da ultimo tratteggiati, la condanna risarcitoria per danno morale soggettivo si presta davvero a presidiare la ricchezza simbolica e semantica della dignità della persona: e qui la suggestione della linguistica ci rammenta che il termine degno evoca ciò che è fine, bello, propizio, elevato e, dunque merita rispetto, ma richiama anche, con un’etimologia che è stata definita forse più poetica che scientifica, ma proprio per questo forse più suggestiva, un fuoco alla radice della dignità. Un fuoco che è all’origine di tutte le cose, e, dunque, anche dell’essere-persona, ma che anche segno della loro trasformazione continua: ed è proprio quale presidio giuridico della continua trasformazione, che vuol dire anche incomprimibile individualità, della dignità umana che la condanna risarcitoria per danno morale soggettivo può dispiegare una funzione di fondamentale importanza”. In chiave comparatistica, si può leggere F. Fernandez Segado, La dignità della persona come valore supremo dell’ordinamento giuridico spagnolo e come fonte di tutti i diritti, in Forum costituzionale, 2014, pp. 1-22, consultabile online. Infine, non si può non rinviare a P. Perlingieri, Principio personalista, dignità umana e rapporti civili, in Annali SISDIC, n. 5/2020, p. 1 ss.

[207] Spunti di riflessione arrivano leggendo le pagine di A. Alpini, Sull’approccio umano-centrico all’intelligenza artificiale. Riflessioni a margine del “Progetto europeo di orientamenti etici per una IA affidabile”, in www.comparazionedirittocivile.it, per la quale, specie a p. 9, in maniera del tutto condivisibile, “(…) proprio la caratterizzazione del post-moderno come di un locus senza centro avvalora la necessità di rinviare all’ordine costituzionale33. Il rischio da tenere in conto è che dietro il rassicurante approccio etico e, dunque, attraverso la c.d. etica applicata, proliferi un processo di ibridazione tra norme tecniche e norme giuridiche, una sorta di diritto eticizzato che assume quale paradigma conoscitivo il modello macchinico anziché il valore della persona. Tale supremo valore rischierebbe di essere compromesso dalla incontrollabile contaminazione artificiale, rischio al quale non si può mostrare indifferenza salvo voler rimanere ciecamente ancorati al mondo della finzione”.

[208] Vi è, dunque, la necessità che l’uomo controlli gli algoritmi o che l’uomo progetti “umanamente” algoritmi in grado di controllare gli algoritmi originari e funzionali. In tal senso, si rinvia a C. Mottura, Decisione robotica negoziale e mercati finanziari. Contrattazione algoritmica, nuovi abusi di mercato, algoritmi di controllo (degli algoritmi), in A. Carleo (a cura di), Decisione robotica, cit., p. 265 ss.

[209] Cfr. R. Bodei, Dominio e sottomissione. Schiavi, animali, macchine, Intelligenza Artificiale, Bologna, 2019, p. 19 ss.

[210] Cfr. S. Gazziano, Dall’intelligenza artificiale all’intelligenza umana, Santarcangelo di Romagna, 2018.

[211] Sul punto, si rinvia a C. Barone (a cura di), L’algoritmo pensante. Dalla libertà dell’uomo all’autonomia delle intelligenze artificiali, Trapani, 2020. Sulla stessa lunghezza d’onda, anche I. A. Nicotra, V. Varone, L’algoritmo, intelligente ma non troppo, in Rivista AIC, n. 4/2019, pp. 1-21.

[212] Cfr. V. Marchetti, Condizione digitale e dignità umana, in Città nuova, 16 novembre 2021, consultabile online, ove si legge: “(…) l’emergere di una nuova figura professionale. L’antro-nomo, cioè una persona che pone l’umano come norma all’interno di un processo di innovazione e in una condizione digitale”. Questa è una proposta di don Luca Peyron, docente all’Università Cattolica e responsabile dell’Apostolato digitale della Diocesi di Torino.

[213] Sul punto, di recente, si è espresso N. Irti, Viaggio tra gli obbedienti, Milano, 2021, pp. 159, 162, 166.

[214] Sulla necessità di preferire la “formuletta” Smart Law a quella della Big Law, si veda V. Roppo, Il racconto della legge. Diritto (e rovesci) di una storia che riguarda tutti, Milano, 2019, specie p. 526.

[215] In tal senso, si veda P. Stanzione, Biodiritto, Postumano e Diritti Fondamentali, in Comp. dir. civ., 2010, specie p. 15, ove l’A. afferma che: “Potrebbe dirsi, in tal senso, che l’epoca del postumano non potrà che essere un’epoca di diritto poliforme, molto meno legato a nozioni statiche e molto più veloce nel proprio divenire, necessariamente guidato in questo processo da giuristi che conservino sempre, come stella polare del proprio agire, la centralità della persona umana senza declinazioni ed artificiali sottocategorie. In questo senso, il confronto con il tema del postumano impone, probabilmente, l’avvento di un nuovo tipo di giurista, capace di liberarsi dai pregiudizi e dai vecchi schemi, una sorta di superuomo nell’originario e puro significato nietzscheano, dove l’esatta traduzione dal tedesco Über-Mensch (letteralmente, Oltreuomo) non implica alcuna notazione di superiorità o sopraffazione, bensì un procedere secondo valori e sentimenti che vanno al di là delle convenzioni e dei pregiudizi che comunemente affliggono l’uomo”.

[216] Molte sono le provocazioni e gli stimoli che provengono da P. Perlingieri, Sull’insegnamento del “diritto privato” nelle “Facoltà giuridiche”, in Rass. dir. civ., n. 2/2019, p. 363 ss.; Id., Una lezione agli studenti della “Federco II”. Il “diritto privato” nell’unità del sistema ordinamentale, in Rass. dir. civ., n. 2/2019, p. 402 ss.; A. Villella, Principi generali e ruolo dell’interprete tra dinamicità ed unità del sistema, in Rass. dir. civ., n. 272019, p. 519 ss.; A. A. Carrabba, Insegnamento tra tradizione e modernità: ritorno al futuro?, in Rass. dir. civ., n. 2/2019, p. 632 ss.; M. Pennasilico, L’insegnamento del diritto privato tra modello tradizionale e problematiche attuali (Manifesto per un diritto privato ecosostenibile), in Rass. dir. civ., n. 2/2019, p. 641 ss. In sintonia con Pennasilico, di recente, anche M. Giorgianni, Il contratto “sostenibile”. Riflessioni attorno a una categoria controversa, in Comp. dir. civ., n. 2/2021, p. 755 ss.

[217] Cfr. P. Maddalena, Interpretazione sistematica e assiologica, in Giust. civ., 2009, p. 65 ss. Si rinvengono considerazioni sul punto anche in P. Perlingieri, Francesco Gentile e la legalità costituzionale: dalla diffidenza alla piena sintonia, in L’Ircocervo, n. 3/2015, p. 41 ss.

[218] In primis, P. Perlingieri, L’interpretazione della legge come sistematica ed assiologica, in Rass. dir. civ., n. 4/1985, p. 1 ss.; id., Interpretazione sistematica e assiologica, situazione soggettive e rapporto giuridico, Napoli, 2006; id. Il diritto civile nella legalità costituzionale, cit., p. 580 ss. Si veda, inoltre, la nuova edizione del manuale di P. Perlingieri, Il diritto civile nella legalità costituzionale secondo il sistema italo-europeo delle fonti, vo. 2 “Fonti e interpretazione”, Napoli, 2020, specie p. 333 ss.

[219] Sul punto, si faccia riferimento a G. Perlingieri, Profili applicativi della ragionevolezza nel diritto civile, Napoli, 2015, p. 1 ss.

[220] Si rinvia sempre a V. Roppo, Il racconto della legge, cit., specie p. 527. Si faccia anche riferimento al fatto che proprio quest’anno ricorrono gli 80 anni dall’entrata in vigore del codice civile italiano (16 marzo 1942), al quale, ancora una volta, come àncora di salvezza categoriale, insieme al “baluardo e alla bussola ordinamentale” rappresentati dalla Costituzione, bisogna rivolgersi per addivenire a soluzioni nuove per problemi nuovi.