In questi ultimi decenni l’efficacia degli ordinamenti giuridici è stata spesso condizionata dal repentino sviluppo tecnologico che ne ha messo in discussione l’idoneità e la portata. In particolare, l’avvento dell’era digitale 4.0 ha complicato il già difficile rapporto tra norme di diritto e norme tecniche. Appare, difatti, più che evidente la necessità per gli studiosi di comprendere fino a che punto gli ordinamenti giuridici possano ritenersi di flessibile interpretazione, e se questi siano in grado di rispondere alle esigenze di risarcimento del danno causato dalla circolazione di automobili.

In primo luogo, appare necessario a studiosi ed operatori del diritto comprendere i termini della questione: i progressi tecnologici dell’ultimo decennio hanno portato a ripensare l’idoneità delle macchine intelligenti ad essere considerate come meri oggetti guidati da terzi. Oggi, più che mai, lo sviluppo di congegni con preminenti caratteristiche di autonomia e cognizione ha reso sempre più simili tali congegni ad agenti del tutto indipendenti, capaci di interagire autonomamente con l’ambiente esterno, di modificarlo e di prendere decisioni a prescindere da un’influenza di terzi soggetti.

Tanto premesso, il mondo giuridico si interroga, sulla possibilità di considerare i robot, e comunque tutte le macchine guidate da IA come (pseudo)-soggetti di diritto e sull’eventuale necessità emergente di creare una nuova categoria, la cosiddetta personalità elettronica, con caratteristiche specifiche e implicazioni proprie. Da un punto di vista del diritto si tratta di stabilire se questo tertium genus debba essere trattato e sviluppato sul modello delle persone fisiche, attribuendo ad esse sia doveri che diritti, o sul modello di enti di responsabilità giuridica, eventualmente attribuendo a agli stessi soltanto doveri.

È bene precisare che tale linea di pensiero non è unanimemente accettata da chi, tra gli studiosi, vorrebbe ricondurre la personalità elettronica al modello delle persone giuridiche, poiché tale ultima ipotesi implicherebbe l’esistenza di soggetti idonei a rappresentarla e dirigerla (ipotesi da escludere nel caso dei robot), né da chi vorrebbe, invece, ricondurla al modello delle persone fisiche comportando tale ultima lettura il rischio etico di umanizzare eccessivamente i dispositivi guidati da IA. È pacifico, infatti, che specifici doveri e responsabilità di tipo personalistico sono, e sono state nel tempo, attribuibili ad entità quali associazioni e comitati (un esempio è il d.lgs. 231\2001), ma è sul piano della prevedibilità in capo a questi ultimi di diritti, che sorgono i maggiori problemi etici e giuridici.

Personificare un’entità non è altro che mutare da “res” a “esse” e la condizione di ciò sta nel possesso di una autocoscienza di tipo umano, secondo cui la macchina è in grado non solo di capacità cognitive, ma anche e soprattutto emotive. Di conseguenza, i rischi etici di un tale approccio sono evidenti, poiché pongono il serio interrogativo agli studiosi in merito a cosa caratterizzi davvero l’uomo: è sufficiente la capacità di pensare ed emozionarsi? E inevitabilmente, ammettendo il paragone uomo-macchina di stampo post-umanista, si arriverebbe al frazionamento della soggettività umana, riducendola e distinguendo intelletto, volontà e passione.

A queste ultime conclusioni giungono anche coloro i quali reputano l’IA un semplice processo atto a riprodurre l’abilità del pensiero umano, imitandone in primis le capacità di apprendimento e di generalizzazione necessarie al fine dell’assunzione di decisioni. Secondo l’appena descritta interpretazione, dunque, le macchine non svolgerebbero un’azione sufficientemente originale e indipendente tale da poterle considerare come centro autonomo di imputazione giuridica.

Oggi la questione appare ancora apertamente dibattuta in quanto le macchine dotate di IA, pur essendo capaci di autonomia decisionale e comportamentale, non possono assolutamente essere identificate con un’unica definizione che le accomuni tutte, indistintamente, bensì devono essere tenuti in debita considerazione vari aspetti come, ad esempio, la natura del robot, l’ambiente in cui agisce ed opera, la tipologia di controllo che l’uomo esercita su di esso.

Dunque, nel conservare un grado di imprevedibilità e unicità dipendente da molti fattori, tra i quali anche quelli sopra elencati, non sembrerebbe opportuno agli studiosi riempire di significato la nozione di personalità elettronica, che risulterebbe non adeguata a tutte le varie tipologie di robot intelligenti.

Dunque, il tema dell’IA da sempre risulta essere un tema centrale attorno al quale ruota l’attenzione degli studiosi del diritto, i quali tentano di inquadrare il fenomeno e vagliare le implicazioni logico-giuridiche delle nuove applicazioni tecnologiche. La fine di questi approfondimenti, per una dottrina minoritaria può auspicarsi solamente con un intervento del legislatore, mentre, per la maggioranza degli studiosi le norme attuali possono trovare giusta applicazione, con un’interpretazione alla luce dei nuovi fenomeni, considerando sufficienti tali norme a soddisfare i problemi giuridici sollevati dall’intelligenza artificiale.

L’unica certezza riscontrabile sta nel fatto che un quadro normativo organico e puntuale può determinare sicuramente maggiore chiarezza rispetto ai doveri e alle responsabilità di tutti i soggetti coinvolti nel processo di innovazione tecnologica. Tale approccio trova conferma nella Risoluzione del Parlamento Europeo del 16 Febbraio 2017, la quale contiene raccomandazioni alla Commissione riguardanti le norme civili sulla robotica. Il Parlamento in tal senso ha voluto anticipare i parlamenti nazionali, elaborando una disciplina armonizzata tale da renderla il più possibile unica in tutti gli Stati Membri.

Se da un lato, con la descritta Risoluzione si è cercato di ridurre la distanza tra intelligenza artificiale e robot, di certo è emersa l’esigenza di regolamentare l’uso dei robot nelle attività industriali, come anche nella vita privata. In particolare, dai “Considerando” della Risoluzione, emerge la volontà del Legislatore Europeo di affrontare tutte le diverse implicazioni giuridiche relative alla responsabilità civile per i possibili danni causati dai robot e dall’IA nell’interazione con l’uomo.

In Italia l’analisi del tema sull’IA è resa particolarmente complessa dal fatto che necessita rivisitare le norme giuridiche già esistenti nell’ordinamento e che i dispositivi in esame – e le attività ad essi connesse – sono del tutto innovativi. A livello nazionale ci si interroga dunque se, a fronte di questi scenari emergenti, gli ordinamenti tradizionali siano idonei ed in grado di risolvere le questioni oggetto d’esame in questa trattazione.

È d’uopo analizzare in primo luogo le possibili fattispecie ricollegabili alla responsabilità civile per danno da intelligenza artificiale. Interpretando norme codicistiche, la dottrina maggioritaria identifica la responsabilità da IA quale  responsabilità oggettiva (come anche già immaginato nella Risoluzione del Parlamento del 2017), intesa come responsabilità diversa e contrapposta a quella per colpa. In questo caso, sarebbe sufficiente dimostrare il danno e la connessione causale tra questo e il funzionamento che lo ha generato ed una complessa valutazione dei rischi e della capacità di controllo da parte di “persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo” (punto 55) dell’intelligenza artificiale.

Il primo confronto che risulta utile all’interprete è tra l’art. 2050 c.c. e l’art. 2051 c.c.: il primo articolo fa riferimento alla responsabilità per l’esercizio di attività pericolose, il secondo riguarda la responsabilità del danno cagionato da cose in custodia: in entrambi i casi la prova liberatoria sta nel provare che si sono adottate tutte le misure idonee ad evitare il danno.

Prendendo le mosse dalla disciplina dell’art. 2050 c.c., la cui norma enuncia che l’esercizio di attività pericolose o in sé rischiose è fonte di responsabilità per i danni eventualmente causati a terzi, un caso rientrante in questa disciplina potrebbe essere quello riferibile a Justin, il robonauta che si muove sotto la supervisione di un operatore attivo che lo guida, per cui chi intravede in ciò un’attività pericolosa, riconduce l’eventuale danno alla fattispecie del 2050 c.c.

È bene comunque fare una considerazione e, cioè, che l’intelligenza artificiale è stata spesso considerata addirittura più affidabile dell’uomo, al punto da poter sostituire quest’ultimo in tema di funzioni di sorveglianza e controllo oppure come mezzo correttivo; per cui apparirebbe contraddittorio, in tali casi, parlare di “pericolosità” della macchina, anzi si potrebbe parlare di un ente non pericoloso e, soprattutto, in grado di evitare inconvenienti che senza il suo intervento si sarebbero verificati. Tanto premesso non è possibile comunque considerare le macchine con IA come “perfette” o esenti da difetti, esiste, infatti. un limite negativo alla perfezione, una “zona d’ombra” nella quale la macchina può divenire un ente impreparato a governare le sue azioni.

Sicuramente spazio importante può trovare, altresì, l’art. 2051 c.c., la fattispecie analizzata dalla norma si riferisce ad un danno causato da una cosa inanimata, e ciò delimita la responsabilità aquiliana ex art. 2043 c.c.. 

Giunti a questo punto gli studiosi hanno bisogno di verificare se l’intelligenza artificiale possa essere considerata come una “cosa” rientrante nella fattispecie in questione. Un solo fatto decisivo può risultare utile per rispondere al quesito posto, si tratta della sentenza della Cassazione, n. 7361 del 15 marzo 2019, che chiarisce come il danno proveniente dall’omesso controllo o la carente osservazione della cosa in custodia sia un difetto di azione umana “da rendere la circostanza scalfibile non solo dall’ineluttabile”.

Questa fattispecie può essere applicabile nel caso di Robonaut2, il robonauta che si sostituisce agli astronauti in situazioni troppo pericolose per l’uomo: esso, senza intervento dell’attività umana, può provocare danni direttamente con la sua azione. Questo caso può essere ricondotto alla fattispecie del 2051 c.c. in quanto la responsabilità è del custode, inteso non come il proprietario o il possessore, bensì come colui che in durante l’azione del robot ha il controllo della cosa e potrebbe prevenire il danno, salvo caso fortuito.

Tra l’altro, l’attuale disciplina non si presenta per nulla lineare, è necessario infatti prendere in considerazione chi non ritiene l’intelligenza artificiale una “cosa”, o meglio ritiene che il livello tecnologico dell’IA ed il suo contenuto standard non aderisca alla realtà del Codice Civile, ancora legato al concetto di forza, anche se incrementato dalle macchine. Per tale motivo, se l’Intelligenza Artificiale si identifica con l’agente, le sue capacità di muoversi e di operatività, benché predisposte dal programmatore, non rimandano alla disciplina della custodia

La responsabilità ex art. 2051 c.c. si rivela in linea anche con la disciplina dell’articolo successivo, 2052 c.c. in ambito di danni cagionati da animali ed imputabili al loro proprietario, sia che si trovino sotto la sua custodia, sia che siano fuggiti o smarriti, salvo caso fortuito.

L’asimmetria si basa sul fatto che la cosa dotata di intelligenza artificiale possa rispondere, per analogia, secondo gli stessi criteri stabiliti per la responsabilità da intelligenza animale.

Alcuni operatori del diritto, diversamente, considerano la differenza sostanziale tra animali, che sono esseri irrazionali e imprevedibili, e macchine guidate da IA che sono prive di queste caratteristiche poiché, se fosse al contrario, potrebbero porre in essere azioni per le quali non sono programmati.

Infine, a parere di chi scrive, la differenza tra le fattispecie degli articoli 2051 c.c. e 2052 c.c. non è sostanziale, né tantomeno rilevante ai fini della risoluzione della disputa riguardante la responsabilità da macchine intelligenti in quanto, sia che il danno sia cagionato da cosa in custodia, oppure da animali, la responsabilità ricade sempre sul custode.

Abbandonata, quindi, la possibilità di istituire un tertium genus di personalità giuridica si rende necessario per l’interprete il ricorso ad istituti giuridici già esistenti, al fine di configurare una responsabilità in caso di danno cagionato da un prodotto dotato di intelligenza artificiale.

Per quanto scritto sono state illustrate le ipotesi di responsabilità ai sensi dell’articolo 2050 cc e seguenti. Alternativamente, è stato proposto agli studiosi un approccio alla responsabilità basata sulla gestione dei rischi, secondo cui “responsabile non sarebbe il soggetto negligente, in quanto responsabile a livello individuale, bensì colui che in determinate circostanze sia in grado di minimizzare i rischi e affrontare l’impatto negativo”. Individuato come tale è il produttore del prodotto difettoso ai sensi della Direttiva 85/374/CEE.

In ultimo, è stata ipotizzata la creazione di sistemi assicurativi e fondi di garanzia finalizzati a risarcire i danni originati.

A seguire le diverse alternative sopra elencate.

 La disciplina contenuta della Direttiva 85/374/CEE, attuata in Italia con il D.P.R. n. 224/1988, poi confluito nell’attuale Codice del Consumo (D.lgs. 206/2005), disciplina le ipotesi di responsabilità per product liability. La stessa, ad oggi, è sembrata adeguata a disciplinare anche i danni causati da un’Intelligenza Artificiale il cui difetto determina un output dannoso, sebbene non pochi dubbi siano sorti in merito all’ idoneità della direttiva sopra citata ad essere strumento adeguato di regolazione, poiché l’imprevedibilità della AI sembra sfuggire alle definizioni di prodotto e difetto presupposto della disciplina.

Il soggetto che lamenta un danno, ai sensi della Direttiva, è chiamato a dimostrare la difettosità del prodotto, il pregiudizio patito ed il nesso di causalità tra quest’ultimo ed il difetto, quanto elencato basta a configurare una responsabilità oggettiva in capo al produttore del prodotto, poiché si prescinde dalla prova di alcun elemento soggettivo di dolo o di colpa. Da parte sua il produttore si libera solamente provando uno degli elementi di cui all’articolo 7 della suddetta direttiva, di cui il più importante è sicuramente il “rischio da sviluppo”, ai sensi del quale il difetto che ha causato il danno non era prevedibile al momento della messa in circolazione del prodotto o sia sorto successivamente.

Con riferimento allo smart product, al produttore dello stesso dovrebbe essere precluso di poter beneficiare di tale esenzione, laddove si riesca a dimostrare che questi abbia il controllo anche da remoto del prodotto e dei relativi aggiornamenti e ove sia prevedibile, in ragione della natura del prodotto e degli algoritmi che ne guidano il funzionamento, che il bene sviluppi delle condotte non programmate al momento della sua messa in circolazione. Applicando quest’ultima disposizione al tema dell’Intelligenza Artificiale è chiaro che in ultimo il produttore non possa invocare il “rischio da sviluppo” qualora insorga un comportamento deviante del prodotto che incorpora l’algoritmo.

Al consumatore è, altresì, garantita la possibilità di rivolgersi, in caso di danno, anche al programmatore dell’algoritmo che governa il prodotto. L’algoritmo, infatti, nelle macchine self-learning è preposto ad impartire degli ordini responsabili del funzionamento della IA, quindi è proprio dall’algoritmo che trae origine il comportamento anche dannoso del prodotto. Ciò sembra sufficiente a configurare una responsabilità solidale, con quella del produttore del bene ultimo, del programmatore dell’algoritmo, potendo quindi il consumatore, rivolgersi alternativamente all’uno o all’altro.

Quest’ultima operazione è possibile grazie ad una interpretazione che riporta l’algoritmo a componente del prodotto finale, potendo estendere quindi allo stesso la definizione di prodotto data dalla Direttiva 85/374/CEE all’articolo 2.

Sembrerebbero, invece, soggetti esclusi dalla posizione di garanzia sopra delineata il trainer ed il fornitore dei trainer data, in quanto gli stessi forniscono un mero servizio e come tale non sembrerebbe da ricomprendersi nell’ambito di applicabilità della direttiva che limita la responsabilità al produttore del bene finito o di singole parti di esso, e concordemente ad una interpretazione estensiva delle norme sopra esposta, anche al programmatore dell’algoritmo.

Il trainer svolge un ruolo significativo in quanto impartisce le istruzioni affinché la macchina sia in grado di auto-apprendere; in altri termini in questa fase la macchina “allena” se stessa a sviluppare i meccanismi su cui ella stessa apprenderà. Questo processo di apprendimento iniziale si fonda su dei dati che vengono forniti alla macchina dal trainer data, ma questi, unitamente al trainer, pur svolgendo un compito di fondamentale importanza per il funzionamento della IA, fornisce un servizio non classificabile come “componente” del prodotto, e di conseguenza resta esclusa la responsabilità dello stesso ai sensi della Direttiva.

 A fronte della difficoltà del soggetto danneggiato da IA di ottenere un risarcimento effettivo per i danni subiti, spesso ingenti, è stata proposta in sede di Unione Europea l’introduzione di un’assicurazione per la responsabilità civile obbligatoria da parte di chi produce il bene che ha provocato il danno, in modo da evitare insolvenze.

Le obiezioni dei giuristi a quest’ultima lettura prospettica si dirigono verso una difficoltà di individuare ex ante i rischi connessi alle nuove tecnologie e conseguentemente al calcolo dei premi assicurativi. Ciò potrebbe avere come logica conseguenza anche l’inibizione dello sviluppo di nuovi prodotti intelligenti, poiché imporrebbe come condizione per l’immissione nel mercato un’assicurazione a fronte di rischi ignoti che le società assicurative difficilmente sarebbero disposte a stipulare.

Così dissertando la soluzione offerta in sede europea è quella, pertanto, di ipotizzare una limitazione del risarcimento ad un importo determinato nel quantum ovvero prevedere una copertura per le sole tecnologie che potrebbero produrre danni maggiori che, proprio per la loro portata, il soggetto obbligato non sarebbe stato in grado di adempiere da solo.

In modo alternativo alcuni studiosi pensano alla costituzione di un fondo di garanzia in modo da ripartire gli oneri economici su tutti i soggetti coinvolti, quali produttore, proprietario e utente, Nel caso in cui questi non siano meglio identificabili, lo Stato sarebbe chiamato a partecipare affinché la vittima venga in ogni caso risarcita. La possibilità di istituire un fondo crea, tuttavia, il problema, già conosciuto, della possibilità di istituire una cosiddetta personalità elettronica in capo alla macchina che utilizza l’IA, attraverso cui renderla responsabile e quindi titolare del fondo. E pur ammettendo quest’ultima possibilità, i soggetti lesi non sarebbero comunque avvantaggiati, in quanto si circoscriverebbe la responsabilità al limitato patrimonio dell’AI a fronte dell’illimitata e cumulativa responsabilità patrimoniale dei soggetti coinvolti, quali produttore, fabbricante, custode ed altri.

Nel 2018 il quartiere Bronx City, appartenente al Consiglio della città di New York, ha approvato una legge assai rilevante in materia di responsabilità di IA, il riferimento è alla Legge n. 49 del 2018.

L’introduzione della stessa si è resa necessaria a causa della pervasività con cui gli strumenti di IA sono entrati nella vita pubblica e privata dei cittadini. In particolare, è stato dimostrato che l’uso delle stesse nel supporto all’attività burocratica incorreva spesso in bias razziali e quindi discriminatori.

Il maggior pregio della nuova normativa, cui si fa cenno, è quello di istituire una task force cui è affidato il compito di mappare l’utilizzo che delle IA, il tutto realizzato all’interno del Municipio di New York al fine di elaborare delle raccomandazioni tali da rendere trasparente il meccanismo utilizzato e quindi prevenire i problemi giuridici e sociali derivanti da un corretto uso dei predetti mezzi.

La task force sopra richiamata, formata da esperti in materia informatica e funzionari amministrativi, ha promosso forum pubblici al fine di rendere edotta la popolazione sull’utilizzo di detti sistemi di IA e quindi garantirne la trasparenza. La stessa ha anche previsto delle modalità per consentire di ottenere il risarcimento per danni causato da una IA, attribuendo quindi alla stessa una sorta di personalità giuridica.

È nel contesto sopra illustrato il 28 settembre 2021 la Commissione Europea ha annunciato l’adozione nel 2022 di due proposte volte ad adattare le norme sulla responsabilità civile all’era digitale, all’economia circolare e all’impatto delle catene globali del valore. In particolare, una delle due proposte riguarda una nuova direttiva sulla responsabilità per l’intelligenza artificiale (“Direttiva IA”), volta a facilitare il risarcimento del danno a coloro che abbiano subìto danni derivanti dall’impiego di sistemi di IA. 

L’adozione della proposta di Direttiva IA segue alcuni passaggi compiuti dalle istituzioni europee a partire dalla pubblicazione dello studio “Liability for artificial intelligence and other emerging digital technologies” nel 2019, passando per l’adozione del Libro Bianco sull’IA del 19 febbraio 2020 da parte della Commissione e approdando poi alla consultazione pubblica chiusa il 10 gennaio 2022. La Direttiva IA è parte di un approccio europeo coordinato volto a far fronte alla crescente diffusione dell’Intelligenza Artificiale e delle tecnologie digitali: il Regolamento sull’IA proposto dalla Commissione nell’aprile 2021 (“Regolamento IA”) si concentra principalmente sul monitoraggio e sulla prevenzione dei danni, mentre la Direttiva IA mira ad armonizzare il regime di responsabilità applicabile nei casi in cui i sistemi di IA causino danni, siano essi sistemi ad alto o a basso rischio. Secondo la Commissione, infatti, le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA.

I principali limiti delle normative in questione, come già scritto, sarebbero insiti nelle caratteristiche peculiari dell’IA, tra cui la complessità, l’autonomia e l’opacità (il cosiddetto effetto “scatola nera”), che potrebbero rendere difficile o eccessivamente oneroso per i danneggiati identificare i responsabili e dimostrare la sussistenza dei requisiti necessari per un’azione basata sulla responsabilità extracontrattuale, come sopra già ribadito. Inoltre, si ribadisce, la catena di fornitura dei sistemi di IA coinvolge diversi attori, rendendo ancora più complessa l’attribuzione della responsabilità. Si pensi, ad esempio, a un incidente che coinvolga un’auto a guida autonoma: la responsabilità del danno causato potrebbe ricadere sul conducente, sul progettista del sistema di guida autonoma, sul produttore del software dei sensori o dei sensori stessi, sul produttore del veicolo, sui soggetti che hanno fornito i dati rilevanti, su cyber-attaccanti, sul concorso di tutti questi soggetti o persino di altri. Altre difficoltà nell’attribuzione della responsabilità possono derivare dal fatto che alcuni sistemi di IA sono in grado di modificarsi in autonomia in base all’elaborazione di nuovi dati (self-adapting), oppure dagli aggiornamenti cui sono soggetti, o dalla loro interazione continua con l’ambiente circostante, altri sistemi e fonti di dati.

In sintesi, la Direttiva IA mira a prevenire la frammentazione derivante da interventi legislativi non coordinati né coerenti tra loro nei diversi Stati membri e a ridurre l’incertezza giuridica per le imprese che sviluppano o utilizzano l’IA nel mercato interno.

Nello sforzo complessivo di creare un ecosistema favorevole e basato sulla fiducia per lo sviluppo, l’utilizzo e gli investimenti in sistemi di IA, la Commissione ha portato avanti ulteriori iniziative legislative in materia di sicurezza, quali il nuovo “Regolamento Macchine 2021” e la revisione della direttiva sulla responsabilità da prodotto difettoso (“Direttiva Prodotto”). La Direttiva Prodotto e la Direttiva IA sono complementari: la prima ha ad oggetto la responsabilità oggettiva del produttore, mentre la seconda, come detto, riguarda le azioni di responsabilità extracontrattuale a livello nazionale e ha l’obiettivo di assicurare un risarcimento a qualsiasi tipo di danno e di danneggiato.

Nel memorandum esplicativo della Direttiva IA la Commissione Europea ha spiegato anche i motivi sottostanti alla scelta dello strumento legislativo (direttiva): un’eventuale soft law non vincolante (ad esempio, raccomandazioni) non sarebbe stata rispettata nella misura auspicata, mentre un complesso di norme direttamente applicabili negli Stati membri (regolamento) sarebbe risultato troppo stringente rispetto all’ambito della responsabilità extracontrattuale, che poggia su tradizioni giuridiche particolari e consolidate nel tempo nei singoli Stati membri. Sotto quest’ultimo aspetto, lo strumento direttiva ha lasciato una maggiore flessibilità agli Stati membri nel recepimento interno.

La Direttiva IA è stata modellata su un approccio a due fasi: in una prima fase, ha avuto l’obiettivo di adeguare e coordinare i regimi nazionali in materia di responsabilità civile per danni causati dall’IA, senza stravolgerli. Al riguardo, il testo prevede un alleggerimento dell’onere della prova per i danneggiati e, in particolare, della prova del nesso causale tra colpa del convenuto ed evento consistente in un’azione od omissione derivante dall’impiego di sistemi di IA.

La seconda fase ha previsto anzitutto una valutazione dell’efficacia delle misure adottate nell’ambito della prima fase, tenendo conto dei futuri sviluppi tecnologici, normativi e giurisprudenziali e della necessità di armonizzare altri elementi delle legislazioni nazionali in materia di responsabilità civile, compresa l’introduzione di un eventuale regime di responsabilità oggettiva e di una copertura assicurativa.

La Direttiva IA ha mirato all’alleggerimento dell’onere della prova del danneggiato attraverso due principali strumenti: presunzione relativa e divulgazione di informazioni. La prima volta a semplificare ai danneggiati la prova del nesso causale tra la colpa del convenuto-danneggiante e l’output prodotto dal sistema di IA o la mancata produzione di un output da parte del sistema di IA che ha provocato il danno.

La Direttiva IA non ha spinto, quindi, a disporre un’inversione dell’onere della prova in capo ai danneggianti (ad esempio fornitori o produttori del sistema di IA), fatto considerato troppo gravoso, al punto da generare rischi così significativi da ostacolare l’innovazione e l’adozione di prodotti e servizi basati sull’IA. Secondo alcuni studiosi l’inversione dell’onere della prova potrebbe addirittura portare a un clima di eccessiva litigiosità, con il proliferare di contenziosi instaurati dai danneggiati nei confronti di una molteplicità di soggetti potenzialmente responsabili (Articolo 4(1)). 

La presunzione relativa si applica soltanto qualora il giudice nazionale ritenga eccessivamente difficile per il danneggiato-attore (o eventuali altri legittimati) provare il nesso causale e al soddisfacimento di tutte le seguenti condizioni: (a) l’attore abbia dimostrato o il giudice abbia presunto, la colpa del convenuto, o di una persona del cui comportamento il convenuto è responsabile, consistente nell’inosservanza di un obbligo di diligenza volto alla tutela dal danno che si è verificato (ad esempio, un obbligo di diligenza ai sensi del Regolamento IA o altra normativa nazionale o europea); (b) si possa ritenere ragionevolmente probabile, in base alle circostanze del caso, che la condotta colposa del convenuto abbia influito sull’output prodotto dal sistema di IA o l’incapacità del sistema di IA di produrre un output; e (c) l’attore abbia dimostrato che l’output prodotto dal sistema di IA o l’incapacità del sistema di IA di produrre un output abbia causato il danno.

Inoltre, la Direttiva IA ha previsto un regime differenziato per i sistemi di IA ad alto rischio, così qualificati dal Regolamento IA: l’applicazione della presunzione di causalità nell’ambito delle azioni promosse contro fornitori o utilizzatori di tali sistemi è limitata al caso di mancato rispetto di determinati obblighi previsti dal Regolamento IA (Articolo 4(2)(3)). Inoltre, la presunzione di causalità non è applicabile se il convenuto dimostra che l’attore abbia avuto a disposizione prove e competenze sufficienti per dimostrare il nesso di causalità (Articolo 4(4)).

La Direttiva IA ha stabilito anche un ulteriore regime differenziato per il caso in cui il sistema di IA dal quale sia scaturito l’asserito danno sia stato utilizzato nel corso di un’attività personale non professionale (Articolo 4(6)). In questo caso la presunzione di causalità si applica solo se il convenuto abbia interferito materialmente con le condizioni di funzionamento del sistema di IA o se il convenuto fosse tenuto e in grado di determinare le condizioni di funzionamento del sistema di IA e non lo abbia fatto.

Oltre alla presunzione relativa di causalità, con riguardo ai sistemi di IA ad alto rischio la Direttiva IA ha attribuito agli organi giurisdizionali nazionali il potere di ordinare la divulgazione di elementi di prova da parte del fornitore o altro soggetto tenuto ai medesimi obblighi del fornitore, nel caso in cui questi abbiano negato di dar corso alla medesima richiesta presentata dal danneggiato-attore (o eventuali altri legittimati) (Articolo 3(1)). Al fine di ottenere l’ordine, chi agisce in giudizio è tenuto a presentare a sostegno della richiesta fatti e prove sufficienti a sostenere la plausibilità della domanda di risarcimento del danno e a compiere ogni sforzo proporzionato per ottenere gli elementi di prova dal convenuto. Oltre alla divulgazione, la Direttiva IA ha previsto anche che l’attore possa chiedere la conservazione degli elementi di prova (Articolo 3(3)).

Dinanzi all’incessante crescita della complessità dei sistemi di IA e degli algoritmi che li governano, così come all’enormità delle masse di dati che vengono loro somministrati dalle fonti più disparate, diviene esigenza primaria poter fornire una spiegazione dei processi logici e decisionali seguiti, in base a un generale principio di trasparenza. La trasparenza può essere declinata in tre diversi aspetti, tra loro complementari: tracciabilitàcomunicazione e spiegabilità

Particolarmente rilevante è il passaggio della Direttiva IA (Articolo 3(4)) che ha imposto ai giudici nazionali di tenere in considerazione gli interessi legittimi di tutte le parti nel determinare se un ordine di divulgazione o di conservazione delle prove sia proporzionato. La Direttiva IA fa specifico riferimento alla tutela dei segreti commerciali ai sensi della direttiva UE 2016/943 (direttiva c.d. “trade secret”) e relativa normativa nazionale di recepimento, lasciando al giudice del merito il delicato compito di valutare la prevalenza della divulgazione/conservazione o della tutela del segreto.

Inoltre, la Direttiva IA ha previsto che qualora fosse ordinata la divulgazione di un segreto commerciale o presunto tale in un procedimento giudiziario, le autorità giudiziarie nazionali fossero autorizzate, su richiesta debitamente motivata di una parte o d’ufficio, ad adottare misure specifiche necessarie a preservarne la segretezza. Ad esempio, la direttiva trade secret ha previsto, tra tali misure, la possibilità di limitazione di accesso alla documentazione riservata a un novero ristretto di persone, di limitazione di accesso alle udienze, registrazioni e trascrizioni, e di oscuramento delle parti sensibili delle decisioni

La Commissione si è impegnata a presentare un report a Parlamento, Consiglio e Comitato Economico e Sociale, nell’ambito del quale valutare il raggiungimento degli obiettivi previsti (Articolo 5). Nello stesso contesto la Commissione valuterà anche l’opportunità di prevedere un regime di responsabilità oggettiva per le domande avanzate nei confronti degli operatori di determinati sistemi di IA e una copertura assicurativa obbligatoria.

Nella Direttiva IA non vi è traccia del dibattito relativo all’eventuale assegnazione di una sorta di “personalità elettronica” ai sistemi di IA, o quantomeno a quelli dotati di un livello molto elevato di autonomia, in modo simile alla personalità giuridica degli enti, così da poter far ricadere direttamente su tali sistemi la responsabilità per i danni che dovessero causare.