La funzione precipua del diritto è disciplinare ogni nuovo fenomeno, di qualsivoglia genere, diventi di uso quotidiano nel vivere comune di ciascuno di noi.

A volte si tende ad avere una sovraproduzione di norme, che possono risultare anche un ostacolo allo svolgimento delle attività regolamentate.

Nel caso che ci occupa, di contro,  l’intervento del legislatore, non solo è assolutamente necessario, per il cambiamento epocale, che l’intelligenza artificiale inevitabilmente produrrà nelle nostre vite, ma anche urgente, come sempre quando si interviene sulle nuove tecnologie, che per loro natura, seguono un’evoluzione rapida e spesso incontrollabile.

Su questo argomento andare in ordine sparso, con interventi nazionali è utopico oltre che inefficace ,ha provveduto con grande tempestività il legislatore europeo, primo al mondo a dotarsi di uno strumento che protegga il cittadino dalle possibili distorisioni derivanti da un uso senza regole della nuova straordinaria tecnologia.

Il 21.05.2024 è stato approvato il testo definitivo del regolamento europeo, che disciplina questo delicatatissimo campo le cui molteplici implicazioni nel nostro quotidiano saranno a breve argomento  di discussione.

Questo articolo non si propone di compiere un’esegesi del testo, che al momento è recentissimo, piuttosto sottolineare la metodologia adottata  e i beni giuridici tutelati.

Intanto dare una definizione di Intelligenza Artificiale, che è necessaria per individuare l’ambito di applicazione :

  • essere costituito da un sistema computazionale, in gradi generare output in autonomia
  • avere capacita di apprendimento e di evoluzione, quindi di adattarsi
  • raggiungimento degli obiettivi che gli vengono sottoposti
  • ricavare algoritmi o previsioni dagli output che riceve

I sistemi che rispondono a questi requisiti di classificazione sono sottoposti ai  limiti che vedremo.

La struttura del testo ricalca un modus operandi, che abbiamo imparato a conoscere in altri regolamenti afferenti interessi dei consumatori.

Perchè di fondo la tutela del cittadino europeo, passa in gran parte dalla suo essere utente e consumatore finale di molteplici servizi.

Non possiamo non ricordare il G.D.P.R che disciplina la privacy, tutelando la nostra nuova richezza, i dati personali o il regolamento Omnibus sulle pratiche commerciali via web financhè il Mifid, che tutti noi abbiamo firmato almeno una volta in banca, è uno strumento di protezione per il cittadino europeo, consumatore/utente finale di servizi.

La struttura e la finalità di questo nuovo regolamento ricalcano questo schema.

Vuole essere uno strumento, che il legislatore mette a disposizione per proteggersi, ma anche per favorire un progresso inevitabile e inarrestabile in modo regolamentato.

Quindi la visione antropocentrica del provvedimento è evidente in ogni passaggio.

Infatti viene classificato il grado di rischio, che questa nuova tecnologia potrebbe avere , in ciascun campo di applicazione e di conseguenza regolamentato se non addiritura vietato.

Analizziamo questa classificazione per capire la ratio legis.

I livelli di rischio sono 4, rischio inaccettabile, ad alto rischio, rischio limitato, rischio nullo o minimo.

RISCHI INACCETTABILI

Qui l’antropocentrismo del provvedimento è evidente e corrisponde ad un prerequisito molto dibatutto nei lavoratori preparatori, il rispetto degli Artt 2/6 del TUE.

Corrispondono ad una valutazione di rischio inaccettabile quando sono una minaccia per la persona, dei suoi diritti fondamentali

  1. Manipolazione comportamento personale o cognitivo di persone o gruppi particolarmente vulnerabili, ad esempio lanciando messaggi nei giocattoli per bambini che ne possono incoraggiare comportamenti pericolosi.
  2. La classificazione sociale, in base all’analisi socio-economica, comportamentale o alle caratteristiche personali, sul punto anche il G.D.P.R ha fornito un importante strumento, per attenuare l’impatto sulla privacy di alcuni nostri comportamenti poco attenti.
  3. Identificazione Biometrica con conseguente classificazione
  4. Riconoscimento facciale.

Questi due ultimi rischi saranno oggetto di eccezioni in favore delle forze dell’ordine per ciò che riguarda casi eccezionali di riconoscimento in tempo reale o ex post con autorizzazione del Tribunale.

Ovviamente la biometria e il riconoscimento facciale, sono strumenti di repressione poderosi in un sistema dittatoriale e ledono in maniera profonda i diritti fondamentali dell’individuo e di certo saranno oggetto di grandi dibattiti sul loro contemperamento con le esigenze di sicurezza , che comununque sono presenti anche nelle democrazie.

Ulteriori spunti di discussione saranno il concetto di luogo pubblico, di dato biometrico e dato emozionale, oltre a catalogare le persone in base a razza religione usi e costumi o ancora peggio alla cosidetta giustizia predittiva basata sugli elementi che abbiamo elencato.

Questa legislazione è comunque integrabile sulla base dell’evoluzione tecnologica e delle relative esperienza nella quotidianità.

ALTO RISCHIO

Questa definizione comprende l’influenza, potenzialmente negativa, su sicurenzza e diritti fondamentali e sono divisi in due macro categorie

  1. viene considerata ad alto rischio, con relative limitazioni, l’impiego dell’intelligenza artificiale, in tutti quei prodotti soggetti alla Direttiva 2001/95/CE sulla sicurezza generale dei prodotti. Ex Multis, giocattoli, auto, aviazione, strumenti medici, ascensori.
  2. Vengono individuate otto aree specifiche nelle quali la presenza di sistemi di intelligenza artificiale dovrà essere in specifici database dell’Ue.

In particolare:

gestione e funzionamento di infrastrutture critiche : ad esempio i trasporti pubblici,dove l’incolumità dei cittadini è maggiormente esposta a potenziali rischi.

istruzione e formazione professionale: un uso distorto dei sistemi di intelligenza artificiale, può dar luogo a comportamenti discriminatori basati sulla carriera scolastica o comunnque su dati non inerenti la semplice prova di esame.

occupazione, gestione dei lavoratori e accesso all’autoimpiego: il potenzale pericolo, può essere rapprasentato da un esame dei curriculum vitae attraverso l’AI nel procedimento di selezione, venendo meno a quel concetto di principio antropocentico, che pone le limitazioni ai potenziali usi distorti dei sistemi di intelligenza artificiale, che è alla base di questo provvedimento legislativo.

accesso e fruizione di servizi privati essenziali e servizi pubblici e vantaggi • forze dell’ordine, questa previsione ricalca il medesimo concetto esplicitato nei precedenti passaggi.Infatti è considerato potenzialmente pericolosa ogni forma di valutazione scevra da un intervento umano.Un credit scoring che neghi ad un cittadino la possibilità di accesso al credito, fa parte dei servizi privati essenziali e non può essere rimesso esclusivamente ad una valutazione di un sistema di Intelligenza Artificiale, meno che mai lo stesso sistema potrebbe mai valutare una quadro indiziario in un contesto di pubblica sicurezza.

gestione delle migrazioni, asilo e controllo delle frontiere

Tema di stringente attualità e di particolare delicatezza, che tocca la sfera dell’etica, della morale e del diritto, pertanto è considerato da monitorare l’uso di sistemi di intelligenza artificiale per valutare le domande di visto, senza l’asulio di personale umano .

assistenza nell’interpretazione e applicazione legale della legge.


Probabilmente spiegare a noi operatori del diritto quest’ultima ipotesi è ultraneo, ma utilizzare un sistema di AI, per la soluzione di controversie giudiziarie, sarebbe la sconfitta del diritto e non credo che necessiti di ulteriori commenti.

I sistemi che andranno ad incidere su queste tematiche, considerate ad ALTO RISCHIO, saranno soggetti a valutazione prima di essere immessi sul mercato, verranno registrati in un database per la tracciabilità dei risultati e la loro evoluzione, una rigorosa documentazione che possa dare ampie garanzie di conformità ai paramenti imposti, un controllo umano rigoroso, nonche un altissimo grado di sicurezza e precisione.

 RISCHIO LIMITATO

Tale classificazione riguarda sopratutto il generare contenuti con l’uso dei famosi chatobot, che stiamo già imparando a conoscere, perchè in rapida diffusione.Verrà posto a carico dell’operatore un dovere di trasparenza, obbligandolo a informare l’utente che il contenuto è stato creato con l’ausilio di un sistema di intelligenza artficiale o che si sta interagendo con tale sistema, in modo da lasciare una scelta libera e consepevole per l’essere umano di proseguire o meno.Ovviamente non si può non citare i famosi deep fake, dove un accurato montaggio audio/video crea interviste o dichiarazioni clamorose di personaggi famosi, da oggi dovrebbe essere chiaro e trasparente la loro creazione con sistemi di intelligenza artificiale.

RISCHIO NULLO

Oggi i sistemi di AI, che rientrano in questa categoria, sono la stragrande maggioranza di quelli prensenti nel mercato dell’UE ed è rappresentato da applicazioni per videogame o filtri antispam, non sono peviste particolari limitazioni per i software che vi rientrano.

Le aziende che utilizzeranno i software ad alto rischio avranno il numero più gravoso di adempimenti basato su una rigida e trasparente catalogazione dei sistemi, soggetta ad un continuo aggiornamento e monitoraggio, perche andranno ad influenzare categorie particolarmente sensibili, per i motivi che abbiamo enunciato.

Questa previsione di rischi e limitazioni, non deve far pensare un intervento legislativo ammantato di bigotismo o miopia, meno che mai votato ad un ottuso proibizionismo che possa impedire una inevitabile rivoluzione tecnologica e culturale, è importante ricordare come questo provvedimento sia pioneristico a livello mondiale però tenendo sempre al centro il cittadino europeo.

Anche l’entrata in vigore delle norme, prevede, come per il GDPR , delle tempistiche che diano tempo alle aziende e alla P.A di potersi adeguare e comprendere al meglio la funzionalità dei nuovi sistemi.

Nel giugno del 2026 entrerà in vigore, da quel momento entro sei mesi, dovranno essere eliminati gradualmente i sistemi vietati,entro dodici mesi si applicheranno le norme per le aziende entro due anni quelle relative alla Pa e comunque il resto del provvedimento , entro tre anni la discipina dei sistemi ad Alto Rischio.

La misura delle sanzioni sarà determinata dalle legislazioni degli Stati membri, sulla base della loro tipologia , potendo essere commisurate anche in percentuale al fatturato mondiale del trasgressore, oltre che determinate in misura fissa.

La genesi di questo provvedimento è stato lungo e anche travagliato, per la complessità e delicatezza della materia, un iter durato circa tre anni.

Certamente commenteremo ulteriori interventi su questo argomento, ma va lodata la tempestivita del legislatore europeo.

Cosenza 24.5.24

Avv.to Dario Scrivano