L’AI Act, ossia il regolamento (UE) 2024/1689, ha destato aspettative enormi. A parere di chi scrive, sono andate deluse sotto vari aspetti.
Eppure la legge costituiva il primo tentativo al mondo di disciplinare l’intelligenza artificiale organicamente, ossia in maniera dedicata, sistematica e con aspirazioni di completezza, da parte di un Normatore esperto in standard giuridici a impatto globale, il cd. “Brussels effect”.
L’AI Act mostra in definitiva l’ambizione di un codice, eppure del codice sembra adottare solo occasionalmente l’inquadramento astratto, il ragionamento per categorie generali, l’enunciazione di principi, e soprattutto il riconoscimento del primato della persona.
L’uomo collocato al centro, l’antropocentrismo dell’AI Act, si trova infatti a ben guardare solo nell’enunciazione d’apertura dell’atto, ma non registra poi sviluppi profondi. Rimane cioè a livello di “lip service”, di esibizione.
C’è unicamente da contare sullo sforzo interpretativo, e correttivo, di letteratura e giurisprudenza, quando l’AI Act sarà finalmente applicativo, che riporti l’antropocentrismo a canone ermeneutico.
Si è inseguito il mercato, si rischia di perdere anche quello
L’impressione di chi scrive è che nelle accese sessioni di chiusura del testo normativo si sia preferito inseguire un mercato che sta sfuggendo economicamente all’Unione europea, anziché regolarne a fondo gli aspetti umani, quelli cioè decisivi ma forse considerati bloccanti. E così si rischia di perdere l’uno e gli altri.
Ho approfondito questi temi, concentrandomi su una serie di esempi concreti, per il terzo numero della Rivista DigEat. L’articolo può essere consultato qui: Fiducia nelle istituzioni: l’AI Act e i diritti fondamentali, narrazione o realtà?
Ne sintetizzo di seguito alcuni passaggi.
Le black box restano intatte
Alcune delle criticità dell’AI Act affrontate nell’articolo sono le seguenti:
- Il diritto alla spiegazione dei sistemi di AI, propedeutico all’esercizio di altri diritti e fondamentale per mitigare l’opacità di quelle che altrimenti sono black box, appare riconosciuto in maniera superficiale e non innovativa.
- Il diritto al reclamo è altrettanto insoddisfacente e, rispetto alle persone fisiche, non aggiunge granché a tutele già esistenti. Ci si sarebbe attesi invece l’introduzione uno strumento giuridico adeguato all’evoluzione tecnologica.
- Non sono espressamente menzionati altri diritti, se non quelli desumibili “a contrario”, ossia principalmente dall’elenco delle pratiche vietate contenuto all’art. 5 dell’AI Act. Eppure anche in questo caso, i divieti sono diluiti da notevoli eccezioni, tanto che perfino i sistemi di inferenza di emozioni e intenzioni non sono banditi in toto.
- E’ sparito l’elenco sistematico dei principi, che era stato introdotto nel 2023 attraverso un emendamento del Parlamento europeo, optando per un approccio decostruito ed episodico.
Il confronto con il GDPR
Il confronto con il GDPR risulta eloquente. Il regolamento generale sui dati personali articola uno statuto di diritti della persona che, nonostante gli anni trascorsi, resta il principale riferimento normativo anche in un contesto di intelligenza artificiale. Costituisce inoltre lo strumento ad oggi più avanzato di protezione dagli effetti di decisioni automatizzate, nonostante alcune note vulnerabilità nella formulazione dell’art. 22 GDPR.
Al contrario, il recentissimo AI Act, oltre a presentare un quadro carente di tutele, omette perfino di introdurre una definizione chiara di “affected person”, ossia di soggetto che subisce le conseguenze dell’applicazione di sistemi di intelligenza artificiale. In definitiva, non pone con precisione neppure il “mattone concettuale” sul quale costruire. È appena il caso di notare, all’opposto, il ruolo strutturale che ha il concetto di “interessato” nel GDPR.
Conclusioni
Al di là del solenne vestito di parole con cui esordisce il nuovo atto normativo dell’Unione sull’intelligenza artificiale, un’indagine smaliziata rivela un corpo normativo nel quale la tutela della persona occupa un ruolo marginale. Ha invece spazio centrale il mercato, ancorché soffocato a sua volta da un apparato di procedure e di formalismo, con esiti che è purtroppo facile immaginare.
Indubbiamente l’AI Act rappresenta un passo importante verso una regolamentazione dell’intelligenza artificiale e sarebbe certo ingeneroso non tenere conto dei fattori oggettivi che hanno turbato un sereno processo normativo, primi tra tutti: l’incalzante passo della tecnologia, l’urgenza di normare dovuta a una serie di fattori politici, le schiaccianti pressioni di centri di interesse economico. Tuttavia, i limiti della disciplina introdotta appaiono, almeno di primo acchito, rilevanti.
Ora occorre cercare di valorizzare gli aspetti positivi che in un atto, pur ampiamente inferiore alle attese, è possibile valorizzare, partendo dall’art. 5. Resta a fare argine a derive eccessivamente invasive dello spazio personale la prevalenza comunque riconosciuta al GDPR, quale lex specialis, dall’art. 2.7 AI Act. È su questa strada che appaiono più promettenti gli sforzi di tenere il mercato dell’IA entro i binari di uno sviluppo etico e responsabile, che non soverchi i diritti fondamentali delle persone.