AI, smart city e sorveglianza

AI e sorveglianza: è un binomio definente dell’attualità. Ne ho scritto per il primo numero della rivista trimestrale “Digeat” di diritto applicato all’informatica, nata da un’idea del collega Andrea Lisi.

Ho analizzato uno dei case study più recenti e più vicini, quello di Marvel e Protector, i due progetti di polizia predittiva AI-powered sperimentati a Trento e sanzionati dal Garante per la protezione dei dati personali.

Il provvedimento dell’Authority permette di leggere in profondità passaggi essenziali. Spicca da un lato l’attrazione tecnologica dell’idea di smart city, dall’altro la superficialità nelle tutele. Sono cioè mancate le domande fondamentali e preliminari sulla liceità e sulla proporzionalità dei trattamenti. Eppure, la sede giuridica per farlo esisteva: si chiama valutazione d’impatto, o DPIA in inglese, ed è prescritta dall’art. 35 GDPR.

Non un caso isolato, ma l’emersione di un modello

Dobbiamo chiederci se il caso di Trento possa essere considerato come isolato. Mi pare, e cerco di argomentarlo nell’articolo, che costituisca piuttosto la manifestazione di un modello culturale diffuso, che ha da tempo superato, in maniera silenziosa, un tabù delle società democratiche occidentali, quello del controllo capillare dei cittadini.

Il paradigma di fondo mi pare quello di interpretare la sicurezza come sinonimo di sorveglianza tecnologica. E dunque la massima sicurezza come massima sorveglianza tecnologica.

A Trento si sono incrociati dati personali, si sono raccolti ampi volumi di informazioni da spazi pubblici e da spazi virtuali (piattaforme social e canali di condivisione video), sono stati analizzati con strumenti predittivi. L’ambizione era quella di riconoscere dinamiche comportamentali affidandosi all’intelligenza artificiale, di anticipare comportamenti futuri prima che accadano. Eppure, non si è stati in grado di scrivere un’informativa.

L’argomento è centrale oggi e sembra destinato a esserlo ancor più dell’immediato futuro, perché le soluzioni tecnologiche sono sempre più disponibili e meglio integrate. Tutto questo ci interessa? Sì, decisamente, perché tocca in profondità i nostri spazi residui di libertà.

Il ritorno al right to be let alone

La situazione presente ci riporta concettualmente addirittura alle origini del diritto alla riservatezza, al right to be let alone, ossia al diritto di essere lasciati in pace, che oggi vuol dire anche di essere lasciati fuori da sperimentazioni predittive.

La dimensione però si è fatta sfuggente e, allo stesso tempo, schiacciante. Il conflitto infatti non è più quello storico e concreto tra individuo e giornalismo scandalistico (yellow journalism), che limita pur sempre il confronto tra soggetti privati, in squilibrio ma almeno privati. Quello in atto è invece un rapporto tra insiemi sciolti di singoli, da tempo non più coesi cioè in comunità, e decisori pubblici che hanno disponibilità di tecnologie avanzate, disponibilità di denaro da investire, slogan di sicurezza da diffondere.

Qui l’asimmetria è totale, la narrazione persuasiva intensa, l’opacità informativa rende perfino difficile individuare i dispositivi di controllo o quantomeno la loro rete, non permette al cittadino medio di decifrarne le implicazioni, ancora meno permette di contrastarle.

Clearview AI salva imputato da procedimento penale

Clearview AI, com’è noto, si occupa di raccolta di immagini di volti, che poi elabora con tecniche di intelligenza artificiale (AI), per estrarne i componenti biometrici. Una volta individuata, la persona può essere riconosciuta in altre foto o filmati, confrontando l’impronta biometrica presente nell’archivio di Clearview con quella presente nelle foto o nei filmati analizzati.

La raccolta dei volti avviene all’insaputa degli interessati, con tecniche cosiddette di web scraping, ossia di apprensione automatica di contenuti da Internet, prevalentemente da piattaforme social. Tale attività è illecita ai sensi del GDPR perché svolta senza consenso esplicito conforme all’art. 9.2.a( GDPR (i dati biometrici sono dati sensibili, o “particolari”) e senza informativa. Mancano poi una serie di condizioni ulteriori, come una DPIA conforme all’art. 35 GDPR.

Nonostante ciò, licenze di utilizzo del software sono state in passato sottoscritte da molte autorità di polizia e altre LEA (Law Enforcement Agency) dell’Unione europea. Per ovvi motivi: in fase di indagine, comprendere chi è una certa persona che compare in un filmato o in uno scatto fotografico può essere decisivo.

Riassumendo perciò:

  • la piattaforma in questione “si nutre” delle immagini pubblicate spontaneamente per ragioni relazionali e ricreative dagli stessi utenti o da loro amici e conoscenti su piattaforme social (es. Facebook, Instagram, LinkedIn). Si nutre all’insaputa dei soggetti fornitori, cioè;
  • tale attività è illecita ai sensi del GDPR (e nella misura in cui esso trova applicazione territoriale);
  • questo software illecito è (stato) utilizzato da forze di polizia per attività tuttavia commendevoli, in abstracto, quali l’indagine e il contrasto di attività criminali.

E’ chiaro che la piattaforma pone rilevanti problemi etici e soprattutto, per quanto ci riguarda, evidentissimi problemi giuridici. Non a caso il trattamento è stato considerato illecito da numerose autorità di controllo dell’Unione, tra le quali per l’Italia il Garante per la protezione dei dati personali, e sanzionata applicando lo scaglione più alto previsto dal GDPR.

In effetti, la piattaforma rappresenta un esempio perfetto del paradigma del “capitalismo della sorveglianza” di cui ha scritto Shoshana Zuboff nel saggio diventato ormai un classico per comprendere e definire concettualmente i modelli di potere ed economici del contesto digitale. La società estrae – alla lettera – da milioni di persone fisiche, considerate come materie prime (raw material) da sfruttare, informazioni che acquistano rilevante valore economico una volta elaborate e vendute a terzi sul mercato digitale. E’ esattamente questo il business model di Clearview AI.

Ma che cosa succede se la piattaforma permette a un avvocato difensore di individuare un testimone chiave e di far cadere un’imputazione per omicidio stradale a carico di un suo assistito? E’ esattamente quanto avvenuto recentemente negli Stati Uniti. La vicenda rappresenta insieme un tentativo del produttore di software di migliorare la sua immagine pubblica, fortemente compromessa da una serie di iniziative di contrasto giuridico, non solo europee, e anche un modo per apportare una nuova prospettiva di valutazione del suo prodotto e porre stimolanti sfide logiche. Ne ho parlato per Ius Law Web Radio – la radio dell’avvocatura, in un’intervista ascoltabile qui (link esterno). Qui invece la mia precedente intervista relativa alla sanzione venti milioni di euro comminata dal Garante alla società.