L’avvocato Pelino relatore sul DSA

Locandina DSA-DMA

L’avvocato Enrico Pelino è intervenuto venerdì 15 marzo 2024 presso la prestigiosa Sala Consiliare del Comune di Pescara per presentare alcune delle novità introdotte dal Digital Services Act (reg. UE 2022/2065) e dal Digital Markets Act (reg. UE 2022/1925).

L’evento formativo, accreditato dall’Ordine degli Avvocati di Pescara, con il patrocinio di AIGA, Giuffrè e dell’Associazione Cultura&Finanza, ha visto la presentazione del volume Digital Services Act e Digital Markets Act – Definizioni e prime applicazioni dei nuovi regolamenti europei.

I tre curatori dell’opera, gli avvocati Bolognini, Pelino, Scialdone, hanno esaminato le ragioni giuridiche, economiche e sociali alla base dei due atti normativi, tracciando brevemente i lineamenti della strategia europea dei dati e i criteri di legistica adottati nei due regolamenti.

Hanno quindi presentato, con esempi concreti, i primi effetti in termini di contendibilità del DMA e le applicazioni del DSA in termini di moderazione dei contenuti, tutela dei minori, sistemi di raccomandazione, segnalatori attendibili, con un approfondimento sulle necessarie garanzie per il processo elettorale.

Su quest’ultimo tema, di stringente attualità, in vista delle elezioni europee di giugno, l’avv. Pelino ha tracciato brevemente gli obblighi di valutazione del rischio imposti a VLOP e VLOSE dall’art. 34 DSA e commentato la recentissima richiesta di chiarimenti formulata dalla Commissione europea ad alcuni dei più influenti prestatori di servizi intermediari, quelli cioè che avranno presumibilmente un ruolo centrale nel prevenire abusi e manipolazioni ai danni degli elettori.

Al centro vi è l’attenzione per eventuali usi distorti di sistemi di intelligenza generativa. Il convegno è stato l’occasione di un’interessante tavola rotonda che ha affrontato la recentissima adozione dell’AI Act il 13 marzo scorso da parte del Parlamento europeo e le intersezioni della nuova disciplina con GDPR e DSA.

DSA: interamente applicativo da oggi, ma è una falsa partenza

Ricordate il caso dello scacchista Antonio Radić che si è visto bloccare da Google il canale YouTube per hate speech? Stava commentando difese di bianchi e attacchi ai neri, sì ma sulle caselle del gioco. O il capitello corinzio-romano confuso dagli algoritmi di Facebook per qualcosa che “viola gli standard della community in materia di nudo e atti sessuali”? Oppure, la pagina dell’Accademia della Crusca sospesa per tre settimane dalla nota piattaforma social, senza spiegazioni e senza interlocuzione, dopo un post sui dialetti d’Italia?

Bene, è arrivato finalmente il 17 febbraio e da oggi potrebbe cambiare tutto. Il Digital Services Act è infatti applicabile in tutte le sue parti. Le nuove regole UE incidono in concreto sull’arbitrio digitale di piattaforme online, motori di ricerca, marketplace e altri servizi intermediari. Ma qual è lo stato di applicazione e di consapevolezza sulla disciplina?

Un avvio in sordina

La verità è che l’atto che doveva essere una “pietra miliare” del diritto digitale europeo registra un avvio in sordina: comunicazione informativa istituzionale scarsa, Stati membri impreparati, opacità tra i 22 big [1] (VLOPs e VLOSEs), piattaforme minori non pervenute.

Eppure tra breve ci sono le elezioni del Parlamento europeo, appuntamento che la tempistica dell’atto normativo aveva certamente considerato: infatti tra gli obiettivi del DSA c’è anche il contrasto alla manipolazione elettorale. E terreno d’elezione della distorsione del dibattito sono spesso le piattaforme social, come hanno mostrato lo scandalo Cambridge Analytica o le campagne d’odio dilagate in occasione delle elezioni in Nigeria e Sri Lanka, solo per citare alcuni esempi del recente passato.

Facciamo dunque un po’ di ordine, partendo dalla nota più dolente: i coordinatori dei servizi digitali non ancora individuati.

Stati membri non pervenuti

Sono ancora numerosi gli Stati membri che non hanno individuato il coordinatore dei servizi digitali. Mancano ancora ad esempio, al momento in cui si scrive, Germania, Francia, Polonia, Portogallo e svariati altri [2]. Eppure, in assenza di coordinatori una parte essenziale del regolamento europeo è in concreto inapplicabile.

L’Italia si è collocata per fortuna nel gruppo dei virtuosi, l’entusiasmo tuttavia si ferma qui, dal momento che il legislatore nazionale, a parte la designazione dell’Autorità Garante delle Comunicazioni in una norma-“cammeo”, l’art. 15 del d.lgs. 123/2023, all’interno di un contesto solo in parte appropriato (Misure urgenti di contrasto al disagio giovanile, alla povertà educativa e alla criminalità minorile, nonché per la sicurezza dei minori in ambito digitale), non appare aver fatto molto altro.

Diversamente da altri Stati membri come l’Irlanda o la Germania, che hanno in cantiere leggi strutturate, l’Italia ha concentrato nella suddetta disposizione la normativa di adeguamento nazionale al DSA, rimandando quasi totalmente per la definizione della disciplina ad AGCOM.

Eppure, si avvertiva forte l’esigenza di una normativa di livello primario più strutturata (l’esempio che abbiamo tutti in mente è il d.lgs. 101/2018 rispetto al GDPR), che facesse da ponte con quella regolamentare dell’Unione, e chiarisse punti chiave, col giusto dettaglio, come la durata massima della procedura di reclamo al coordinatore, i connotati essenziali relativi alle modalità concrete di attuazione del diritto al contraddittorio, espressamente prescritto dall’art. 53 DSA, il coordinamento con le altre autorità nazionali competenti, al di là del semplice rimando a prassi spontanee versate in protocolli d’intesa, solo per fare alcuni esempi.

Vero che su alcuni di questi passaggi soccorrono le disposizioni già in essere per l’Authority alla luce della disciplina normativa vigente e altrettanto vero che il citato art. 15 affida alla stessa ampi poteri di intervento per completare le lacune, tuttavia sembrava e sembra desiderabile un approccio maggiormente strutturato da parte del legislatore nazionale.

Da un esame del sito dell’AGCOM si faceva fatica fino a ieri a rintracciare notizie sul DSA, a cui non risultava per esempio dedicata una specifica sezione. Oggi, 17 febbraio 2024, si trova pubblicata una pagina di sintesi ed è stato attivato un canale specifico: https://www.agcom.it/interventi-di-agcom. Emergono dunque evidenti segnali che ci si sta muovendo nella direzione giusta.

Allargando invece il raggio di attenzione all’Unione, si avverte una generale trascuratezza a livello di governi nazionali, si pensi alla Germania che, da notizie di stampa [3], sarà pronta solo in aprile. Viene cioè offerto un segnale scoraggiante, che certamente non incentiva la vasta platea dei fornitori interessati dalla normativa a cercare in tempi brevi una piena conformità. Le informazioni provenienti da notizie di stampa [4] non appaiono incoraggianti.

Finalmente strumenti efficaci per protestare contro rimozioni non condivise o segnalazioni ignorate?

A parte alcune impugnazioni alla Corte di Giustizia dell’Unione, piattaforme online e motori di grandi dimensioni sembrano avere accettato le novità apportate dal DSA e averle fatte proprie. Ma quanto c’è di epidermico e quanto di concreto?

In generale, non si trovano nei servizi di VLOPs e VLOSEs sezioni espressamente dedicate al DSA, che faciliterebbero l’esercizio dei diritti. L’approccio “user-friendly” è tuttavia una parte non secondaria della nuova disciplina. Per esempio, occorrerebbe indicare un punto di contatto unico dedicato ai destinatari del servizio che consenta loro di comunicare direttamente e rapidamente, per via elettronica e in modo facilmente fruibile, anche consentendo di scegliere mezzi di comunicazione che non si basino unicamente su strumenti automatizzati. L’obiettivo, almeno a opinione di chi scrive, non sembra centrato in pieno. Ad ogni modo, con un minimo di ricerca, si trovano i link agli strumenti previsti dalla normativa.

Per esempio su YouTube la pagina dedicata ai reclami interni rispetto a segnalazioni di contenuti illeciti che non hanno trovato soddisfazione è questa: https://support.google.com/youtube/answer/13128860?hl=it&visit_id=638435338474854104-4285318868&p=appeal_a_report&rd=1. Il servizio è, significativamente, disponibile ai soli destinatari nell’Unione. Lo strumento di reclamo quando si è fatti oggetto di un provvedimento di moderazione è invece descritto qui: https://support.google.com/youtube/answer/185111?hl=it.

Per fare un altro esempio, il servizio Facebook di Meta ha la seguente breve pagina di spiegazioni sulla procedura: https://www.facebook.com/help/2090856331203011?helpref=faq_content. Tuttavia, almeno alla data in cui si scrive, l’Oversight Board, ossia l’articolazione che si occupa della gestione dei reclami sembra avere competenze dichiaratamente limitate e del tutto discrezionali: “Una volta inviato il ricorso, l’Oversight Board deciderà se controllarlo o meno. Il Board seleziona solo un determinato numero di ricorsi idonei da sottoporre al controllo, quindi potrebbe scegliere di non controllare il tuo”.

Occorrerà dunque verificarne la (assai improbabile) coerenza con il regolamento sui servizi digitali. Anche il brevissimo termine concesso per il reclamo è di dubbia compatibilità con il DSA: “Tieni presente che hai 15 giorni di tempo da quando è stata presa la decisione per inviare un ricorso al Comitato per il controllo. Passati 15 giorni, scade il periodo di tempo consentito per presentare ricorso e non potrai più inviarlo” [5]. Il regolamento europeo impone di fornire per un periodo di 6 mesi dalla decisione di moderazione (es. rimozione di un post) l’accesso a un sistema interno di gestione dei reclami efficace.

Mai più rimozioni immotivate di pagine e contenuti?

Con il DSA le restrizioni applicate devono essere indicate chiaramente e soprattutto vanno motivate in maniera specifica, dunque, almeno in ambito UE, non dovremmo più imbatterci in formule casuali come “viola gli standard della community in materia di nudo e atti sessuali” oppure “abbiamo coperto il tuo post perché potrebbe contenere immagini forti”. Solo la sperimentazione concreta potrà dirci quanto saranno osservati i puntuali criteri del regolamento sui servizi digitali.

Va anche ricordato, più in generale – ed è una bella perla nel tessuto della normativa – che i termini e condizioni di tutti i fornitori di servizi intermediari, in genere chiamate “standard della community”, non possono essere elenchi di regole insindacabili ma devono aprirsi a valori fondamentali di uno stato democratico, quali la libertà di espressione, la libertà e il pluralismo dei media e altri diritti e libertà. Il testo di riferimento è espressamente indicato nella Carta dei diritti fondamentali dell’Unione europea.

È appena il caso di sottolineare il rilievo di questa previsione in ambito contenzioso, sarà infatti possibile richiamare direttamente punti di contrasto e ottenere il riconoscimento della prevalenza delle regole fondamentali sulle previsioni contrattuali dei fornitori. La giurisprudenza si è peraltro già mossa in questo senso, ma è chiaro che lo spunto normativo ricordato rafforza notevolmente questi indirizzi.

In casi di chiusure di canali o sparizione di contenuti l’art. 14 DSA può rivelarsi un “game changer”.

Maggiore conoscenza sui sistemi automatizzati per moderare, raccomandare, promuovere?

Gli esempi portati in apertura di questo articolo (ma la casistica è amplissima) offrono un contesto di arbitrio padronale nella moderazione dei contenuti. Chi gestisce i centri di controllo della sfera digitale lo ha fatto finora seguendo logiche proprietarie insindacabili e utilizzando algoritmi soggetti a frequenti falsi positivi. Il tutto peraltro con buona pace dell’art. 22 GDPR, che in linea generale non lo permetterebbe.

Il DSA richiede che siano dichiarati gli strumenti utilizzati per la moderazione, compresi il processo decisionale algoritmico e la verifica umana. Ad esempio, Wikimedia Foundation per il servizio Wikipedia, pur ritenendosi esente da un ampio gruppo di disposizioni del DSA, già nel suo “Supplemental Transparency Report for August-September 2023” ha reso noto di impiegare i seguenti strumenti automatizzati: ClueBot NG e programmi similari (SaleBot, SeroBot, PatrocleBot), Objective Revision Evaluation Service (ORES), AbuseFilter extensions. Cfr.: https://foundation.wikimedia.org/wiki/Legal:Supplemental_Transparency_Report_for_August-September_2023.

Si apprende, con sollievo, che la maggior parte della moderazione è comunque svolta da esseri umani (“the bulk of the work is still done manually”), diversamente da quanto avviene in larga misura per altre piattaforme di dimensioni molto grandi.

Il DSA introduce altresì forme rigorose di trasparenza sui sistemi di raccomandazione e di pubblicità. Meta ha per esempio messo recentemente a disposizione la seguente pagina esplicativa (protetta tuttavia da un cookie-wall senza opzione “rifiuta tutti”): https://transparency.fb.com/features/explaining-ranking#facebook_ai_systems.

Che cos’altro potrà cambiare: fenditure nelle black box?

È ancora presto per dirlo, ma l’art. 40 del DSA può costituire uno strumento decisivo per far filtrare luce nelle black box dei VLOPs e VLOSEs.

È fatto loro obbligo, a certe condizioni, di permettere accesso ai dati trattati in tempo reale ai ricercatori, compresi quelli appartenenti a organismi, organizzazioni e associazioni senza scopo di lucro. La previsione, dietro l’apparenza alquanto astratta, fornisce in realtà uno strumento potentissimo, perché consente una comprensione profonda delle modalità secondo cui i servizi intermediari, in particolare quelli più direttamente relazionali, plasmano la conoscenza e il dibattito. L’accesso permette altresì di esercitare un controllo più stretto sull’osservanza del regolamento.

Mozilla Foundation ha per esempio già salutato con iniziative concrete l’accesso indipendente ai dati, cogliendone le enormi possibilità in termini di trasparenza rispetto alle prossime occasioni elettorali [6].

Molto tuttavia deve ancora venire. L’8 febbraio scorso la Commissione ha avviato il processo di pubblica consultazione in merito allo schema di linee guida sulla correttezza dei processi elettorali: https://digital-strategy.ec.europa.eu/en/news/commission-gathering-views-draft-dsa-guidelines-election-integrity. Lo scopo è quello di mitigare gli evidenti rischi sistemici in uno dei momenti più delicati per l’assetto democratico.

Conclusioni: resta moltissimo da fare

Al momento, l’immagine restituita dallo stato di attuazione del regolamento sui servizi digitali è quella di un vasto cantiere aperto, ove le parti più diligenti (ma è un garbato eufemismo) sono le piattaforme online e i motori di dimensioni molto grandi. Le piattaforme di seguito inferiore non sembrano neppure essersi poste in generale il problema di studiare la ricaduta della normativa sui propri servizi, non avendo del resto ricevuto alcun concreto stimolo istituzionale.

Le informazioni sulla nuova disciplina sono circolate pochissimo, la gran parte della normativa secondaria va ancora scritta. Addirittura in alcuni Stati membri non sono ancora definite le disposizioni per le sanzioni amministrative di competenza nazionale, dovute ai ritardi nella normativa di adeguamento. In Italia la situazione è migliore, tuttavia in gran parte perché si è fatto ampio uso di deleghe all’AGCOM.

Quando gli Stati sono i principali assenti, questa la situazione in senso generale nell’Unione, appare difficile prendersela con i fornitori minori di servizi intermediari. Eppure quelli enunciati dal DSA sono diritti fondamentali dell’era digitale. Non è stato forse salutato dalla politica come la “nuova costituzione” al tempo della società dell’informazione?

In attesa che la Commissione europea attenzioni quanto necessario, è tuttavia fondamentale considerare le parti del DSA che sono invece immediatamente operative. I destinatari dei servizi ne possono pretendere l’applicazione e hanno titolo al risarcimento dei danni e perdite subiti, regola ovvia ma in ogni caso opportunamente ribadita dall’art. 54 DSA. Si ha la sensazione che saranno gli avvocati a far rispettare la nuova disciplina.


[1] L’elenco dei VLOPs ha registrato il 20 dicembre 2023 l’aggiunta piccante di Pornhub, Stripchat e XVideos, https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6763.

[2] Qui l’elenco ufficiale: https://digital-strategy.ec.europa.eu/en/policies/dsa-dscs.

[3] https://www.euractiv.com/section/digital/news/germany-set-to-miss-implementation-deadline-of-eus-content-moderation-rulebook/.

[4] wired.it/article/dsa-digital-services-act-17-febbraio-europa/.

[5] https://it-it.facebook.com/help/346366453115924.

[6] https://foundation.mozilla.org/en/blog/EU-Digital-Services-Act-and-The-State-of-X-Transparency/

Presentazione del libro sul DSA-DMA

Oggi il nostro partner di studio, avv. Enrico Pelino, presenterà a Roma dalle 17:00 alle 19:00, presso Binario F, in Via Marsala 29H, il recentissimo volume dedicato al Digital Services Act e al Digital Markets Act, di cui è co-curatore e coautore. Qui la locandina.

E’ possibile collegarsi online all’evento, concepito anche come webinar, via Zoom al seguente link: https://us02web.zoom.us/j/82306974459.

Saranno presenti anche gli avvocati Luca Bolognini e Marco Scialdone, a loro volta co-curatori e coautori dell’opera.

Interverranno i Colleghi Maria Vittoria La RosaMassimiliano Nicotra e Fulvio Sarzana di Sant’Ippolito, che hanno firmato numerosi contributi di pregio del volume.

L’incontro, significativamente intitolato DSA+DMA:GDPR=X, si propone come prima riflessione degli impatti dei nuovi regolamenti europei sulla normativa in materia di protezione dei dati personali. Mai finora il legislatore dell’Unione aveva affrontato in maniera così organica e profonda i meccanismi di controllo dell’informazione digitale. I riflessi sociali, economici e perfino politici sono enormi.

Si pensi alla diffusione virale di contenuti, alla libera espressione delle idee, alla moderazione sulle piattaforme online, agli algoritmi di raccomandazione, alla pubblicità microprofilata, alla cessazione di fenomeni come lo shadow banning, ma anche al rapporto tra gatekeeper (ossia piattaforme di base, per così dire “infrastrutturali”) e libera concorrenza, dunque, per es., al ruolo dei marketplace.

Al webinar saranno inoltre presenti relatori di META, società multinazionale ampiamente interessata dal DSA e dal DMA, ponendo così le premesse per un dibattito attualissimo e aperto sul recepimento dei nuovi corpi normativi da parte di uno principali attori del mercato digitale.

Lo shadow banning è lecito?

Il Digital Services Act o “DSA” si occupa anche di shadow banning. Cominciamo tuttavia da una definizione.

Che cos’è lo shadow banning

L’espressione, di uso diffuso, descrive il fenomeno della cancellazione o della retrocessione di contenuti digitali, effettuata da piattaforme e motori di ricerca in modo silente, appunto “shadow“.

Si tratta dunque dell’applicazione di misure punitive dirette a sopprimere o, più spesso e più insidiosamente, a depotenziare contenuti sgraditi e talvolta a isolare dalla comunità di riferimento gli account dei soggetti che li hanno pubblicati.

L’area concettuale dello shadow banning del resto esonda quella della moderazione di contenuti in senso stretto e può riguardare anche la retrocessione di concorrenti commerciali sgraditi da spazi di visibilità digitale, ad es. dal ranking sui motori di ricerca.

Sostanzialmente si tratta di una tecnica di manipolazione della visibilità dei contenuti, che ha fruito di singolare sostegno per un complesso di ragioni, anche riconducibili a un’accezione privatistica dei servizi digitali ampiamente incompatibile con la tutela che l’ordinamento giuridico riconosce al sistema dei diritti.

Le difficoltà probatorie

Declassamento silente equivale a estrema difficoltà probatoria. E’ facile comprendere perché: non si offrono, diversamente dalla graduatoria di un concorso, regole e parametri che permettano di stabilire quale sia il posizionamento che un determinato contenuto dovrebbe avere. I sottostanti algoritmi sono del resto proprietari e segreti.

Sono invero normalmente catturabili da parte dell’utente medio, e comunque non senza difficoltà, solo fenomeni di esclusione completa o di retrocessione improvvisa e macroscopica, non forme progressive di diluizione.

Che cosa prevede il DSA

A parere dello scrivente, ferma restando la necessità del contrasto di fenomeni d’odio, di bot farm, di contraffazioni evidenti, è palese la generale contrarietà dello strumento in parola alle clausole generali di buona fede e di correttezza, come è del resto per tutte le forme celate di intervento sulla comunicazione altrui.

A questi ragionamenti giuridici in chiave generale, si può affiancare oggi la tutela verticale e mirata introdotta dal DSA, che poggia altresì su una definizione giuridica, la prima, dello shadow banning.

Ne ho scritto per Agenda Digitale, esaminando alcune disposizioni della recente normativa, rimando perciò più ampiamente il lettore al mio articolo “Shadow banning, così lo affronta il Digital services Act”. Buona lettura.

Il Digital Services Act e il Digital Markets Act – in libreria

DSA e DMA sono i due pilastri normativi nella nuova disciplina europea dei mercati e degli spazi digitali. Che cosa prevedono, come si coordinano con le leggi esistenti, come incidono sull’economia, sulla manifestazione del pensiero, sulla manipolazione dei contenuti? Quali opportunità offrono e quali limiti, invece, espongono?

Sulla complessa tematica, di estrema attualità, siamo lieti di segnalare l’uscita del primo volume italiano di commento, per la collana “Tech e-Law” dell’editore Giuffrè.

L’opera, curata dall’avvocato Enrico Pelino, nostro partner di studio, assieme ai colleghi Luca Bolognini e Marco Scialdone, raccoglie, oltre ai contributi dei curatori, che sono anche co-autori, le riflessioni di firme d’eccellenza del diritto “digitale”.

I contenuti

Il volume tocca temi d’avanguardia come la disciplina dello shadow banning, sostanzialmente incompatibile con il DSA, delle tecniche di moderazione, dei cd. trusted flagger, ossia i segnalatori attendibili, dei dark pattern.

Volume_DSA-DMA

Cerca inoltre di tracciare i rapporti, ancora tutti da saggiare nell’esperienza applicativa, tra la nuova disciplina e il GDPR, ossia uno dei principali strumenti normativi attraverso i quali sono stati finora affrontati questi temi.

L’opera esamina in profondità l’argomento centrale del DSA, ossia l’accountability di piattaforme e motori di ricerca rispetto ai rischi sistemici dell’ambiente digitale, si pensi alla manipolazione dell’offerta informativa determinata dai sistemi di raccomandazione e dall’innesco, talvolta, di dinamiche di diffusione virale dei contenuti.

Qui: l’indice dell’opera e un breve estratto.

Ambizioni e realtà

Quella introdotta dal DSA è realmente la “nuova Costituzione digitale”, come enfaticamente sostenuto in occasione dell’entrata in vigore, oppure si tratta di un intervento normativo regressivo in tema di diritti? Il libro affronta luci e ombre del complesso corpo di regole.

E inoltre esamina in dettaglio la disciplina dei gatekeeper, ossia dei “guardiani” delle infrastrutture virtuali attraverso le quali viaggiano le iniziative imprenditoriali. Il DMA impone realmente regole di neutralità e di ripristino di una leale concorrenza? La risposta offerta da questa prima riflessione sistematica sul tema rivela al lettore un assetto ricco di sfumature e distinguo.

Buona lettura!

International School in Digital Governance: docenza dell’avvocato Pelino

Il nostro partner di studio, avvocato Enrico Pelino, ha aperto questa mattina la seconda edizione dell’International School in Digital Governance dell’Università di Pavia, con una docenza in materia di diritto alla protezione dei dati personali e diritto alla privacy.

L’International School in Digital Governance costituisce un corso di eccellenza nell’approfondimento della normativa di settore.

L’intervento ha affrontato differenze e aree di sovrapposizione dei questi due diritti fondamentali, ed esaminato i pilastri essenziali della disciplina collocandoli in una ricca casistica applicativa.

L’occasione è stata anche utile per tracciare gli elementi essenziali dei rapporti tra il GDPR e la vastissima legislazione recente dell’Unione europea in materia di strategia digitale e di data driven economy, dunque l’enorme crescita in complessità che sta registrando il diritto digitale.

In particolare, vanno menzionati il fondamentale pacchetto sui servizi digitali, composto dal DSA (Digital Services Act, reg. UE 2022/2065) e dal DMA (Digital Markets Act, reg. UE 2022/1925) e il DGA (Digital Governance Act, reg. UE 2022/868) in materia di condivisione e riutilizzo di informazioni.

Il quadro è completato dalle proposte di DA (Data Act) e soprattutto di AI Act. Quest’ultimo strumento di disciplina, su cui si concentra un vivace dibattito, darebbe all’Unione il primato mondiale nella regolamentazione organica dei servizi di intelligenza artificiale.

Google deve rimuovere i contenuti diffamatori anche in mancanza di accertamento giudiziale

Di che parla la nuova normativa DSA-DMA e che cosa ha stabilito di recente la Corte di giustizia, sentenza C-460/20, in merito alla rimozione di contenuti diffamatori?

Partiamo con ordine. Le piattaforme social, es. Twitter, Instagram, Facebook, TikTok, i motori di ricerca (il pensiero va innanzitutto a Google), i marketplace sono tecnicamente “intermediari della società dell’informazione”. Non sono gli unici esponenti della categoria, ne sono certamente i più rappresentativi, quelli cioè che determinano in concreto la forma dei flussi di informazioni e incidono sulla comunicazione e sul successo di attività imprenditoriali online, ma anche semplicemente sulla formazione culturale del Paese. Perché?

Perché l’intermediario è così determinante?

Bloccare una pagina per un’impresa o un professionista ha ripercussioni evidenti sulla capacità di stare sul mercato. Collocare un sito in una posizione sfavorevole nella lista dei risultati di un motore vuol dire sottrargli visibilità e potenziali clienti. Incidere sulla presenza di notizie in rete, favorire una determinata tipologia di contenuti, indurre le persone a cedere dati personali e dare dunque visibilità a spazi privati, talvolta intimi, tutto questo vuol dire esercitare una profonda influenza sociale, plasmante dei modi di pensare, di esprimersi, di prestare o non prestare attenzione a stimoli. Mettere a disposizione dati personali per rendere micro-mirate (micro-targeting) campagne politiche, come si è visto (ma solo per citare uno dei tantissimi esempi) nello scandalo Cambridge Analytica, ha effetti di dirottamento delle scelte elettorali, pertanto conseguenze dirompenti sulla tenuta stessa dell’assetto democratico.

L’intermediario è dunque chi sta in mezzo tra coloro che immettono contenuti e coloro che ne fruiscono (ruoli spesso interscambiabili), è chi regola il flusso delle informazioni, chi decide attraverso decisioni automatizzate quali informazioni vanno promosse e come estrarre intelligenza dalle informazioni, determinando per esempio l’incentivazione o la disincentivazione di contenuti, si pensi ai sistemi cd. di “raccomandazione” algoritmica.

Disciplinare gli intermediari: il DSA e il DMA

Il grande protagonistica dell’era dell’informazione è dunque l’intermediario, è nell’intermediario che si concentra il potere.

Finora questo potere è stato ampiamente lasciato all’autoregolamentazione, alle condizioni generali di servizio, dunque all’autodeterminazione privatistica, e a una manciata di articoli nella direttiva 2000/31.

Oggi il quadro giuridico cambia, almeno in parte, e il diritto interviene in maniera più pregnante a stabilire regole, disciplinare gli intermediari e i loro doveri di diligenza. Il corpo principale della nuova normativa è costituito, com’è noto, dalla coppia DSA (Digital Services Act) e DMA (Digital Markets Act). Il primo è maggiormente focalizzato sulla libertà di espressione, sulla trasparenza, sui reclami, su profili limitrofi alla protezione dei dati personali, sulle regole di due diligence da osservare per limitare i contenuti illeciti, il secondo è diretto alla costruzione di un sistema di regole di mercato, alla tutela della concorrenza, alla protezione delle parti deboli, alla limitazione dei poteri dei gatekeeper, alla lettera “guardiani dei cancelli”, ossia le grandi società che dominano il mercato, stabilendo chi sta dentro e chi sta fuori.

La sentenza CGUE C-460/20

Non bisogna però attendere il 17 febbraio 2024 e il 2 maggio 2023-25 giugno 2023,ossia le date in cui rispettivamente il DSA e il DMA avranno piena e completa applicabilità. Strumenti giuridici di rilevante efficacia sono già forniti dal GDPR. Prendiamo il caso di cui si è occupata la Corte di giustizia dell’Unione (CGUE) nella vicenda Google, C-460/20, decisa con sentenza dell’8 dicembre 2022.

Due interessati si dolevano del fatto che Google proponesse contenuti lesivi della loro reputazione, il diritto alla protezione dei dati personali è infatti legato (come tutela dell’immagine) anche al diritto alla reputazione e all’onore. Si trattava di notizie che presentavano, secondo gli interessati, elementi di inesattezza, ne chiedevano pertanto al motore di ricerca la rimozione dalla lista dei risultati ai sensi dell’art. 17 GDPR.

Questa norma infatti, di regola associata al diritto all’oblio, riconosce in senso più ampio il diritto alla cancellazione di dati che non appaiano conformi alla normativa.

Google rifiutava di procedere all’eliminazione dei link, sul presupposto che mancava una pronuncia giudiziale di accertamento dell’illiceità dei contenuti. La Corte ha invece ritenuto che non si possa far carico all’interessato dei tempi e degli oneri necessari all’ottenimento di una pronuncia giudiziale. L’intermediario (la pronuncia è evidentemente esportabile all’intera categoria) è invece chiamato a una valutazione di massima sulla verosimiglianza delle allegazioni dell’interessato ed è tenuto ad applicare l’articolo 17 citato, pur senza essere tenuto a un ruolo attivo di indagine.

Certo, osserva la Corte, occorre esercitare particolare prudenza nella rimozione di contenuti dalla società dell’informazione e occorre evitare che scelte eccessivamente cautelative degli intermediari possano determinare una rimozione troppo facile di informazioni. Per approfondire questi temi, la diramazione concettuale che aprono e alcuni passaggi centrali della sentenza citata, mi permetto di rimandare al mio contributo dal titolo “La custodia dei contenuti nella società dell’informazione: osservazioni sulla sentenza CGUE C‑460/20” pubblicato sul numero 1-2023 della Rivista elettronica di diritto, economia, management, pp. 99-105.