DSA: interamente applicativo da oggi, ma è una falsa partenza

Ricordate il caso dello scacchista Antonio Radić che si è visto bloccare da Google il canale YouTube per hate speech? Stava commentando difese di bianchi e attacchi ai neri, sì ma sulle caselle del gioco. O il capitello corinzio-romano confuso dagli algoritmi di Facebook per qualcosa che “viola gli standard della community in materia di nudo e atti sessuali”? Oppure, la pagina dell’Accademia della Crusca sospesa per tre settimane dalla nota piattaforma social, senza spiegazioni e senza interlocuzione, dopo un post sui dialetti d’Italia?

Bene, è arrivato finalmente il 17 febbraio e da oggi potrebbe cambiare tutto. Il Digital Services Act è infatti applicabile in tutte le sue parti. Le nuove regole UE incidono in concreto sull’arbitrio digitale di piattaforme online, motori di ricerca, marketplace e altri servizi intermediari. Ma qual è lo stato di applicazione e di consapevolezza sulla disciplina?

Un avvio in sordina

La verità è che l’atto che doveva essere una “pietra miliare” del diritto digitale europeo registra un avvio in sordina: comunicazione informativa istituzionale scarsa, Stati membri impreparati, opacità tra i 22 big [1] (VLOPs e VLOSEs), piattaforme minori non pervenute.

Eppure tra breve ci sono le elezioni del Parlamento europeo, appuntamento che la tempistica dell’atto normativo aveva certamente considerato: infatti tra gli obiettivi del DSA c’è anche il contrasto alla manipolazione elettorale. E terreno d’elezione della distorsione del dibattito sono spesso le piattaforme social, come hanno mostrato lo scandalo Cambridge Analytica o le campagne d’odio dilagate in occasione delle elezioni in Nigeria e Sri Lanka, solo per citare alcuni esempi del recente passato.

Facciamo dunque un po’ di ordine, partendo dalla nota più dolente: i coordinatori dei servizi digitali non ancora individuati.

Stati membri non pervenuti

Sono ancora numerosi gli Stati membri che non hanno individuato il coordinatore dei servizi digitali. Mancano ancora ad esempio, al momento in cui si scrive, Germania, Francia, Polonia, Portogallo e svariati altri [2]. Eppure, in assenza di coordinatori una parte essenziale del regolamento europeo è in concreto inapplicabile.

L’Italia si è collocata per fortuna nel gruppo dei virtuosi, l’entusiasmo tuttavia si ferma qui, dal momento che il legislatore nazionale, a parte la designazione dell’Autorità Garante delle Comunicazioni in una norma-“cammeo”, l’art. 15 del d.lgs. 123/2023, all’interno di un contesto solo in parte appropriato (Misure urgenti di contrasto al disagio giovanile, alla povertà educativa e alla criminalità minorile, nonché per la sicurezza dei minori in ambito digitale), non appare aver fatto molto altro.

Diversamente da altri Stati membri come l’Irlanda o la Germania, che hanno in cantiere leggi strutturate, l’Italia ha concentrato nella suddetta disposizione la normativa di adeguamento nazionale al DSA, rimandando quasi totalmente per la definizione della disciplina ad AGCOM.

Eppure, si avvertiva forte l’esigenza di una normativa di livello primario più strutturata (l’esempio che abbiamo tutti in mente è il d.lgs. 101/2018 rispetto al GDPR), che facesse da ponte con quella regolamentare dell’Unione, e chiarisse punti chiave, col giusto dettaglio, come la durata massima della procedura di reclamo al coordinatore, i connotati essenziali relativi alle modalità concrete di attuazione del diritto al contraddittorio, espressamente prescritto dall’art. 53 DSA, il coordinamento con le altre autorità nazionali competenti, al di là del semplice rimando a prassi spontanee versate in protocolli d’intesa, solo per fare alcuni esempi.

Vero che su alcuni di questi passaggi soccorrono le disposizioni già in essere per l’Authority alla luce della disciplina normativa vigente e altrettanto vero che il citato art. 15 affida alla stessa ampi poteri di intervento per completare le lacune, tuttavia sembrava e sembra desiderabile un approccio maggiormente strutturato da parte del legislatore nazionale.

Da un esame del sito dell’AGCOM si faceva fatica fino a ieri a rintracciare notizie sul DSA, a cui non risultava per esempio dedicata una specifica sezione. Oggi, 17 febbraio 2024, si trova pubblicata una pagina di sintesi ed è stato attivato un canale specifico: https://www.agcom.it/interventi-di-agcom. Emergono dunque evidenti segnali che ci si sta muovendo nella direzione giusta.

Allargando invece il raggio di attenzione all’Unione, si avverte una generale trascuratezza a livello di governi nazionali, si pensi alla Germania che, da notizie di stampa [3], sarà pronta solo in aprile. Viene cioè offerto un segnale scoraggiante, che certamente non incentiva la vasta platea dei fornitori interessati dalla normativa a cercare in tempi brevi una piena conformità. Le informazioni provenienti da notizie di stampa [4] non appaiono incoraggianti.

Finalmente strumenti efficaci per protestare contro rimozioni non condivise o segnalazioni ignorate?

A parte alcune impugnazioni alla Corte di Giustizia dell’Unione, piattaforme online e motori di grandi dimensioni sembrano avere accettato le novità apportate dal DSA e averle fatte proprie. Ma quanto c’è di epidermico e quanto di concreto?

In generale, non si trovano nei servizi di VLOPs e VLOSEs sezioni espressamente dedicate al DSA, che faciliterebbero l’esercizio dei diritti. L’approccio “user-friendly” è tuttavia una parte non secondaria della nuova disciplina. Per esempio, occorrerebbe indicare un punto di contatto unico dedicato ai destinatari del servizio che consenta loro di comunicare direttamente e rapidamente, per via elettronica e in modo facilmente fruibile, anche consentendo di scegliere mezzi di comunicazione che non si basino unicamente su strumenti automatizzati. L’obiettivo, almeno a opinione di chi scrive, non sembra centrato in pieno. Ad ogni modo, con un minimo di ricerca, si trovano i link agli strumenti previsti dalla normativa.

Per esempio su YouTube la pagina dedicata ai reclami interni rispetto a segnalazioni di contenuti illeciti che non hanno trovato soddisfazione è questa: https://support.google.com/youtube/answer/13128860?hl=it&visit_id=638435338474854104-4285318868&p=appeal_a_report&rd=1. Il servizio è, significativamente, disponibile ai soli destinatari nell’Unione. Lo strumento di reclamo quando si è fatti oggetto di un provvedimento di moderazione è invece descritto qui: https://support.google.com/youtube/answer/185111?hl=it.

Per fare un altro esempio, il servizio Facebook di Meta ha la seguente breve pagina di spiegazioni sulla procedura: https://www.facebook.com/help/2090856331203011?helpref=faq_content. Tuttavia, almeno alla data in cui si scrive, l’Oversight Board, ossia l’articolazione che si occupa della gestione dei reclami sembra avere competenze dichiaratamente limitate e del tutto discrezionali: “Una volta inviato il ricorso, l’Oversight Board deciderà se controllarlo o meno. Il Board seleziona solo un determinato numero di ricorsi idonei da sottoporre al controllo, quindi potrebbe scegliere di non controllare il tuo”.

Occorrerà dunque verificarne la (assai improbabile) coerenza con il regolamento sui servizi digitali. Anche il brevissimo termine concesso per il reclamo è di dubbia compatibilità con il DSA: “Tieni presente che hai 15 giorni di tempo da quando è stata presa la decisione per inviare un ricorso al Comitato per il controllo. Passati 15 giorni, scade il periodo di tempo consentito per presentare ricorso e non potrai più inviarlo” [5]. Il regolamento europeo impone di fornire per un periodo di 6 mesi dalla decisione di moderazione (es. rimozione di un post) l’accesso a un sistema interno di gestione dei reclami efficace.

Mai più rimozioni immotivate di pagine e contenuti?

Con il DSA le restrizioni applicate devono essere indicate chiaramente e soprattutto vanno motivate in maniera specifica, dunque, almeno in ambito UE, non dovremmo più imbatterci in formule casuali come “viola gli standard della community in materia di nudo e atti sessuali” oppure “abbiamo coperto il tuo post perché potrebbe contenere immagini forti”. Solo la sperimentazione concreta potrà dirci quanto saranno osservati i puntuali criteri del regolamento sui servizi digitali.

Va anche ricordato, più in generale – ed è una bella perla nel tessuto della normativa – che i termini e condizioni di tutti i fornitori di servizi intermediari, in genere chiamate “standard della community”, non possono essere elenchi di regole insindacabili ma devono aprirsi a valori fondamentali di uno stato democratico, quali la libertà di espressione, la libertà e il pluralismo dei media e altri diritti e libertà. Il testo di riferimento è espressamente indicato nella Carta dei diritti fondamentali dell’Unione europea.

È appena il caso di sottolineare il rilievo di questa previsione in ambito contenzioso, sarà infatti possibile richiamare direttamente punti di contrasto e ottenere il riconoscimento della prevalenza delle regole fondamentali sulle previsioni contrattuali dei fornitori. La giurisprudenza si è peraltro già mossa in questo senso, ma è chiaro che lo spunto normativo ricordato rafforza notevolmente questi indirizzi.

In casi di chiusure di canali o sparizione di contenuti l’art. 14 DSA può rivelarsi un “game changer”.

Maggiore conoscenza sui sistemi automatizzati per moderare, raccomandare, promuovere?

Gli esempi portati in apertura di questo articolo (ma la casistica è amplissima) offrono un contesto di arbitrio padronale nella moderazione dei contenuti. Chi gestisce i centri di controllo della sfera digitale lo ha fatto finora seguendo logiche proprietarie insindacabili e utilizzando algoritmi soggetti a frequenti falsi positivi. Il tutto peraltro con buona pace dell’art. 22 GDPR, che in linea generale non lo permetterebbe.

Il DSA richiede che siano dichiarati gli strumenti utilizzati per la moderazione, compresi il processo decisionale algoritmico e la verifica umana. Ad esempio, Wikimedia Foundation per il servizio Wikipedia, pur ritenendosi esente da un ampio gruppo di disposizioni del DSA, già nel suo “Supplemental Transparency Report for August-September 2023” ha reso noto di impiegare i seguenti strumenti automatizzati: ClueBot NG e programmi similari (SaleBot, SeroBot, PatrocleBot), Objective Revision Evaluation Service (ORES), AbuseFilter extensions. Cfr.: https://foundation.wikimedia.org/wiki/Legal:Supplemental_Transparency_Report_for_August-September_2023.

Si apprende, con sollievo, che la maggior parte della moderazione è comunque svolta da esseri umani (“the bulk of the work is still done manually”), diversamente da quanto avviene in larga misura per altre piattaforme di dimensioni molto grandi.

Il DSA introduce altresì forme rigorose di trasparenza sui sistemi di raccomandazione e di pubblicità. Meta ha per esempio messo recentemente a disposizione la seguente pagina esplicativa (protetta tuttavia da un cookie-wall senza opzione “rifiuta tutti”): https://transparency.fb.com/features/explaining-ranking#facebook_ai_systems.

Che cos’altro potrà cambiare: fenditure nelle black box?

È ancora presto per dirlo, ma l’art. 40 del DSA può costituire uno strumento decisivo per far filtrare luce nelle black box dei VLOPs e VLOSEs.

È fatto loro obbligo, a certe condizioni, di permettere accesso ai dati trattati in tempo reale ai ricercatori, compresi quelli appartenenti a organismi, organizzazioni e associazioni senza scopo di lucro. La previsione, dietro l’apparenza alquanto astratta, fornisce in realtà uno strumento potentissimo, perché consente una comprensione profonda delle modalità secondo cui i servizi intermediari, in particolare quelli più direttamente relazionali, plasmano la conoscenza e il dibattito. L’accesso permette altresì di esercitare un controllo più stretto sull’osservanza del regolamento.

Mozilla Foundation ha per esempio già salutato con iniziative concrete l’accesso indipendente ai dati, cogliendone le enormi possibilità in termini di trasparenza rispetto alle prossime occasioni elettorali [6].

Molto tuttavia deve ancora venire. L’8 febbraio scorso la Commissione ha avviato il processo di pubblica consultazione in merito allo schema di linee guida sulla correttezza dei processi elettorali: https://digital-strategy.ec.europa.eu/en/news/commission-gathering-views-draft-dsa-guidelines-election-integrity. Lo scopo è quello di mitigare gli evidenti rischi sistemici in uno dei momenti più delicati per l’assetto democratico.

Conclusioni: resta moltissimo da fare

Al momento, l’immagine restituita dallo stato di attuazione del regolamento sui servizi digitali è quella di un vasto cantiere aperto, ove le parti più diligenti (ma è un garbato eufemismo) sono le piattaforme online e i motori di dimensioni molto grandi. Le piattaforme di seguito inferiore non sembrano neppure essersi poste in generale il problema di studiare la ricaduta della normativa sui propri servizi, non avendo del resto ricevuto alcun concreto stimolo istituzionale.

Le informazioni sulla nuova disciplina sono circolate pochissimo, la gran parte della normativa secondaria va ancora scritta. Addirittura in alcuni Stati membri non sono ancora definite le disposizioni per le sanzioni amministrative di competenza nazionale, dovute ai ritardi nella normativa di adeguamento. In Italia la situazione è migliore, tuttavia in gran parte perché si è fatto ampio uso di deleghe all’AGCOM.

Quando gli Stati sono i principali assenti, questa la situazione in senso generale nell’Unione, appare difficile prendersela con i fornitori minori di servizi intermediari. Eppure quelli enunciati dal DSA sono diritti fondamentali dell’era digitale. Non è stato forse salutato dalla politica come la “nuova costituzione” al tempo della società dell’informazione?

In attesa che la Commissione europea attenzioni quanto necessario, è tuttavia fondamentale considerare le parti del DSA che sono invece immediatamente operative. I destinatari dei servizi ne possono pretendere l’applicazione e hanno titolo al risarcimento dei danni e perdite subiti, regola ovvia ma in ogni caso opportunamente ribadita dall’art. 54 DSA. Si ha la sensazione che saranno gli avvocati a far rispettare la nuova disciplina.


[1] L’elenco dei VLOPs ha registrato il 20 dicembre 2023 l’aggiunta piccante di Pornhub, Stripchat e XVideos, https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6763.

[2] Qui l’elenco ufficiale: https://digital-strategy.ec.europa.eu/en/policies/dsa-dscs.

[3] https://www.euractiv.com/section/digital/news/germany-set-to-miss-implementation-deadline-of-eus-content-moderation-rulebook/.

[4] wired.it/article/dsa-digital-services-act-17-febbraio-europa/.

[5] https://it-it.facebook.com/help/346366453115924.

[6] https://foundation.mozilla.org/en/blog/EU-Digital-Services-Act-and-The-State-of-X-Transparency/