• Antonio Nicita

Web, Pluralismo e Digital Services Act


Uno dei pilastri del Digital Services Act europeo che sarà lanciato nel mese di dicembre riguarda il contrasto delle piattaforme digitali ai cosiddetti ‘contenuti illegali’.

Questa complessa tematica si articola lungo due direzioni, peraltro intrecciate: la natura del contenuto da un lato, la dimensione della piattaforma dall’altro. La tensione tra queste due direzioni riguarda la scelta di un approccio (e dunque di forme di tutela) orizzontale, per tutte le piattaforme che abbiano determinati requisiti, rispetto ad un approccio effect-based che punti quindi a contrastare a diffusione massiva di determinati contenuti su vasta scala.

Il tema è tutt’altro che banale in quanto poi la stessa definizione di ‘contenuto illegale’, e la certezza giuridica della stessa e de suo grado di enforcement, variano in funzione del tipo di contenuto: dal copyrightall’hatespeech, dal cyberbullismo alla disinformazione, da contenuti violenti all’online adveritising ingannevole.

Se per alcuni contenuti la verifica del requisito di (il)legalità è di tipo binario, come nel caso del copyright – pur con tutta una serie di tutele e di procedure – assai più complessa è la questione che riguarda l’hatespeech o la disinformazione on-line. E’ dunque assai probabile, come emerge anche dai documenti posti in consultazione dalla Commissione europea, che il nuovo framework preveda ancora un doppio registro fatto di nuova regolamentazione tout court (sul solco della direttiva e-commerce) e di autoregolamentazione o, meglio, co-regolamentazione (sul solco della direttiva sui servizi media audio-visivi per le piattaforme di video-sharing) per quei contenuti la cui natura impone che non vi sia alcuna regolazione diretta sotto il profilo definitorio o di controllo . In sostanza, nella definizione delle pratiche di hatespeech, come anche delle scelte di moderazione dei contenuti in relazione a notizie false o a strategie di disinformazione (incluse quelle che, ad esempio, hanno riguardato il Covid-19), è probabile che si segua il percorso fin qui fatto dalla Commissione europea, e in Italia da Agcom, con codici volontari di condotta che le piattaforme s’impegnano ad applicare in base a criteri che esse stesse hanno esplicitato e sui quali basano la propria ‘politica quasi-editoriale’. Dunque, il regolatore europeo potrebbe limitarsi a sanzionare eventuali inadempienze rispetto a codici di condotta volontari. In questo caso l’elemento nuovo risiederebbe nella forte imposizione di trasparenza in merito all’uso dei dati e al funzionamento degli algoritmi, anche in relazione all’applicazione dei codici di regolamentazione. In Italia, l’indagine conoscitiva sui big data di Antitrust, Agcom e Garante Privacy, aveva concluso che in assenza di strumenti efficaci di monitoraggio, audit e inspection su dati e algoritmi, e in genere su meccanismi di intelligenza artificiale applicati alla moderazione dei contenuti, l’autoregolamentazione appariva fortemente insoddisfacente e discriminatoria negli esiti. Ma c’è anche un altro pezzo della storia che riguarda le modalità di selezione inconsapevole, perché algoritmica, di contenuti da parte dei singoli utenti, il loro grado di comprensione dei filtri e la loro stessa capacità di scegliere da sé il filtro informativo cui sono esposti. Le ultime elezioni americane, ad esempio, hanno mostrato modalità diverse di moderazione e di ‘tagging’ tra le diverse piattaforme, anche quando hanno agito nella medesima direzione.

Uno dei recenti interventi della Presidenza Trump è stato l’Ordine esecutivo con il quale è stato chiesto al parlamento e alle istituzioni (tra cui FCC e FTC) di occuparsi della revisione della sezione 230 del Communications Decency act, nella parte in cui essa assicura un’esenzione di responsabilità alle piattaforme sia per contenuti di terzi sia per la moderazione degli stessi che la piattaforma decida di effettuare, ancorché in buona fede. La posizione espressa da Trump è che le piattaforme debbano limitarsi ad essere passive carriers di contenuti di terzi, e che non possano più avere esenzione se esercitano moderazione sui contenuti. Qualche settimana, la FCC, per bocca del suo presidente, ha annunciato l’intenzione di pubblicare nuove linee guida sull’applicazione della sezione 230 alle piattaforme. Sarà interessante capire cosa accadrà con la nuova presidenza Usa e come eventuali iniziative statunitensi si rapporteranno alle novità del Digital Services Act, anche in tema di politiche di moderazione volontaria da parte delle piattaforme e di definizione della loro responsabilità. Immaginare che le piattaforme debbano essere solo il luogo neutrale e automatico del free speech degli utenti equivarebbe da un lato a non comprendere come funzioni il filtro algoritmico, che comunque seleziona i contenuti, e dall’altro a dare campo libero alle strategie organizzate di disinformazione online, di cui non mancano, purtroppo, quotidiane evidenze. Siamo solo agli inizi di un percorso che si annuncia assai complesso, ma nondimeno irruniciabile.


pubblicato su Il Sole 24 Ore 22 novembre

© 2006 byAntonio NIcita

This site was designed with the
.com
website builder. Create your website today.
Start Now