• Antonio Nicita

Moderazione online & Regolazione


La sospensione, permanente nel caso di Twitter e indefinita nel caso di Facebook, dell’account personale di Donald Trump ha fatto esplodere il dibattito, aperto da tempo, circa le responsabilità, e la discrezionalità, delle piattaforme on-line nel moderare le conversazioni on-line.

A ben vedere, sono due gli ambiti in cui tale ‘responsabilità’ si manifesta: uno è diretto e ha a che fare con le cosiddette ‘politiche di moderazione’ che ciascuna piattaforma si da; l’altro è indiretto e riguarda il ruolo del filtro algoritmico nel selezionare i contenuti che riceviamo o che carichiamo sulle piattaforme.

Le politiche di moderazione riguardano sia contenuti illegali, come ad esempio violazioni di copyright o immagini pedo-pornografiche o cyberbullismo, sia contenuti dannosi (harmful) che vanno dai discorsi d’odio alle strategie di disinformazione, quali quelle che recentemente hanno riguardato origine, cura e profilassi del Covid-19. Queste politiche di moderazione si basano oggi sull’auto-regolazione e in taluni casi, come nell’esperienza della Commissione europea e dell’Agcom, su tavoli di confronto delle linee guida con i regolatori, ma nell’assenza di un quadro normativo e di un presidio sanzionatorio vincolanti. Per questa ragione, la proposta europea, contenuta nel Digital Services Act dello scorso dicembre, cambia il quadro verso la co-regolazione, introducendo meccanismi di trasparenza, accesso ai dati e agli algoritmi, tutele rafforzate per gli utenti, anche nel contraddittorio con le piattaforme in merito alle misure da queste adottate.

L’impianto regolatorio, ad oggi, è quello della sezione 230 del Decency Act degli Stati Uniti che rende le piattaforme esenti da responsabilità sia per i contenuti di terzi ospitati che per le politiche di moderazione adottate, purchè in buona fede, anche laddove tali moderazioni riguardino diritti protetti dalla Costituzione. Come la libertà d’espressione.

Sotto questo profilo, ciò che hanno deciso le piattaforme con l’account personale del Presidente uscente, accusato di veicolare messaggi di incitamento alla violenza e alla sedizione, è compatibile con l’attuale legislazione. E peraltro una delle eccezioni riconosciute dalla Corte Suprema alla tutela della libertà d’espressione, volendola estendere a un soggetto privato come le piattaforme, riguarda proprio l’incitamento ad una violenza imminente determinato da “parole incendiarie”.

Il problema, tuttavia, è quello della discrezionalità, dell’assenza di trasparenza e di contradditorio, nella mancata verifica di azioni selettive e discriminatorie e così via. Soprattutto per piattaforme globali che sono irrinunicabili, per il grado di copertura e diffusione raggiunto, diventando quelli che la Commisione europea chiama “i custodi della rete” (Gatekeepers). In un certo senso, la vicenda Trump, rivela questo contrappasso. Anche chi condivide le ragioni delle scelte delle piattaforme, in questo caso, si pone il problema di come governare uno spazio pubblico di discussione in modo trasparente e non discriminatorio. Siamo quindi ad una svolta che le stesse piattaforme sembrano, in qualche misura, sollecitare. La scelta alternativa, auspicata a suo tempo da Trump con il suo Executive Order, andava nella direzione opposta: lasciare le piattaforme come meri trasportatori di contenuti, in ossequio al mito della libertà d’espressione senza regola alcuna. Questa strada appare ormai definitivamente abbandonata e questo è un bene per due ragioni. La prima, perché le stesse piattaforme oggi ammettono che esiste una relazione diretta tra strategie di disinformazione (incluso l’hate speech) e incitamento alla violenza. La seconda perché accanto alla moderazione c’è l’opera di filtro algoritmico che agisce da acceleratore di fenomeni di polarizzazione. E spesso i semplici messaggi di allerta non hanno alcun effetto, giacché molti messaggi di incitamento all’odio o alla violenza sono ‘visti’ dagli utenti proprio grazie alla profilazione dell’algoritmo. Sia apre dunque, con l’iniziativa europea, una strada, tardiva, sul tema della co-regolazione dei contenuti e i prossimi mesi saranno decisivi per aprire un serio dibattito pubblico sul nostro spazio civile digitale. Senza dimenticare, come sottolinea un recente rapporto del Berkman Klein center dell’Università di Harvard che sono stati taluni media tradizionali i principali diffusori della campagna di disinformazione sulle elezioni promossa dal presidente uscente. E c’è da augurarsi che il dibattito sulla disinformazione on-line getti luce anche sulle degenerazioni che avvengono nel cosiddetto opinionated journalism, dove pure esistono regole e responsabilità editoriali, e in certe trasmissioni televisive, allergiche ad ogni forme di vero contradditorio e pluralismo, a partire da notizie veritiere e fatti verificati.


Editoriale pubblicato su Avvenire il 12/1/21