Il tentativo in corso del Regno Unito ci insegna che non è così facile e che i pericoli per la libertà sono tanti. Scopriamolo insieme!
Uno dei grandi dilemmi di Internet è quello sulla libertà di espressione: è tutto permesso o certi contenuti vanno vietati? Da tempo, le grandi piattaforme cercano di trovare un giusto equilibrio tra libertà e controllo, ma non è facile. Per questo, i legislatori europei e dei singoli paesi stanno provando a varare delle leggi che regolino la moderazione dei contenuti, ovvero il controllo di ciò che viene pubblicato online.
L’ultimo tentativo è quello dell’Online Safety Bill inglese, che è in cantiere da cinque anni e recentemente ne è stato presentato il disegno di legge. Che cosa ne pensa l’opinione pubblica inglese? I giudizi sono vari: si passa da accaniti sostenitori a chi crede che sia una catastrofe per la libertà della comunicazione.
Il fatto è che ci sono molti interessi e problemi diversi in ballo, per cui non è facile fare una legge sulla moderazione dei contenuti che accontenti tutti e che sia anche efficace. In questo post esploreremo il panorama attuale della moderazione dei contenuti e vedremo perché è così difficile creare delle norme uniche. Continua a leggere!
La moderazione dei contenuti
Tutto cominciò agli albori di Internet, quando le community erano gestite da volontari e appassionati che si preoccupavano anche di definire la netiquette della piattaforma. Ad esempio, su molte chat all’inizio non si potevano scrivere parolacce o mandare immagini erotiche, pena l’espulsione se si veniva colti in flagrante.
Poi sono arrivati i forum e i social network (ma anche le grandi piattaforme di e-commerce), e ognuno di questi ha sviluppato delle necessità specifiche, come controllare i commenti, individuare i contenuti che incitano all’odio, riconoscere la disinformazione e così via. Per aiutare le persone in questo sforzo titanico (pensate solo alla quantità di tweet pubblicati ogni giorno), i programmatori hanno utilizzato l’intelligenza artificiale per creare dei bot in grado di riconoscere certi temi e comportamenti online, ma ovviamente non sono infallibili (e le narrative online si evolvono continuamente).
Il risultato è un panorama sfaccettato in cui ogni azienda ha adottato dei criteri personali per decidere cosa è consentito e cosa no, di cosa si può parlare e quali opinioni invece non possono essere espresse pubblicamente, soprattutto da parte di persone influenti.
Inoltre, l’attività si è complicata ancora di più negli ultimi anni, perché ogni paese ha istituito delle leggi in materia di privacy e comunicazione online diverse dagli altri e che raramente coincidono con le politiche del sito. Ad esempio, Google ha una lunga serie di contenuti vietati e con restrizioni, e a queste bisogna aggiungere tutti i casi previsti dalle normative specifiche di ciascun paese.
“Crediamo che un dibattito aperto sia la cosa migliore per gli utenti e per la società”.
Chris Best, Hamish McKenzie e Jairaj Sethi, fondatori di Substack
Il caso inglese dell’Online Safety Bill
Riassumendo e semplificando (qui trovate una spiegazione approfondita in inglese), se dovesse essere approvata, questa legge obbligherà le piattaforme online a rimuovere i contenuti illegali e moderare anche quelli “legali ma dannosi” (legal but harmful nel testo originale), dando soprattutto più potere all’ente Ofcom.
La Ofcom è l’agenzia governativa che si occupa delle telecomunicazioni nel Regno Unito: darle più potere e parlare di contenuti dannosi sollevano una serie di dubbi e pericoli per la libertà online:
- Chi e come decide quali sono i contenuti dannosi?
- I contenuti dannosi vanno rimossi alla stregua di quelli illegali?
- La Ofcom potrà decidere liberamente cosa censurare e chi multare? Non si rischia un abuso di potere?
- In questo modo, non viene limitata la libertà di espressione online?
- Una legge con definizioni così generiche potrebbe favorire comportamenti diversi a seconda dell’orientamento politico di chi governa?
- Chi definisce la disinformazione?
- È giusto oscurare determinate opinioni e temi di conversazione?
Per i difensori della libertà di espressione a oltranza, l’Online Safety Bill è un buon esempio di un tentativo nato con le migliori intenzioni che potrebbe avere un risultato catastrofico. Dall’altra parte del dibattito si schierano invece le persone preoccupate per la diffusione di contenuti pericolosi, come il bullying o il revenge porn, e di disinformazione, che può avere effetti molto pesanti sulla società.
Un altro caso che ha fatto particolarmente riflettere, e complicato ulteriormente la questione, è stata la decisione dei social network di bloccare gli account di Trump perché fomentava odio e violenza. Più in generale e sempre durante i primi due anni della pandemia, ha fatto molto discutere la scelta di alcune piattaforme di non oscurare i contenuti di persone contrarie alla vaccinazione o con opinioni in controtendenza sul Covid-19.
LEGGI ANCHE: Elon Musk compra Twitter, cosa cambierà?
Chi controlla il controllore
È lecito che chiunque pubblichi quello che vuole online? Se invece accettiamo delle limitazioni, chi ha diritto (o il dovere) di imporle? E chi controlla che la moderazione non diventi uno strumento di censura a disposizione di partiti politici o gruppi di potere?
Una cosa che tendiamo a dimenticare quando parliamo di legalità online è che le grandi piattaforme che usiamo tutti i giorni non sono luoghi pubblici, ma servizi privati creati da aziende multinazionali. Fino a che punto lo Stato, o l’Europa, ha diritto di intervenire e dire cosa possono o non possono pubblicare gli utenti?
Trovare il punto di equilibrio ottimale tra controllo e libertà è molto difficile ed è un processo in continuo divenire. Con il tempo cambiano i requisiti, le piattaforme, le priorità della società e quelle degli utenti, e tutti questi fattori vanno presi in considerazione per promulgare una legge sulla moderazione dei contenuti online.
“Anche se bloccassimo tutti i profili di disinformazione su un network, questi non sparirebbero, si sposterebbero solo su un’altra piattaforma”.
Heidi Larson
Il caso di Substack
Substack è una piattaforma per la pubblicazione e l’analisi di newsletter ad abbonamento. Ai tempi in cui Neil Young ritirò la propria musica da Spotify perché pubblicava un podcast di disinformazione sui vaccini anti Covid-19, i fondatori di Substack dettero la loro opinione a favore della libertà di espressione e contro la censura: “crediamo che un dibattito aperto sia la cosa migliore per gli utenti e per la società”.
I creatori di Substack difendono l’idea per cui l’aumento della disinformazione dipende dalla mancanza di fiducia nelle fonti ufficiali e nello Stato: quando viene meno questa fiducia, le persone sono più propense a credere a teorie complottiste e senza basi scientifiche. Per questo, inasprire il controllo servirebbe solo ad aumentare la sfiducia e il conflitto con le autorità, promuovendo ulteriormente la diffusione di fake news e contenuti dannosi.
Questa teoria non appartiene ai fondatori di Substack, ma è stata formulata da Heidi Larson, fondatrice del Vaccine Confidence Project (un progetto di ricerca per analizzare la sfiducia nei piani vaccinali e capire come arginarla). In questa bellissima intervista al New York Times (in lingua originale), Larson conclude dicendo che “anche se bloccassimo tutti i profili di disinformazione su un network, questi non sparirebbero, si sposterebbero solo su un’altra piattaforma”.
In conclusione, la proposta di legge inglese sembra un buon tentativo, ma è necessaria una definizione più precisa dei limiti e dei poteri di controllo. Quando valutiamo queste informazioni, dobbiamo sempre ricordare che non c’è una risposta univoca a questi grandi dilemmi: sono pur sempre questioni morali e alla fine il modo in cui vengono gestite dipende dall’orientamento politico di ciascun paese in un dato momento e da cosa ne pensa l’opinione pubblica.
Per quanto riguarda la tua navigazione su Internet, ti consigliamo di leggere con calma le norme sui contenuti delle piattaforme che usi e decidere se sei d’accordo o se è meglio trovare un’alternativa. Inoltre, ti ricordiamo che la maggior parte dei social accettano segnalazioni dirette di contenuti da rimuovere e anche la collaborazione volontaria alla moderazione dei contenuti.
CONTINUA A LEGGERE: Perché l’igiene digitale è un dovere civico
Buona navigazione e buone conversazioni online!