Libertà di espressione tra etica ed ecologia dei media

Il presidente degli Stati Uniti ha incoraggiato l’assalto al Parlamento attraverso i social media. Facebook ha deciso di chiudere il suo account fino a fine mandato. Twitter ha chiuso al presidente per 12 ore per poi farlo in modo permanente sulla scorta di una petizione dei dipendenti. Anche Twitch, Snapchat e YouTube hanno limitato in vario modo le esternazioni di Donald Trump. Quali sono le conseguenze di queste decisioni? Si può rispondere in base ai principi o in modo pragmatico.
La prima strada è seguita da chi parla di diritti. Chi pone la questione in termini di libertà di espressione suggerisce cautela ogni volta che si prende una decisione che lede questo diritto. L’argomento è importante. Diminuire la libertà di espressione è un danno per tutti: chi gioisce perché l’avversario viene zittito in una fase storica, può trovarsi a subire lo stesso trattamento in una fase successiva. Ma nessuno sostiene che la libertà di espressione sia un diritto assoluto. Le regole devono essere bilanciate in modo che siano salvaguardati anche altri diritti, dalla privacy alla sicurezza e all’ordine pubblico. I giuristi e i filosofi sanno come affrontare questi delicati problemi. Lo sanno anche i privati cittadini che possiedono i social network?
È istruttivo vedere come il proprietario di Facebook possa imporre le sue scelte, affermando i suoi principi. Esattamente come facevano i proprietari di televisioni private e di giornali. Ma qualunque sia la decisione di una particolare piattaforma, i fenomeni sociali che ospita si adatteranno, non scompariranno. Il progressivo interventismo di Twitter è andato di pari passo con il successo emergente di Parler, un sistema analogo fondato da John Matze e Rebekah Mercer che si presenta come paladino della libertà di espressione e che per questo è adottato dai gruppi antisemiti, cospirazionisti, repubblicani, trovando anche pubblicità di aziende in sintonia con queste posizioni. A proposito: Apple ha escluso Parler dall’App Store. Google, poco più tardi, ha preso una decisione analoga. Amazon è andata oltre, togliendo Parler dal suo servizio di cloud computing.
Tutto questo ha conseguenze. In passato si poteva sostenere che queste piattaforme non sono altro che software a disposizione degli utenti: questi sono responsabili di come le usano. Oggi questa idea è meno credibile. Il modo in cui le piattaforme sono progettate e manutenute influenza il comportamento degli utenti. E viceversa.
Intanto però si prepara la prossima discussione. Perché le piattaforme usate per organizzare attentati all’ordine pubblico non sono quelle che servono a dibattere apertamente. Sono quelle che garantiscono la privacy delle comunicazioni. Come Whatsapp e Telegram. Che responsabilità hanno queste piattaforme se i loro proprietari non sanno nulla di quello che fanno gli utenti? La differenza sta negli strumenti messi a disposizione? Se consentono una forte viralità, in piena segretezza, delle informazioni, si mettono al servizio di potenziali atti di violenza?
E tutto questo è solo una parte del problema. Resta la più difficile. Le responsabilità delle piattaforme sociali sono diluite nel più grande sistema di responsabilità dei media. Il gioco di rimandi tra media e personaggi pubblici genera storie crossmediali importanti. Casomai lo specifico delle piattaforme sta negli algoritmi che presentano solo le informazioni che confermano i pregiudizi degli utenti.
C’è una regola generale: l’infodiversità rende più sano l’ecosistema mediatico. Ciascun elemento del sistema deve favorire o almeno tollerare l’incontro con la diversità, non l’ossessiva conferma delle opinioni. Una società che impara a vaccinarsi di fronte alle posizioni autoreferenziali vive meglio.
Articolo pubblicato su Nòva il 10 gennaio 2021 e in versione più ampia su 24+