Nei giorni scorsi, gli inserzionisti pubblicitari preoccupati per la piega che hanno preso i social network hanno registrato un’importante vittoria. Riuniti nella Global Alliance for Reponsible Media (Garm), quegli inserzionisti, alcuni dei quali giganteschi, avevano deciso di boicottare le piattaforme che non facevano abbastanza per contrastare la diffusione di messaggi di odio, violenza, falsità, manipolazione della realtà. Gli inserzionisti non volevano che i valori espressi con la loro pubblicità fossero affiancati alle più basse forme di comunicazione che gli umani riescono a produrre per piattaforme come Facebook, YouTube, Twitter.
Ebbene, la trattativa con le piattaforme si è conclusa. Inserzionisti e piattaforme si sono accordati sulla definizione dei messaggi tossici che non devono essere affiancati a quelli pubblicitari, su forme di monitoraggio standard che consentiranno a tutte le aziende di comprendere facilmente quello che accade, di coinvolgere entità terze per la valutazione della pericolosità delle informazioni che circolano nelle piattaforme e il supporto intellettuale e pratico al contrasto di queste pratiche. Le conseguenze di questo accordo possono essere importanti.
In primo luogo, il disaccoppiamento dei messaggi tossici da quelli pubblicitari implica una riduzione drastica dell’incentivo a lasciare circolare falsità, odio e violenza sui social network: poiché alcuni di questi post tossici ottengono molto traffico, hanno grande valore per le piattaforme se possono ospitare pubblicità ma se invece non possono essere associati alle inserzioni perdono valore. Insomma, se prima il sistema incentivante orientava le piattaforme alla ricerca di attenzione da rivendere agli inserzionisti senza valutazione di qualità, oggi il discernimento assume un’importanza crescente.
In secondo luogo, l’entrata in gioco di terzi nella attività di controllo può aprire la strada al contributo di altri stakeholder, comprese le associazioni, i centri studi, i produttori di servizi complementari. Questo secondo aspetto è forse il più importante in prospettiva: se si lascia tutto il sistema decisionale ai due soggetti di mercato, pubblicitari e piattaforme, senza coinvolgere entità che articolano da diversi punti di vista le esigenze del bene comune, manca un elemento centrale per avere una vera cultura dell’ecologia dei media. I dettagli dell’accordo, peraltro, su questo argomento, mancano ancora. Si è capito solo che gli inserzionisti lasceranno alle piattaforme il problema di risolvere tecnicamente la questione e si rivolgeranno alle autorità pubbliche solo se le piattaforme private non reagiranno con la dovuta energia. In ogni caso, come osserva Marietje Schaake, ex parlamentare europea che ora insegna a Stanford, il perseguimento del bene comune dovrebbe richiedere anche l’intervento delle autorità pubbliche. L’idea che basti l’autoregolamentazione dei privati o quella contraria che ritiene necessario l’intervento delle istituzioni statali in questa vicenda, nelle democrazie, è un argomento di discussione.
Non c’è tempo da perdere. La quantità di messaggi tossici non fa che crescere. Il costo di produrne, anche grazie all’intelligenza artificiale, è sempre meno significativo. La bieca manipolazione delle coscienze che alcuni centri di potere non cessano di praticare è una forma di inquinamento dell’ambiente culturale. Le stesse armi tecnologiche possono essere utilizzate per contenere la tossicità dell’ambiente digitale. Ma il confronto si vince alimentando azioni strategiche profonde. Che servano a dimostrare come i vantaggi che tutti traggono da un’azione orientata al bene comune siano maggiori di quelli per ciascuno ottiene lavorando solo per sé.
Articolo pubblicato su Nòva il 27 settembre 2020