Ha fatto discutere la scelta del Giornale di Brescia, annunciata qualche settimana fa, di smettere di aggiornare la pagina Facebook del quotidiano. «Ci siamo tirati fuori – ha scritto la direttrice Nunzia Vallini – in controtendenza e con convinzione. Troppe parole in libertà, troppi insulti, troppo astio. E troppi  profili fake (falsi) che se non generano notizie altrettanto false, si  dilettano in manipolazioni neppure tanto dissimulate». La decisione ha innescato un dibattito vivace sui media italiani, con posizioni diverse tra chi la difende e chi invece ritiene che la presenza sui social network vada comunque gestita e non rifiutata, per quanto faticosa e frustrante possa essere. Da tempo però ci si chiede se l’architettura di Facebook, per come la conosciamo oggi, sia compatibile con un approccio più misurato e non aggressivo alla comunicazione tra utenti. E soprattutto se possa favorire una condivisione di buona informazione, autorevole e verificata, a discapito della tanta disinformazione che vi circola.

Resistenze al cambiamento

Su quest’ultimo punto, alcuni esperimenti interni all’azienda e portati alla luce dal New York Times non fanno ben sperare. A quanto pare, dentro l’azienda Facebook si sono creati fronti contrapposti tra chi sostiene un approccio più votato alla qualità dell’informazione e chi invece teme che una scelta simile possa portare a una riduzione della presenza e delle interazioni degli utenti sulla piattaforma, e quindi un calo dei ricavi. La resistenza dei vertici aziendali in questo senso si è resa evidente durante le ultime elezioni presidenziali statunitensi. Nei giorni di tensione che sono seguiti al voto, un gruppo di impiegati ha comunicato al CEO Mark Zuckerberg un fatto allarmante: la disinformazione legata alle elezioni stava diventando virale sulla piattaforma. Hanno dunque proposto di adattare l’algoritmo che sta alla base del “news feed” (il flusso continuo di contenuti che vediamo quando entriamo in Facebook) in modo che privilegiasse informazioni di qualità. Zuckerberg ci ha messo giorni ad accettare la proposta, ma si è trattato solo di una misura temporanea. Come prevedibile, le fonti d’informazione più autorevoli hanno avuto un forte incremento di visibilità, mentre hanno subito un calo siti come Breitbart e Occupy Democrats, universalmente riconosciuti come inaffidabili. L’articolo del Times non specifica se questa misura si sia tradotta in un calo delle metriche della piattaforma, ma il fatto che sia stata solo temporanea fa pensare che sia così.

Esperimenti controversi

In un esperimento fatto da un gruppo di dipendenti di Facebook si chiedeva a un campione di utenti di valutare se trovavano “buoni per il mondo” o “cattivi per il mondo” una serie di post presi dalla piattaforma. Si è osservato che i post che avevano avuto più successo erano più facilmente percepiti come “cattivi”. Il gruppo di dipendenti ha provato allora a programmare un algoritmo in modo da prevedere queli post gli utenti avrebbero valutato come “cattivi” e metterli in secondo piano. Nei test svolti, l’algoritmo riusciva in effetti a evitare la visualizzazione di contenuti problematici o sgradevoli, ma questo si traduceva in una riduzione del numero di accessi a Facebook (le sessioni degli utenti). È stato così fatto un secondo esperimento, in modo che una raccolta più ampia di contenuti “cattivi” fosse sfavorita, ma in maniera meno decisa. In questo modo il filtro sui contenuti problematici è stato meno stringente, il che è bastato a preservare le sessioni e il tempo passato sul sito dagli utenti. I dipendenti di Facebook avevano fatto altri test e proposte molto più articolate, ma alla fine la dirigenza ha deciso di adottare quest’ultima misura.

Sembra quindi che l’architettura di Facebook non permetta di costruire un ecosistema che preservi la qualità dell’informazione e delle interazioni (e quindi in definitiva alcuni principi chiave dei sistemi democratici), conservando al contempo i ritmi e le prospettive di crescita dell’azienda. Difficile dire, come fanno alcuni, che Facebook sia a tutti gli effetti un editore, e quindi responsabile in toto di ciò che viene pubblicato. Ma una piattaforma che viene usata e consultata ogni giorno da due miliardi di persone non è nemmeno solo “una piattaforma”, e qualche problema sui contenuti che promuove o mette in secondo piano se lo deve porre.

(Foto di dole777 su Unsplash)

Può funzionare ancora meglio

Il sistema trasfusionale italiano funziona grazie alle persone che ogni giorno scelgono di donare sangue, per il benessere di tutti. Vuoi essere una di quelle persone?

Si comincia da qui