Il Wall Street Journal ha pubblicato il 18 settembre i Facebook files, una serie di articoli, dossier e podcast basati in parte su documenti riservati della società fondata da Mark Zuckerberg. Nei files si denuncia il ruolo negativo e pericoloso del social network per la nostra società. Dito accusatore puntato anche contro Instagram, ma non verso TikTok e gli altri social.
I Facebook Files
I Facebook files pubblicati ad oggi riguardano il differente trattamento dei post di una specifica élite rispetto a quella di tutti gli altri utenti; la tossicità di Instagram per le adolescenti; la questione delle opinioni divisive; l’utilizzo della piattaforma da parte di trafficanti di droga e la questione dei vaccini.
I contenuti risultano paywallati, a meno che li si raggiunga tramite specifici link. Un interessante complemento è inoltre rappresentato dall’ intervista con uno degli autori, Jeff Horwitz, disponibile nel feed di Big Technology Podcast.
Gli autori
I tre autori della serie di articoli sono: Sam Schechner, Jeff Horwitz e Emily Glazer. Per favorire l’approccio da parte di potenziali nuovi leakers, i tre giornalisti hanno reso pubblico il proprio contatto Signal (una chat considerata realmente riservata, a differenza di WhatsApp).
Origine dei leaks
I files non comprendono nessuna indicazione su chi abbia fornito i leaks, né i docuenti originali risultano per il momento disponibili. Nel podcast Horowiz ha comunque dichiarato la sua disponibilità a rendere i documenti pubblici se la direzione del WSJ lo riterrà possibile e opportuno.
Facebook e la questione vaccini contro il COVID-19
Analizziamo in questo articolo il terzo e il quinto file, relativi alla questione vaccini e le fake news riguardanti gli stessi. Occorre fare prima un passo indietro, al 2017. In quel periodo uno dei metrics più importanti per i dirigenti di Facebook, l’engagement era in discesa.
Engagement
L’engagement calcolato internamente da Facebook (differente da quello di cui si legge nei vari articoli a uso e consumo degli influencer) è un numero ottenuto assegnando un peso specifico alle reazioni ai singoli post. Ad esempio, un like può valere 1, un commento 5 e una condivisione 10. La media di questi numeri per tutti i post di ciascun gruppo dei 2,9 miliardi di utenti del network in un specifico momento determina quanto gli utenti interagiscano tra loro, il livello di engagement globale.
Una discesa pericolosa
E nel 2017 c’era motivo di preoccupazione: l’engagement era in costante diminuzione. Fenomeno iniziato qualche tempo prima, quando era stata enfatizzata l’importanza dei contenuti video, creando l’effetto “couch potato” anche tra gli utenti del social.
Prioritize Meaningful Interaction
In questo contesto il 12 gennaio 2018 Mark Zuckerberg annunciava: “Nella timeline vedrete più post di vostri amici e dei vostri gruppi. Col tempo vedrete meno post da parte di aziende e gruppi editoriali. E i contenuti pubblici che vedrete dovranno aderire allo stesso standard: incoraggiare l’interazione tra gli utenti“.
Nuove regole per l’algoritmo
In altre parole, il cosiddetto algoritmo avrebbe mostrato meno contenuti provenienti da aziende e gruppi editoriali (che se volevano continuare ad essere visibili avrebbero dovuto acquistare post sponsorizzati), premiando invece i contenuti provenienti da familiari e gruppi (o singoli appartenenti a gruppi) ritenuti interessanti. Motivazione addotta: questo tipo di interazioni, più vicina all’idea originale del network, renderebbe le persone più felici e meno sole.
Ci avevamo creduto tutti
In molti avevamo creduto alle parole di Mark, alla loro autenticità e al fatto che avrebbero prodotto effetti positivi. Non sapevamo – l’autore non lo aveva scritto e nessun analista lo aveva ipotizzato – che la mossa fosse una reazione a un pericolo esistenziale per l’azienda.
Unintended consequences
Ma questa modifica nell’algoritmo, di per sé di successo, ha causato conseguenze non previste, le famose unintended consequences. E qui ci riallacciamo ai files del WSJ. Per spiegarle possiamo ricorrere ad una semplice domanda.
Gatti o politici?
E’ più probabile che ci sentiamo spinti a rispondere d’impulso ad un post che racconta di una gradevole serata con gli amici o a uno dove si critica ingiustamente la squadra del cuore? Siamo più propensi a condividere l’ennesimo gatto o le indegne parole di un politico avverso, al fine di sconfessarle con una nostra premessa al vetriolo?
Divisive Content
E’ nella natura umana: i contenuti divisive sono quelli che generano più reazioni. Osservando – per così dire – questo comportamento, i sistemi di intelligenza artificiale che governano la timeline, incaricati di massimizzare le interazioni, hanno iniziato a enfatizzare sempre di più i contenuti che in qualche modo ci fanno arrabbiare.
Manipolazioni politiche
La cosa è stata anche notata da editori e influencer politici statunitensi, che hanno iniziato a pubblicare contenuti atti ad alimentare l’indignazione delle parti opposte, regalando ai propri simpatizzanti l’occasione per infuriarsi e controbattere, in un’infinita serie di commenti e contro-commenti… che aumentavano l’engagement.
Una via di mezzo
Gli autori dell’articolo riconoscono a Facebook di essersi resa conto del problema. Tra i documenti interni risulta l’istituzione di un gruppo di data scientist incaricati di studiare il fenomeno. Un report del gruppo recitava: “Il nostro approccio ha avuto conseguenze malsane in importanti segmenti della popolazione e in particolare nell’area della politica e dell’informazione”.
Dilemma
Si apriva così per la dirigenza dell’azienda un importante dilemma: ottimizzare il sistema per l’armonia tra le persone de-enfatizzando i contenuti divisive ma rischiando il declino, o accettare la situazione e continuare a crescere? Tutto questo accadeva nel momento in cui il primo vero concorrente di Facebook, TikTok, cominciava ad essere ritenuto pericoloso. La scelta effettuata – secondo i Facebook files – può essere intuita da questa dichiarazione di Ariana Anthony, portavoce dell’azienda: “Le nostre ricerche mostrano come le divisioni nella nostra società hanno iniziato a crescere ben prima della nascita di Facebook”.
No action
La conclusione dei ricercatori è dunque che la scelta di Zuckerberg sia stata quella di lasciare le cose come erano.
Covid-19: Facebook si impegna per la vaccinazione
Ed eccoci alla questione della pandemia e della vaccinazione. In un comunicato stampa del 15 marzo 2021 la società annunciava il proprio “Piano per aiutare le persone ad essere vaccinate contro il COVID-19”. Tra gli strumenti annunciati un tool per individuare i centri vaccinazione più vicini, la possibilità di prenotare un appuntamento, un Covid Information Center per Instagram ed alcuni chatbot per WhatsApp.
E l’algoritmo?
All’algoritmo veniva data l’indicazione di ridurre la distribuzione di contenuti contrari alla policy aziendale riguardante il COVID-19.
Contenuti proibiti
Una delle regole di questa policy proibisce i contenuti che invitano terzi non farsi vaccinare, testualmente “We prohibit content calling to action, advocating, or promoting that others not get the COVID-19 vaccine”.
Questione di pesi
Ma queste indicazioni all’algoritmo andavano e vanno contro le precedenti: massimizzare l’engagement. Secondo i Facebook files del WSJ per più di un mese alcuni ricercatori interni hanno avvertito formalmente il fondatore del network: i post contenenti messaggi favorevoli alla vaccinazione venivano travolti da retorica e false notizie anti-vaccino, incluse le consuete teorie del complotto.
Qualche numero
Numericamente il 41% dei commenti ai post favorevoli al vaccino erano orientati a scoraggiare la vaccinazione riuscendo ad essere visualizzati 775 milioni di volte al giorno, ogni giorno.
Biden: “Facebook uccide le persone”, poi rettifica
Durante l’estate 2021 la questione ha raggiunto proporzioni tali da spingere il presidente Biden ad affermare che “le piattaforme come Facebook stanno uccidendo le persone grazie alla disinformazione che diffondono”. Salvo poi rettificare (testualmente, ripetizioni comprese): “Ho appena letto che Facebook… Facebook ha detto che… è stato detto che Facebook ha detto… che di tutta la disinformazione…il 60% della disinformazione viene da dodici persone…e quindi spero che non la prendano personalmente quando dico che uccidono le persone”.
Le conclusioni del WSJ sui Facebook files
La conclusione di questo specifico file da parte del WSJ è inequivocabile: il management di Facebook è pienamente a conoscenza dell’effetto negativo dei propri algoritmi e dell’inefficienza dei filtri anti-fake news, ma ha scelto di non agire per non danneggiare la bottom line.
Un sistema incontrollabile
Per parte nostra non saremmo così sicuri di questa visione accusatoria. Alcuni ricercatori hanno infatti sottolineato come l’estrema complessità del sistema delle raccomandazioni (di cui abbiamo parlato ampiamente) sia diventato un entità che ha in qualche modo una vita autonoma, o comunque quasi impossibile da gestire.
Pomelli
E’ noto infatti come alla reti neuronali non si possa chiedere il perché di una certa scelta, ma solo osservarne il risultato. Probabilmente è ormai quasi impossibile agire sui vari “pomelli” che controllano l’algoritmo con buone intenzioni senza creare nuovi problemi, nuove unintended consequence.
Le teorie del completto
Per finire, come giustamente faceva notare Ariana Anthony, vale la pena notare come le teorie del complotto non siano nate con i social network, ma siano state piuttosto una costante nella storia umana.
Il Titanic non è mai affondato
Basti ricordare come nel secolo scorso, utilizzando passa parola e articoli di stampa, si erano diffusi importanti movimenti di pensiero tendenti a promuovere l’idea che per questioni assicurative non il Titanic, ma il suo quasi gemello Olympic fosse stato mandato deliberatamente ad affondare nell’oceano (dopo averne cambiato il nome), al fine di riscuoterne l’assicurazione. I social network, in sostanza, agiscono solo come acceleratore per la diffusione della misinformation, non potendo opporsi alla natura umana e le sue propensioni. Fino a quando non glielo diremo esplicitamente. (M.H.B. per NL)