Facebook classificherà le fonti di notizie per “affidabilità“, promuovendo o sopprimendo i contenuti in base a questo criterio. Tuttavia, le organizzazioni di notizie arruolate per aiutare a definire ciò che “attendibile” sembrano rivelare un forte pregiudizio politico.

Parlando alla conferenza annuale sugli sviluppatori della F8 di Facebook, due giorni di discorsi e afterparty per l’élite della Silicon Valley, Zuckerberg ha dichiarato che l’azienda ha già raccolto dati dagli utenti, chiedendo di identificare vari marchi di notizie e segnali per fiducia.

“Inseriamo questi dati nel sistema, e agisce come una spinta o una soppressione, e andremo a comporre tale intensità col passare del tempo”, ha detto, secondo Buzzfeed News. “Riteniamo di avere la responsabilità di ulteriormente rompere la polarizzazione e trovare un terreno comune“.

Facebook, tuttavia, è stato più volte accusato di pregiudizi anti-conservatori nei suoi algoritmi di classificazione. Durante la sua audizione al Congresso il mese scorso, i rappresentanti repubblicani hanno braccato Zuckerberg per le notizie secondo cui la sua piattaforma censura sistematicamente i post di “destra”, come quelli dei blogger pro-Trump “Diamond and Silk“. Zuckerberg ha negato queste accuse e ha definito questi episodi di censura isolati e un “errore“.

Alla conferenza F8, Zuckerberg ha incontrato un gruppo di dirigenti dei media per discutere di come Facebook promuoverà o censurerà le notizie. Avvenuto a porte chiuse, l’incontro è stato chiamato “OTR“, abbreviazione di “Off the Record“. La composizione del gruppo presente farà poco per rassicurare chiunque sia preoccupato di polarizzazione.

I rappresentanti provenivano da BuzzFeed News, The Information, Quartz, New York Times, CNN, Wall Street Journal, NBC, Recode, Univision, Barron, The Daily Beast, The Economist, Huffington Post, Insider, The Atlantic, New York Post e altri.

Di tutte le principali agenzie di stampa presenti, solo due sono considerate in qualche modo nel giusto centro dalla classifica di AllSides, portale specializzato nell’informazione “unbiased”. Tutte le organizzazioni dei media, ad eccezione del Wall Street Journal incentrato sulle finanze e del tabloid del New York Post, si appoggiano bruscamente alla sinistra politica.

Facebook ha annunciato il mese scorso che avrebbe intensificato i suoi sforzi di controllo dei contenuti, collaborando con “fact checker” di terze parti, tra cui AP e AFP per verificare notizie, foto e video. Allo stato attuale, la società mira ad assumere oltre 20.000 dipendenti dedicati a contrastare notizie false e incitamento all’odio entro la fine del 2018.

Questi “poliziotti pensanti” virtuali saranno aiutati da programmi di intelligenza artificiale progettati per estirpare preventivamente informazioni false e propaganda. Martedì, Zuckerberg ha dichiarato che la sua azienda investirà “miliardi” di dollari nella sua repressione dei contenuti.

L’ultimo obiettivo è quello più preoccupante. Facebook descrive le “false narrazioni” come “titoli intenzionalmente divisivi e linguaggio che sfrutta disaccordi e semina conflitti“. Persino la stessa squadra di Facebook non è sicura di cosa significhi.

“Questa è l’area più difficile per noi, dato che diverse agenzie di stampa e consumatori possono avere una visione completamente diversa di ciò che è una narrativa appropriata, anche se sono d’accordo sui fatti”, ha detto il capo della sicurezza Alex Stamos.

Stamos ha concluso il suo tweetstorm con un messaggio inquietante: “Molte persone non stanno pensando seriamente al mondo che stanno chiedendo alla Silicon Valley di costruire. Quando gli dei vogliono punirci, rispondono alle nostre preghiere”.

Lo stesso giorno del sit-down di Zuckerberg con i media mainstream, Facebook ha presentato una nuova sorpresa. Sotto quasi tutti i post pubblici, gli utenti potevano vedere una notifica che chiedeva “Questo post contiene incitamento all’odio?” Accanto a due pulsanti contrassegnati con “Sì” e “No”.

Pochi minuti dopo, la notifica era sparita. Il vicepresidente di Facebook Guy Rosen ha successivamente spiegato su Twitter che la funzione era un test interno che era stato accidentalmente reso pubblico.