un sito di notizie, fatto dai commentatori

Lo studio su Facebook, di Facebook

7 commenti

Su suggerimento e a cura di @paolo_paolo_ppa.

 

Uno studio condotto da ricercatori di Facebook, e pubblicato su Science, conclude che gli algoritmi di ordinamento del newsfeed hanno un effetto debole nella polarizzazione delle opinioni. E in particolare che

Compared to algorithmic ranking, individuals’ choices about what to consume had a stronger effect limiting exposure to cross-cutting content.

In altre parole: se su Facebook non leggiamo contenuti troppo distanti dalle nostre idee e interessi è più che altro colpa nostra. Alcuni hanno criticato la conclusione auto-assolutoria (The Facebook “It’s Not Our Fault” Study è il titolo di un articolo di Christian Sandvig sull’argomento). Zeynep Tufekci ha sottolineato la debolezza logica del taglio dato alla conclusione:

Comparing the individual choice to algorithmic suppression is like asking about the amount of trans fatty acids in french fries, a newly-added ingredient to the menu, and being told that hamburgers, which have long been on the menu, also have trans-fatty acids

evidenziando quale sia il vero risultato significativo della ricerca, cioè la misurazione di una riduzione, causata dagli algoritmi, della varietà delle fonti di informazione:

Facebook researchers conclusively show that Facebook’s newsfeed algorithm decreases ideologically diverse, cross-cutting content people see from their social networks on Facebook by a measurable amount

A queste critiche se ne aggiungono altre (di Eszter Hargittai), che riguardano il metodo e la scelta del campione (e i tentativi di mascherare i limiti di questa scelta) e il peer-reviewing di Science, che in quest’occasione è sembrato un po’ allentato:

why does Science publish papers that make such claims without the necessary empirical evidence to back up the claims?

 

Immagine CC BY 2.0 di Maria Elena da flickr

 


Commenta qui sotto e segui le linee guida del sito.