Contrordine, gli algoritmi di Facebook e Instagram non influenzano le convinzioni politiche

di Bruno Ruffilli (repubblica.it, 29 luglio 2023)

Gli algoritmi dei social non determinano le scelte politiche. O almeno, non nel modo in cui finora si è creduto. Questi i risultati di quattro distinte ricerche di scienziati e docenti di alcune prestigiose università americane, tra cui la Carnegie Mellon, Stanford, Princeton, Università della Pennsylvania, e altre, in collaborazione con Meta. Gli autori hanno esaminato per tre mesi gli effetti degli algoritmi dei feed di Facebook e Instagram durante le elezioni statunitensi del 2020.

Unsplash

Tra 208 milioni di persone, hanno selezionato un campione rappresentativo di volontari iscritti a Facebook e Instagram e li hanno assegnati casualmente a due gruppi: un gruppo di controllo che ha continuato a utilizzare i feed algoritmici dei social e un gruppo sperimentale con i feed ordinati in ordine cronologico inverso.

Due feed

I risultati degli studi, pubblicati di recente su Science, mostrano che gli algoritmi fanno esattamente quello per cui sono stati pensati, ossia trattengono più a lungo gli utenti sui social network. In media, gli utenti del gruppo sperimentale hanno trascorso circa il 5% in meno di tempo su Facebook e il 15% in meno di tempo su Instagram rispetto a quelli del gruppo di controllo. Inoltre, gli utenti del gruppo sperimentale hanno mostrato una riduzione del 5-10% nell’attività, misurata dal numero di post, commenti e like.

Il feed cronologico ha anche influenzato l’esposizione ai contenuti. Gli autori hanno analizzato le visualizzazioni dei post per comprendere come il cambiamento nell’ordine dei feed abbia influenzato l’esposizione a tre tipi di contenuti: 1) politici, non affidabili; 2) incivili, contenenti parole volgari; 3) provenienti da amici moderati e fonti con pubblico ideologicamente misto. Hanno scoperto che su entrambe le piattaforme sono aumentati i contenuti politici e non affidabili tra gli utenti del gruppo sperimentale rispetto a quelli del gruppo di controllo. Ma su Facebook gli utenti del gruppo sperimentale hanno visto meno post classificati come incivili o contenenti parole volgari rispetto a quelli del gruppo di controllo. E nel gruppo sperimentale è aumentata la quantità di contenuti provenienti da amici moderati e fonti con pubblico ideologicamente misto rispetto agli utenti del gruppo di controllo.

I conservatori tendono a cliccare su molti più link di notizie politiche letti da altri conservatori. Degli articoli contrassegnati come falsi da fact checker di terze parti, oltre il 97% sono stati letti da conservatori più che da liberali, soprattutto grazie a pagine e gruppi. Tuttavia, le fake news che gli utenti di Facebook hanno effettivamente letto rappresentano una percentuale piuttosto bassa sul totale.

La polarizzazione

Gli autori hanno misurato poi la polarizzazione, utilizzando un sondaggio sulle posizioni politiche degli utenti su una serie di temi chiave, mentre la polarizzazione affettiva è stata misurata utilizzando un sondaggio sulle percezioni degli utenti riguardo ai candidati presidenziali e ai loro sostenitori. Non sono state rilevate differenze significative tra i due gruppi, ed è questa la novità forse più importante dello studio: gli algoritmi dei feed possono avere un impatto importante sull’esperienza degli utenti dei social media, ma potrebbero non essere l’unico fattore determinante per la polarizzazione politica.

Così Nick Clegg, presidente degli affari globali di Meta, ha avuto gioco facile ad affermare che gli «esistono poche prove che le caratteristiche chiave delle piattaforme di Meta da sole causino una polarizzazione “affettiva” dannosa o abbiano effetti significativi su questi risultati». Il dibattito su social media e democrazia non terminerà certo dopo la pubblicazione di questi risultati, ha detto, e questo è certo, anche perché i dati per tutte e quattro le ricerche sono stati forniti da Meta, che allo studio ha partecipato attivamente.

Democrazia e business

Non è un tema nuovo: anzi, è tornato più volte dopo il grande scandalo di Cambridge Analytica. Nel 2021, Frances Haugen, ex dipendente di Menlo Park diventata informatrice, ha fornito ai legislatori e ai media migliaia di documenti aziendali e al Congresso ha spiegato che l’algoritmo di Facebook metteva in evidenza contenuti positivi nei confronti dell’anoressia e stava «letteralmente alimentando la violenza etnica» in Paesi come l’Etiopia.

Ma, più in generale, un modello di business che privilegia gli algoritmi di coinvolgimento può rappresentare una minaccia per la democrazia, come si è detto a proposito di Twitter e dei fatti di Capitol Hill? «In una democrazia che funziona correttamente, le persone devono formare le proprie convinzioni politiche a partire da notizie accurate, ma l’architettura dei social media può relegare le persone nella loro bolla, esposte a una visione di parte di alcuni argomenti, quando non alla completa disinformazione, e circondati da individui che la pensano allo stesso modo e che rafforzano i loro atteggiamenti», rileva lo studio.

Tutto cambia

«I risultati avrebbero potuto essere diversi se lo studio non fosse stato condotto durante una campagna elettorale polarizzata, quando le conversazioni politiche erano relativamente più frequenti, o se fosse stato utilizzato un diverso sistema di classificazione dei contenuti», si legge nell’abstract dell’articolo su Science. «Inoltre, questo studio è stato condotto in un contesto politico specifico (gli Stati Uniti) e i risultati potrebbero non essere applicabili ad altri sistemi politici. Detto questo, molte delle caratteristiche degli Stati Uniti contemporanei – come l’aumento della polarizzazione, l’ascesa del populismo e la presenza di disinformazione on line – sono presenti anche in altre democrazie. È possibile che gli effetti degli algoritmi siano più pronunciati in contesti con minori protezioni istituzionali (ad esempio, media meno indipendenti o un ambiente normativo più debole)».

Il fatto che gli utenti del feed cronologico abbiano passato meno tempo sulle piattaforme potrebbe a sua volta aver avuto effetti diversi sugli atteggiamenti, le conoscenze e i comportamenti politici. E infine, alcuni risultati del poderoso lavoro potrebbero già essere obsoleti. Da quando i ricercatori hanno cominciato, infatti, Meta ha già ritoccato diverse volte l’algoritmo dei feed e diminuito la percentuale delle notizie da fonti giornalistiche su Facebook e Instagram. Dove probabilmente non leggerete nemmeno questo articolo.