Indagine accusa: “Instagram non frena disinformazione su Covid e vaccini”. La replica: “Studio vecchio”

Indagine accusa: “Instagram non frena disinformazione su Covid e vaccini”. La replica: “Studio vecchio”

UN RAPPORTO di quaranta pagine accusa Instagram: i suoi algoritmi promuovono la disinformazione rispetto alla pandemia di Sars-CoV-2 e contenuti antivaccinisti. Una slavina di post potenzialmente indirizzati a decine di milioni di utenti. Lo firma il Center for Countering Digital Hate, un’organizzazione senza scopo di lucro con sedi a Londra e Washington D.C., che ha aperto una serie di account “investigativi” per comprendere meglio il meccanismo di ciò che l’applicazione videofotografica controllata da Facebook propone agli utenti, specialmente quelli appena iscritti, in due sezioni specifiche: la sezione Esplora, quella da cui partire alla scoperta di ciò che bolle sulla piattaforma, e nei post suggeriti all’interno della bacheca introdotti pochi mesi fa.

Il risultato? Questi strumenti dell’app guidata da Adam Mosseri, braccio destro di Mark Zuckerberg, incoraggiano gli utenti a visualizzare disinformazione e li proiettano in una specie di spirale senza fine. Nel senso che chi compie il malaugurato passo falso di interagire con certi contenuti, finisce per essere rilanciato e bombardato con altri contenuti dello stesso tenore, se possibile anche peggiori. Se, per esempio, un utente segue degli account antivaccinisti, gli verrà proposto anche del materiale sui cospirazionisti di QAnon e post antisemiti. Se, al contrario, parte dal cospirazionismo più strampalato, finisce nelle grinfie di foto e video no-wax o di disinformazione di stampo elettorale. Insomma, un pozzo senza fondo e soprattutto senza uscita.

I ricercatori hanno sondato i suggerimenti del social, utilizzato ogni mese da oltre un miliardo di utenti, sfruttando 15 profili differenti e seguendo diversi gruppi di account che spaziavano da quelli delle autorità sanitarie a quelli impegnati contro i vaccini e negazionisti della pandemia, organizzando per ogni profilo un diverso mix di “following”. Si sono collegati a questi account di studio ogni giorno, registrando tutti i suggerimenti “spinti” e ricevuti dall’algoritmo (che hanno ribattezzato, intintolandoci la ricerca consultabile qui, “malgoritmi”), al loro tenore e al loro contenuto. Indagando soprattutto nella sezione Esplora e mettendo dei like in maniera casuale per innescare il funzionamento dei post suggeriti, che altrimenti nei profili nuovi di zecca non si attiva fino a che non si interagisce per un po’ con le foto, i video, i reel e gli altri contenuti. Tutto questo fra il 14 settembre e il 16 novembre dello scorso anno e salvando gli screenshot dei suggerimenti.

La ricerca spiega che in quel periodo Instagram ha raccomandato ai 15 profili 104 post contenenti disinformazione. Più della metà si occupavano ovviamente di Covid-19, un quinto di vaccini e un decimo delle allora imminenti elezioni presidenziali statunitensi. Le utenze del CCDH hanno anche ricevuto suggerimenti relativi a post favorevoli alla cospirazione QAnon e in generale a foto e video intrisi di antisemitismo. L’unico percorso sicuro da cui non si sono generate simili raccomandazioni è stato quello degli account che seguivano profili ufficiali delle autorità sanitarie internazionali riconosciute.

Le accuse della non-profit guidata da Imran Ahmed, che chiede addirittura la sospensione dell’algoritmo ma apre un tema essenziale sulla trasparenza di quegli strumenti informatici, sono durissime: “Malgorithm, l’ultimo rapporto del CCDH, mostra come l’algoritmo di Instagram promuova attivamente disinformazione e contenuti estremisti agli utenti – si legge nell’indagine – questi vendono incoraggiati a visualizzare questo tipo di materiale e, una volta agganciati, vengono dati loro in pasto contenuti che spingono altri punti di vista di quella visione radicalizzata del mondo […] Si tratta di una tattica deliberata. Le società che gestiscono i social network tentano costantemente di massimizzare il coinvolgimento degli utenti. Detta più semplicemente, più tempo gli utenti trascorrono su Instagram più crescono i ricavi. Ecco perché, lo scorso agosto, per aumentare l’engagement, Instagram ha aggiunto contenuti non sollecitati dagli utenti alla timeline. Una volta che un utente esaurisce i contenuti più recenti dagli account che segue, gli algoritmi di Instagram presentano nuovi contenuti come ‘un’estensione del tuo feed’. Gli algoritmi di apprendimento automatico identificano il potenziale degli utenti interessi in base ai dati e alle abitudini, quindi trovano contenuti ad alto coinvolgimento dello stesso tipo e li iniettano nei feed degli utenti. Ricerche precedenti dimostrano che la disinformazione è condivisa e ottiene più coinvolgimento delle verità sui social media. Peggio ancora, un elevato tasso di coinvolgimento aumenta la probabilità che anche gli osservatori neutrali possano interagire con il contenuto. Per Instagram e i suoi algoritmi, un clic è una vittoria, non importa il contenuto”. E il lavoro di rimozione, che pure la piattaforma porta avanti, è definito “insufficiente”.

Il CCDH ha anche pubblicato una lettera aperta a Zuckerberg, pregandolo di disabilitare e correggere l’algoritmo. Come? Per esempio escludendo i post che si occupano di Covid e vaccini dal sistema dei suggerimenti, mantenendo una blacklist di account ben noti per diffondere disinformazione, limitandoli al massimo, e dando un tetto anche al numero di post suggeriti rivolti a ogni utente. I metodi di intervento potrebbero in effetti essere molti. L’organizzazione spiega anche che Instagram potrebbe tutelare meglio i propri utenti dalla disinformazione negando la spunta blu di verifica, quella che indica gli utenti certificati, ad account noti in realtà per diffondere notizie o teorie senza fondamento (fra quelli presenti nel rapporto anche il terzogenito di Bob Kennedy, Robert F. Kennedy Jr, noto leader negazionista) introducendo avvisi sui contenuti selezionati dall’algoritmo e “vaccinando” gli utenti con una nuova strategia dei contenuti, per esempio mostrando post corretti a quelli troppo esposti a post estremisti e dando sempre più spazio a inserzioni delle organizzazioni ufficiali da affiancare a quelli privi di fondamento.

Un portavoce di Facebook si è limitato a minimizzare spiegando che la ricerca è vecchia di cinque mesi e basata su “un campione estremamente piccolo” composto da soli 104 post.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *