La guerra di Facebook all’odio online. “Fermati il 97 per cento dei contenuti pericolosi”

La guerra di Facebook all’odio online. “Fermati il 97 per cento dei contenuti pericolosi”

I nuovi algoritmi di Facebook messi in campo nel 2019 per fermare l’odio online, nome in codice è Xlm-r, sembrano funzionare. Stando all’ultimo Rapporto sull’applicazione degli Standard della comunità, relativo al quarto trimestre del 2020, ormai riescono a fermare in automatico il 97 per cento dei contenuti di tale genere.

“Sono la prova dei molti modi in cui la tecnologia porta quel progresso che il nostro mondo richiede”, gondola Mike Schroepfer, 45 anni, Chief technology officer (Cto) della multinazionale americana, l’architetto di tutte le tecnologie usate dal social network più importante al mondo. “Negli ultimi tre mesi del 2020, siano riusciti ad ottenere i migliori risultati di sempre nel rilevare in modo proattivo l’incitamento all’odio, il bullismo e le molestie: il 97 per cento dei contenuti di odio sono stati rimossi dai nostri sistemi prima che qualsiasi essere umano li segnalasse. Erano il 94 per cento nel trimestre precedente e l’80,5 alla fine del 2019”.

Del problema della polarizzazione non si parla nel rapporto. L’accusa mossa a Facebook è che siano proprio i suoi algoritmi, quelli però usati per gestire la gerarchia delle bacheche degli utenti, a creare le cosiddette “camere d’eco” dove ci si confronta solo con chi la pensa come noi e dove vengono privilegiate le posizioni più estreme. Lo stesso Schroepfer aveva sostenuto tre mesi fa che le polarizzazioni erano sempre esistite negli Stati Unititi altrove e che non era certo colpa di Facebook se la società ne è diventata vittima.  

Si preferisce invece sottolineare quel che funziona, quel che la tecnologia riesce ad ottenere. E’ migliorata in particolare in alcune aree problematiche, dove non è sempre semplice distinguere le minacce che si nascondono dietro le parole come il bullismo e molestie. Per entrambi la percentuale è passata, su Facebook, dal 26 per cento nel terzo trimestre 2020, al 49 nel quarto trimestre, e su Instagram dal 55 all’80. Tutto grazie alla nuova intelligenza artificiale che è sempre più abile non solo in inglese.

Si tratta di 6,3 milioni di contenuti di bullismo e molestie, 6,4 milioni di contenuti di odio organizzato, 26,9 milioni di contenuti che incitano all’odio, 2,5 milioni di contenuti riguardanti suicidio e autolesionismo. Su Instagram i numeri sono leggermente diversi: 5 milioni di contenuti di bullismo e molestie, 308mila contenuti di odio organizzato, 6,6 milioni di contenuti che incitano all’odio; 3,4 milioni di contenuti riguardanti suicidio e autolesionismo.

“Crediamo che nessuna azienda dovrebbe valutare in modo autonomo il proprio lavoro”, si legge nel comunicato dell’azienda di Mark Zuckerberg. “L’anno scorso ci siamo impegnati a fondare un comitato indipendente per valutare i nostri sistemi di moderazione dei contenuti. Un processo che prenderà piede pienamente quest’anno”.

Il riferimento è in parte al consiglio di sorveglianza di Facebook, l’Oversight Board, istituito lo scorso anno, formato 20 persone e finanziato con 130 milioni di dollari. Ha il potere di approvare o annullare qualsiasi decisione presa dal social network in merito alla rimozione di contenuti o alla cacciata di una persona dalla piattaforma. Una sorta di corte d’appello che sta attualmente esaminando il caso di Donald Trump. Se dovesse decidere a suo favore, Trump riguadagnerebbe immediatamente l’accesso ai suoi profili e ai suoi seguaci. Per ora l’Oversight Board ha contraddetto ben quattro decisioni di Facebook sulle cinque che ha esaminato.

Il consiglio la scorsa settimana ha prorogato di altri sette giorni il termine per aprire la pratica sul caso Trump, considerando gli “alti livelli di interesse” che rendono la faccenda molto spinosa. La decisone finale, salvo ulteriori rinvii, è prevista per aprile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *