Il sesto senso della nuova Ai di Facebook per odio online e disinformazione

Il sesto senso della nuova Ai di Facebook per odio online e disinformazione

L’apertura al pubblico di un “centro sulla trasparenza” e nuovi numeri sull’efficacia dei moderatori e degli algoritmi. Facebook racconta la sua opera nel bloccare l’odio online e altri contenuti proibiti. Il social network di Mark Zuckerberg rende noti i risultati del primo quadrimestre del 2021, nell’usuale “Rapporto sull’applicazione degli Standard della Comunità”, ma stavolta fa un passo in più: “Spiegare come, quando e in base a quali norme un determinato commento, poco importa se testo, foto o video, viene cancellato”, racconta Guy Rosen, vice presidente con delega alla ‘integrità’ di Facebook.

Non è il passo che molti chiedevano, ovvero il rendere pubblici i dati in dettaglio Paese per Paese in modo che anche terze parti potessero analizzarli. Di recente lo aveva fatto ad esempio l’associazione non governativa Avaaz rivolgendosi alla Commissione europea. Ma il Centro sulla Trasparenza, per spiegare come vengono rimossi i contenuti dannosi e ridotta la diffusione di quelli problematici, va in qualche maniera in quella direzione. Il sito è diviso in tre sezioni, si va dall’approccio alle metodologie e tecnologie impiegate fino agli approfondimenti su tematiche specifiche come elezioni e disinformazione, e sulla carta dovrebbe permettere di interpretare più facilmente i rapporti quadrimestrali sugli standard.

Difficile che basti a placare le voci critiche che chiedono l’accesso ai dati, richiesta spesso motivata dal peso che hanno i social network nel dibattito politico e sociale. L’unica concessione fatta da Facebook è stata rivolgersi ad una firma indipendente, Ernst & Young, per verificare che i dati siano misurati e riportati correttamente. La collaborazione però non ha ancora prodotto alcun risultato ufficiale.

“Continuiamo a rivedere le regole di e collaboriamo con centinaia di organizzazioni per aggiornarle”, spiega Monika Bickert, vice presidente con delega alla ‘content policy’. “Dall’inizio della pandemia ad aprile 2021, abbiamo rimosso da Facebook e Instagram più di 18 milioni di contenuti a livello globale in violazione delle nostre policy sulla disinformazione e sui danni legati al Covid-19. Stiamo anche lavorando per aumentare il consenso sui vaccini e combattere la disinformazione sui vaccini”.

Guardando ai numeri, anche se bisogna tenere presente che sono statistiche su base globale, ormai in certi frangenti l’intervento dei moderatori e ancor più dell’intelligenza artificiale (Ai) di Facebook ha raggiunto livelli di efficacia notevoli. Nel primo trimestre del 2021, la diffusione di nudità di adulti sia su Facebook che su Instagram è stata ad esempio ridotta allo 0,03 o 0,04% sul totale dei contenuti con 28 milioni di contenuti bloccati prima ancora che venissero segnalati. I contenuti violenti e grafici invece sono fra lo 0,01 e lo 0,02% su Instagram e 0,03 e 0,04% su Facebook, con 16 milioni di post eliminati dalle contromisure di Facebook. In pratica a circa sei visualizzazioni ogni 10mila con 26,9 milioni di contenuti eliminati dai sistemi del social network. Al di là del mero spam, la categoria numericamente più rilevante assieme ai profili fasulli, sono questi i contenuti sui quali Facebook interviene maggiormente. Ed è la prima volta che la compagnia comunica non solo quel che ha cancellato ma anche ciò che è sfuggito.

L’algoritmo Xlm-r, impiegato a partire dal 2019 sul fronte dei discorsi d’odio e fortemente voluto da Mike Schroepfer, il Chief technical officer (Cto) Facebook, è capace di analizzare i testi e di trasferire l’esperienza fatta in una lingua in un’altra. Questo compensa, solo in parte, la differenza di efficacia che si ha in inglese rispetto ad altri idiomi. Risultato: quando sono stati condivisi per la prima volta i dati relativi ai contenuti di incitamento all’odio, nel quarto trimestre del 2017, il tasso di rilevamento proattivo era del 23,6%. Ciò significa che il 23,6% dei contenuti d’odio rimossi veniva individuato prima che un utente lo segnalasse. La maggioranza veniva invece rimossa solo dopo la segnalazione. Oggi il tasso di individuazione proattiva è di circa il 97%.

“Ora però stiamo lavorando ad una nuova Ai che è capace di analizzare ad un tempo solo testi, immagini e video”, svela lo stesso Mike Schroepfer. “E può controllare se il contenuto viola una o più norme. Stavolta parliamo di un approccio molto ampio che va oltre il testo. Una foto innocua con un testo sotto altrettanto innocuo se preso singolarmente, possono avere un significato completamente diverso se messi assieme. Fino ad ora era un’analisi difficile per le Ai. Sono sottigliezze che si consideravano fuori portata per un’intelligenza artificiale. Ecco, stiamo superando questo ostacolo, in poche stiamo passando dall’analisi del dettaglio a quello del contesto nel quale i singoli elementi sono presentati confrontandoli anche con quanto pubblicato in passato”.

Non si è parlato però dell’algoritmo che organizza cosa le persone vedono sulle proprie bacheche. Quel sistema che spinge a proporre contenuti simili fra loro creando le cosiddette stanze di eco nelle quali ogni forma di confronto fra idee diverse viene bandita aumentando di fatto la polarizzazione della società. Una delle ultime ricerche della Ca’ Foscari di Venezia ha dimostrato che l’effetto c’è anche se non si è spinta fino a misurare la reale portata. E viene quindi da chiedersi cosa accadrebbe se le nuove Ai di Facebook, tanto avanzate nel capire fenomeni complessi, venissero impiegate proprio per capire come si formano le opinioni più estreme sul suo social network.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *