Twitter ha un problema con le immagini: l’algoritmo mostra più i bianchi dei neri

Twitter ha un problema con le immagini: l’algoritmo mostra più i bianchi dei neri

CHE gli algoritmi dei social network svelino periodicamente alcune profonde storture di fondo, legate a pregiudizi (bias, in inglese) nei confronti di minoranze, soggetti con alcune caratteristiche fisiche o semplicemente che prediligano certi contenuti su altri, è cosa nota. Meno noto è che di passi in avanti, in questo senso, se ne stiano facendo davvero pochi. Se lo scorso giugno a finire sul banco degli imputati era stato Instagram – un’indagine di AlgorithmWatch aveva individuato come se ti spogli sul social accumuli più cuoricini, perché l’algoritmo ti butta in pasto su più bacheche e favorisce la tua foto rispetto ad altre, sostenendo le tue attività e la popolarità sul social – torna ora a emergere un problema legato al razzismo intrinseco. Alcuni utenti su Twitter, infatti, hanno scoperto che caricando sul social un’immagine raffigurante rispettivamente un soggetto bianco e uno nero, l’anteprima che si ottiene favorisce quasi sempre il soggetto bianco. Insomma, è il bianco che finisce “in vetrina”.
 

Diversi utenti, infatti, hanno dimostrato il problema iniziando a postare immagini uniche contenenti però due soggetti: puntualmente, l’anteprima del tweet poneva in evidenza il bianco, focalizzando il ritaglio dell’immagine su di lui, perfino quando meno rilevante dal punto di vista della rilevanza pubblica (anche Barack Obama è stato fatto fuori). L’aspetto curioso è che la questione è emersa come in un gioco di scatole cinesi: un utente aveva infatti denunciato su Twitter un problema simile relativo a Zoom, la piattaforma per le videochiamate esplosa durante i lockdown internazionali: non mostrava il volto di un collega nero che partecipava a una videocall. Bene, anzi malissimo: quando ha pubblicato la foto su Twitter, ha scoperto che pure il social guidato da Jack Dorsey favoriva il suo volto – bianco – rispetto a quello del collega. Discriminazione al quadrato, insomma. Fra l’altro, l’app ufficiale sembra essere messa peggio, in questo senso, visto che piattaforme parallele professionali per la gestione di più account e contenuti come TweetDeck appaiono più neutrali in questo lavoro di cropping.
 

Molti altri utenti si sono poi cimentati in simili esperimenti e, a quanto pare, il meccanismo scatta anche con le illustrazioni, i cartoon e perfino con i cani, favorendo il mantello bianco o chiaro su un quadrupede con pelo scuro. La rete neurale di Twitter, che ritaglia automaticamente le immagini che alleghiamo ai nostri tweet, aveva mostrato altri problemi fin dalla fase del suo sviluppo iniziale. Nella discussione è intervenuto anche Dantley Davis, chief design officer di Twitter, che ha invece portato un esempio in cui quel pregiudizio non si verificava, ammettendo tuttavia che si trattava di una prova non verificata. Insomma, di un fatto casuale che poco modificava rispetto all’ampia mole di prove e risultati portata nel corso della giornata da decine di utenti. Anche la società è intervenuta ufficialmente per bocca di Liz Kelley, del team della comunicazione, secondo la quale la piattaforma avrebbe effettuato una serie di verifiche senza trovare evidenze di questa discriminazione. Ammettendo tuttavia che “è chiaro che dobbiamo effettuare ulteriori verifiche. Condivideremo il nostro lavoro di modo da poterlo controllare e replicare”. Qqualche dubbio c’è anche a San Francisco, se è vero che Parag Agrawal, chief technology officer, ha aggiunto che il modello ha bisogno di “continui miglioramenti” e di essere pronto a imparare dagli esperimenti che gli utenti hanno continuato per ore a postare.
 

Questioni del genere sono solo la punta di diamante di una lunga serie di pregiudizi che gli algoritmi, applicati in sistemi di ogni tipo a partire dal riconoscimento facciale di alcuni software utilizzati dalle forze di polizia in mezzo mondo, si portano dietro nelle loro più articolate applicazioni. Nel gennaio dell’anno scorso ad allargare il discorso fu l’esponente di sinistra del Partito democratico statunitense, Alexandria Ocasio-Cortez, che denunciò apertamente il razzismo di questi sistemi di machine learning.

Nel luglio precedente, tanto per citare uno dei numerosi studi sull’argomento, un’indagine dell’American Civil Liberties Union su Amazon Rekognition, il software per il riconoscimento facciale del colosso fondato da Jeff Bezos, confuse 28 parlamentari eletti alla Camera e al Senato con le fotosegnaletiche tratte da un database della Polizia di 25 mila detenuti. Non solo imprecisione: nel 39% dei casi i parlamentari scambiati per criminali erano uomini e donne di colore che però rappresentano solo il 20% dei 535 esponenti del Congresso messi a confronto con il database.
 

Questo nell’ampio ambito investigativo, il fronte più caldo e dalle maggiori implicazioni per la privacy e le garanzie personali (molte grandi città negli Stati Uniti hanno votato leggi e ordinanze che impediscono alle loro forze di polizia di sfruttare questi servizi). Ma anche tornando ai web e social network, i precedenti non mancano, e come spiegano le reazioni disorientate dei manager di Twitter sono spesso precedenti che svelano tutte le difficoltà di penetrare la cosiddetta black box in cui gli infiniti calcoli eseguiti dagli algoritmi sono rinchiusi: se nel 2015 il sistema di riconoscimento di immagini di Google catalogò alcune persone di colore come “gorilla”, un paio di anni dopo un altro sistema di Big G, il Cloud Natural Language API, giudicava negativamente alcune affermazioni su religiosità e sessualità come “sono ebreo” o “sono gay”.

Intanto Facebook, che ha una lunga storia di precedenti in questo senso (specie, però, nell’incapacità di bloccare e rimuovere contenuti xenofobi più che nella loro promozione in senso stretto) e anche con ricadute più ampie su donne e minoranze specie per gli annunci pubblicitari, ha messo in piedi lo scorso luglio un team internazionale col compito di verificare se i propri algoritmi, compresi quelli di Instagram, siano in qualche modo contraddistinti da pregiudizi razziali. Non è detto che basti, visto che il punto più critico è spesso costituito dai database di partenza sui quali questi algoritmi vengono “addestrati”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *