Gli algoritmi dei social discriminano le donne? Si, e il motivo è incredibile
La trasmissione televisiva Le Iene ha fatto luce su un fenomeno di cui si parla troppo poco
I social discriminano le donne con i loro algoritmi? Ha provato a dare una risposta la trasmissione televisiva Le Iene che si è occupata dell’argomento nella puntata andata in onda lo scorso 23 maggio. La nota trasmissione di Mediaset ha raccolto la denuncia di diverse professioniste che si sono sentite discriminate e danneggiate dall’intelligenza artificiale delle piattaforme sociali.
GLI STUDI EFFETTUATI DA UN ESPERTO DI IA
Per capire meglio gli aspetti tecnici sottostanti Le Iene si sono avvalse della consulenza di un esperto di IA, Gianluca Mauro, che ha pubblicato sull’autorevole quotidiano britannico The Guardian, i risultati degli studi che ha condotto sul fenomeno.
IL COMPITO DEGLI ALGORITMI
Gli algoritmi vengono utilizzati da tempo dalle piattaforme per controllare ed evitare la diffusione di immagini pornografiche. Fin qui niente di male. Il problema però riguarda la diversa valutazione delle immagini femminili rispetto a quelle maschili. Gli uomini anche se svestiti e con atteggiamenti equivoci raramente vengono censurati. L’esatto opposto rispetto a quanto avviene per le donne. Gli algoritmi possono arrivare a nascondere anche le immagini di donne per niente svestite o che in gravidanza mostrano la pancia.
GLI ESEMPI DELLA DISCRIMINAZIONE
Alcuni esempi mostrati da Le Iene sono molto utili per capire quanto avviene.
In questa immagine la pancia di una donna in attesa risulta avere un rating pornografico 7 volte più alto rispetto a quella di un uomo che ha addirittura una parte dei boxer abbassati
In quest’altra immagine si può vedere che una donna che salta felice su un letto matrimoniale è considerata dagli algoritmi più pornografica di quella di un uomo svestito che mostra anche parte dei peli del pube.
LA SPIEGAZIONE DELLE CAUSE DELLA DISCRIMINAZIONE
Come è possibile tutto questo? Il rating e dunque la valutazione di quanto sia pornografico il contenuto di una immagine – ha spiegato Mauro - è opera di algoritmi di intelligenza artificiale appositamente addestrati per fare questo. Dove sta il problema? Che per spendere meno le grandi aziende hi-tech americane hanno fatto addestrare gli algoritmi da lavoratori poco pagati che vivono nei paesi in via di sviluppo. Tipicamente sono lavoratori maschi con una cultura maschilista che tende a giudicare negativamente l’esposizione del corpo femminile. Il risultato (assurdo) è che gli algoritmi hanno incorporato questo bias (distorsione) culturale, che viene applicato anche nei paesi occidentali dove la parità di trattamento tra uomo e donna è uno dei principi più importanti della società.
UNA RIFLESSIONE SULL'INTELLIGENZA ARTIFICIALE E UNA SULLA SILICON VALLEY
Questa vicenda inevitabilmente ci porta a fare due riflessioni. La prima riguarda l’importanza dell’addestramento degli algoritmi di intelligenza artificiale. L’addestramento, ovvero l’insieme di informazioni e valori trasmetti all’IA, non è neutrale. E questo vale non solo per gli algoritmi che valutano il contenuto pornografico delle immagini ma anche per applicazioni di intelligenza artificiale generativa come ChatGPT, che avranno un peso sempre maggiore nell’influenzare le idee e le opinioni delle persone. La seconda riguarda invece l’atteggiamento delle grandi aziende tecnologiche americane che mettono la ricerca del profitto al di sopra del rispetto dei valori fondamentali della società. La Silicon Valley si era presentata al mondo come il volto buono del capitalismo ma ormai è evidente che è stata solo una narrazione di facciata.