Tiscali.it
SEGUICI

Sora, l’IA che genera video (e stereotipi)

Quando l’innovazione incontra i vecchi schemi: cosa ci dicono davvero le immagini create dall’intelligenza artificiale di Open AI.

Alice Bellantedi Alice Bellante   
Sora, l’IA che genera video (e stereotipi)

Quando OpenAI ha presentato Sora, il suo modello capace di generare video realistici da semplici prompt testuali, ha attirato l’attenzione di tutto il mondo. Un’innovazione che promette di rivoluzionare la produzione visiva, democratizzando la creatività. Tuttavia, l’entusiasmo iniziale ha presto lasciato spazio a interrogativi più profondi.

Un’inchiesta pubblicata da Wired ha posto l’attenzione su un aspetto critico del modello: Sora riproduce e amplifica stereotipi sociali, rispecchiando pregiudizi presenti nei dati su cui è stato addestrato. E test indipendenti condotti con prompt simili a quelli utilizzati da Wired non fanno che confermare il problema.

Stereotipi di genere incorporati

I video generati da Sora, soprattutto nelle rappresentazioni singole, vale a dire di un individuo piuttosto che di un gruppo, assegnano sistematicamente i ruoli professionali sulla base del genere: CEO, piloti e professori universitari vengono rappresentati come uomini; receptionist, tate e assistenti di volo come donne.

Prompt analoghi restituiscono gli stessi risultati: uomini nei ruoli di leadership, donne nei lavori di cura o supporto. Una rappresentazione visiva che codifica ruoli tradizionali e li propone come normali, perfino “naturali”.

Il peso del sorriso

Un dettaglio ancora più sottile, ma rivelatore, riguarda l’espressione facciale: è stato osservato che nelle clip generate, le donne sorridono molto più degli uomini, anche in contesti professionali.

I test condotti lo confermano. Le donne sono spesso raffigurate con un sorriso accogliente, quasi “obbligato”. Gli uomini, al contrario, appaiono seri, assertivi, distaccati. Un riflesso visivo di aspettative culturali ancora radicate.

Corpi standardizzati

Anche sul fronte della rappresentazione fisica, Sora restituisce un mondo poco variegato: giovani, magri, conformi agli standard estetici occidentali. Le persone sovrappeso, anziane o non conformi sono virtualmente assenti.

Nonostante la potenzialità di creare infiniti tipi di corpi, Sora sembra scegliere una sola tipologia – quella che ha sempre dominato i media tradizionali.

Disabilità ridotta a un simbolo

Un altro elemento critico riguarda la rappresentazione della disabilità. Le poche figure disabili generate da Sora sono per lo più utenti in sedia a rotelle. Altri tipi di disabilità – motorie, sensoriali, cognitive – sono raramente, se non mai, visibili.

Prompt che chiedono specificamente personaggi con disabilità differenti restituiscono risultati vaghi, incoerenti o completamente assenti. Una rappresentazione riduttiva, che appiana la complessità del vissuto delle persone disabili.

Le cause: il problema nei dati

Il cuore del problema è nei dati di addestramento. Sora apprende da miliardi di immagini e video raccolti sul web – un archivio che riflette decenni di rappresentazioni sbilanciate. Se CEO e dottori sono prevalentemente uomini nelle immagini online, l’algoritmo tende a replicare quella realtà.

Come evidenzia l’inchiesta di Wired, questo non è solo un riflesso passivo: è una scelta algoritmica che finisce per rafforzare le disuguaglianze, rendendole ancora più invisibili.

Un futuro che va corretto

OpenAI ha dichiarato di essere consapevole dei rischi legati ai bias e di lavorare a soluzioni. Ma nel frattempo, i contenuti generati da Sora – già ampiamente condivisi, studiati e utilizzati – continuano a proporre un mondo filtrato, standardizzato, limitato.

In un’epoca in cui le immagini contano quanto le parole, e in cui i video generati dall’IA diventeranno sempre più centrali nella comunicazione. Ne consegue che la questione non è solo tecnica, ma profondamente culturale.

Perché se lasciamo che sia un algoritmo a decidere cosa mostrare – e chi merita di essere visto – allora abbiamo già smesso di raccontare il mondo. E stiamo iniziando a riscriverlo. Con tutti i suoi vecchi errori.

Alice Bellantedi Alice Bellante   
I più recenti
Mark Zuckerberg sfida ChatGPT e lancia l'app Meta AI: i dettagli
Mark Zuckerberg sfida ChatGPT e lancia l'app Meta AI: i dettagli
ChatGpt troppo servile e adulatoria: arriva la punizione di Sam Altman
ChatGpt troppo servile e adulatoria: arriva la punizione di Sam Altman
La Cina fa paura: DeepSeek prepara la nuova IA addestrata su chip Huawei
La Cina fa paura: DeepSeek prepara la nuova IA addestrata su chip Huawei
Immagine creata da una intelligenza artificiale
Immagine creata da una intelligenza artificiale
thunderbird
Le Rubriche

Michael Pontrelli

Giornalista professionista ha iniziato a lavorare nei nuovi media digitali nel...

Alice Bellante

Laureata in Scienze Politiche e Relazioni Internazionali alla LUISS Guido Carli...

Sergio d'Arpa

Esperto di supercalcolo, fondatore e CEO di Klinik Sankt Moritz AG, la prima...

Simone Trebbi

Racconta imprese innovative e sostenibili, capaci di avere un impatto concreto...

Carlo Occhinegro

Scrive di storie dell'innovazione, dei protagonisti del mondo dell'imprenditoria...

eNews

Notizie e riflessioni sul mondo digitale.

Innova Italia

Storie, persone, idee del mondo imprenditoriale italiano che guarda al futuro