Menu Chiudi

Tra i pregiudizi veicolati dall’intelligenza artificiale generativa, anche quelli sulle persone con disabilità

I sistemi di intelligenza artificiale generativa riproducono e rafforzano pregiudizi e stereotipi antidemocratici, in particolare nella rappresentazione di donne, persone nere, persone anziane e persone con disabilità visibili proposta dalle immagini professionali generate dall’IA. È quanto emerge dallo studio svolto in America. Le persone con disabilità visibili sono completamente assenti in tutte le categorie professionali considerate nell’indagine.

Un’elaborazione grafica dedicata all’intelligenza artificiale.

I sistemi di intelligenza artificiale (IA) generativa riproducono e rafforzano pregiudizi e stereotipi antidemocratici, in particolare nella rappresentazione di donne, persone nere, persone anziane e persone con disabilità visibili espressa nelle immagini professionali generate dall’IA. È quanto emerge dallo studio denominato Generative AI Carries Non-Democratic Biases and Stereotypes: Representation of Women, Black Individuals, Age Groups, and People with Disability in AI-Generated Images across Occupations, condotto da Ayoob Sadeghiani, della Toronto Metropolitan University, e pubblicato sulla rivista JEOD – Journal of Entrepreneurial and Organizational Diversity (14(1): 119-130 del 2025).

In particolare, l’Autore ha analizzato 444 immagini generate da Microsoft Designer, Meta AI e Ideogram in 37 professioni riscontrando significative disparità nella rappresentazione. Le donne sono sottorappresentate nei ruoli dirigenziali e tecnologici, le persone nere sono quasi assenti e le persone con disabilità visibili sono completamente assenti in tutte le categorie. È stato inoltre osservato un chiaro pregiudizio legato all’età, con i giovani rappresentati prevalentemente. Questi modelli suggeriscono che gli strumenti di IA generativa replicano, e in alcuni casi amplificano, le disuguaglianze e gli stereotipi esistenti sul posto di lavoro, minando i valori democratici di equità e inclusione. Queste le osservazioni di Sadeghiani in merito all’esito dell’indagine: «I miei risultati evidenziano l’urgente necessità di un’esposizione algoritmica alla diversità e raccomando agli sviluppatori di IA e agli utenti aziendali di verificare i propri strumenti per individuare i rischi legati a equità, diversità e inclusione (EDI). Sostengo l’importanza dell’inclusione di gruppi diversi nello sviluppo e nella governance dell’IA per promuovere tecnologie più democratiche e socialmente responsabili». (S.L.)

 

Si ringrazia Andrea Pancaldi per la segnalazione.

 

Ultimo aggiornamento il 11 Settembre 2025 da Simona