Prueba evidencia cómo los sistemas de IA refuerzan prejuicios culturales, a pesar de promover la representatividad racial y de género | The Verge
El artículo examina los sesgos en los generadores de imágenes de inteligencia artificial de Meta, a pesar de su afirmación de promover la representatividad racial y de género. Al intentar crear imágenes con descripciones como “hombre asiático y amigo blanco”, la IA producía resultados incorrectos o estereotipados, mostrando un enfoque limitado hacia las personas asiáticas. La herramienta tendió a representar a las mujeres asiáticas como jóvenes y a los hombres como mayores, además de asociar a las personas asiáticas con características de Asia oriental. Esto evidencia cómo los sistemas de IA refuerzan prejuicios culturales, homogenizando y exotizando a las comunidades asiáticas y otras minorías.