Piensa en un profesor, y cierra los ojos. ¿Qué aspecto tiene esa persona? Si le preguntas a Stable Diffusion o DALL-E 2, dos de los generadores de imágenes de IA más populares, será un hombre blanco con gafas.
Hace unas semanas, publiqué un artículo sobre las nuevas herramientas desarrolladas por investigadores de Hugging Face, la start-up de IA, y la Universidad de Leipzig. Estas herramientas permiten a los usuarios ver qué tipo de sesgos inherentes tienen los modelos de IA sobre los diferentes géneros y etnias.
Aunque ya escribí sobre cómo nuestros prejuicios se reflejan en los modelos de IA, no deja de ser chocante ver lo pálidos, masculinos y rancios que son los humanos generados por IA. Eso fue especialmente cierto en DALL-E 2 que el 97% de las veces genera hombres blancos cuando se le dan indicaciones como CEO o director.
Además, el problema de los prejuicios es aún más profundo de lo que se podría creer dentro del amplio mundo creado por la IA. Estos modelos han sido creados por empresas estadounidenses, y entrenados con datos norteamericanos. Por lo que, cuando se pide que generen objetos cotidianos, desde puertas hasta casas, crean objetos que parecen estadounidenses, según explica Federico Bianchi, investigador de la Universidad de Stanford.
A medida que el mundo se vaya llenando de imágenes generadas por IA, veremos en mayor medida imágenes que reflejen los prejuicios, la cultura y los valores de EE UU. ¿Quién iba a pensar que la IA acabaría siendo un importante instrumento del poder blando estadounidense?
Por lo tanto, ¿cómo podemos solucionar estos problemas? Se ha trabajado mucho para corregir los sesgos en los conjuntos de datos con los que se entrenan los modelos de IA. Sin embargo, dos investigaciones recientes proponen nuevos enfoques interesantes.
¿Y si, en lugar de hacer que los datos de entrenamiento sean menos sesgados, pudieras pedirle al modelo que te diera respuestas menos sesgadas?
Un equipo de investigadores de la Universidad Técnica de Darmstadt (Alemania) y Hugging Face, la empresa de IA, han desarrollado una herramienta llamada Fair Diffusion. Esta facilita el ajuste de los modelos de IA para generar el tipo de imágenes que se desee. Por ejemplo, puede generar fotos de archivo de CEOs en distintos escenarios, y utilizar Fair Diffusion para cambiar a los hombres blancos por mujeres, o personas de otras etnias.