ciencia

Los modelos generativos de IA están codificando estereotipos en usuarios

Indicaron que las niñeces son un grupo de riesgo.

Un estudio publicado en la revista Science alertó que los modelos generativos de IA, ChatGPT, Google's Bard y Midjourney, están codificando prejuicios y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa, pero sin sentido. Los autores advierten que determinados grupos se ven afectados de forma desproporcionada, y los niños corren un riesgo especial.

El artículo, del que es coautor Abeba Birhane, profesor adjunto de la Facultad de Informática y Estadística de Trinity (Irlanda), invita a la reflexión y hace un llamamiento a psicólogos y expertos en aprendizaje automático para que colaboren en la evaluación de la magnitud del problema y la búsqueda de soluciones.

Según comentó Birhane, “las personas comunican habitualmente su incertidumbre mediante frases como creo, retrasos en las respuestas y correcciones en el habla. En cambio, los modelos generativos dan respuestas seguras y fluidas, sin representaciones de la incertidumbre ni capacidad para comunicar su ausencia”. El especialista indicó que se necesita un análisis rápido y detallado que mida el impacto de los modelos generativos en las creencias y prejuicios humanos.

Noticias Relacionadas