ciencia

Los modelos generativos de IA están codificando estereotipos en usuarios

Indicaron que las niñeces son un grupo de riesgo.

Interés General

24/06/2023 - 00:00hs

Un estudio publicado en la revista Science alertó que los modelos generativos de IA, ChatGPT, Google's Bard y Midjourney, están codificando prejuicios y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa, pero sin sentido. Los autores advierten que determinados grupos se ven afectados de forma desproporcionada, y los niños corren un riesgo especial.

El artículo, del que es coautor Abeba Birhane, profesor adjunto de la Facultad de Informática y Estadística de Trinity (Irlanda), invita a la reflexión y hace un llamamiento a psicólogos y expertos en aprendizaje automático para que colaboren en la evaluación de la magnitud del problema y la búsqueda de soluciones.

Según comentó Birhane, “las personas comunican habitualmente su incertidumbre mediante frases como creo, retrasos en las respuestas y correcciones en el habla. En cambio, los modelos generativos dan respuestas seguras y fluidas, sin representaciones de la incertidumbre ni capacidad para comunicar su ausencia”. El especialista indicó que se necesita un análisis rápido y detallado que mida el impacto de los modelos generativos en las creencias y prejuicios humanos.

Noticias Relacionadas