ChatGPT, Bard, Midjourney y otras inteligencias artificiales generativas están imponiendo sesgos y estereotipos negativos en sus usuarios

Los modelos generativos de IA, ChatGPT, Bard y Midjourney, están codificando prejuicios y estereotipos negativos en sus usuarios, además de generar y difundir masivamente información aparentemente precisa, pero sin sentido, alerta un estudio publicado en la revista 'Science'. Los autores alertan de que los grupos marginados se ven afectados de forma desproporcionada, y los niños corren un riesgo especial

Los modelos generativos de IA, ChatGPT, Bard y Midjourney , están codificando prejuicios y estereotipos negativos en sus usuarios , además de generar y difundir masivamente información aparentemente precisa, pero sin sentido , alerta un estudio publicado en la revista Science . Los autores alertan de que los grupos marginados se ven afectados de forma desproporcionada, y los niños corren un riesgo especial.

Además, recuerdan que la fabricación masiva tiene el potencial de influir en las creencias humanas a medida que los modelos que la impulsan se hacen cada vez más comunes , poblando Internet. No sólo la gente obtiene información de la red, sino que gran parte del material de entrenamiento primario utilizado por los modelos de IA también procede de ahí . En otras palabras, se desarrolla un bucle de retroalimentación continua en el que los prejuicios y los sinsentidos se repiten y aceptan una y otra vez.

El artículo, del que es coautor Abeba Birhane , profesor adjunto de la Facultad de Informática y Estadística de Trinity (Irlanda), que trabaja con el Complex Software Lab de Trinity, y Senior Fellow in Trustworthy AI en la Fundación Mozilla, invita a la reflexión y hace un llamamiento a psicólogos y expertos en aprendizaje automático para que colaboren sin demora en la evaluación de la magnitud del problema y la búsqueda de soluciones.

Respuestas problemáticas, pero sin lugar para la duda

Según comenta el profesor Birhane, "las personas comunican habitualmente su incertidumbre mediante frases como creo , retrasos en las respuestas, correcciones y disfluencias en el habla. En cambio, los modelos generativos dan respuestas seguras y fluidas, sin representaciones de la incertidumbre ni capacidad para comunicar su ausencia".

"Como resultado, esto puede causar una mayor distorsión en comparación con las entradas humanas, y llevar a la gente a aceptar las respuestas como objetivamente exactas -prosigue-. Estos problemas se ven exacerbados por los intereses financieros y de responsabilidad civil...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR