El racismo automático de la inteligencia artificial

La metida de pata fue tan monumental que Google tardó sólo una hora y media en responder. Había ocurrido lo impensable, una de esas cosas que quedan en la historia de una compañía y que se sigue recordando, con vergüenza ajena, por décadas. Sí, una metida de pata épica. En pocas palabras, el servicio Photos, lanzado hace un mes, clasificó como "gorilas" las fotos de dos afroamericanos.

Así lo tuiteó el lunes , un programador neoyorquino que, no es para menos, estaba indignado y furioso. Entre muchos mensajes de apoyo, el hombre recibió también la mofa repugnante de esa borra de racistas incurables que todavía pulula en la sentina moral de la sociedad. Esa segunda humillación también fue responsabilidad de Google, que debería haber previsto las consecuencias de un error de semejante magnitud.

Curiosamente, el reconocimiento de imágenes de Photos fue de lo más ponderado del servicio, más incluso que el hecho de que la compañía ofreciera espacio ilimitado en la nube (es decir, en sus servidores) para imágenes de hasta 16 MP y videos de hasta 1080p. Varios analistas dijeron que con esta aplicación le habían hecho jaque mate a Apple; ahora se ve que tal vez la compañía de la manzanita podría haber sido simplemente más cauta, y con razón.

En todo caso, tal vez este papelón increíble, inusitado e inexplicable deje una lección. No sólo para la compañía fundada por Brin y Page, sino para el resto de nosotros.

La primera de esas lecciones tiene que ver con el devastador efecto que pueden tener las etiquetas. La intención de Google con Photos es prístina: ayudar a las personas a ordenar y encontrar sus imágenes. Es evidente también que nunca cayeron en la cuenta de que toda clasificación implica una discriminación. Personas y discriminación no combinan nada bien. Google debería saber eso y debería haber evitado, desde el código, cualquier posibilidad, por remota que fuera, de que la imagen de una persona pudiera ser asociada con la de un animal. Especialmente con la de un primate.

Si no lo hicieron así (hasta que Alciné publicó su tweet y entonces directamente eliminaron toda mención a gorilas y demás) es porque probablemente el pecado original se encuentra aún más atrás. Está mal usar etiquetas con las personas, pero mucho peor es pensar con etiquetas. Nos volvimos expertos en eso con Twitter, y Google se abstuvo de reflexionar sobre lo grave que puede ser que los asuntos más profundos de la naturaleza humana se crucen con el modo de pensamiento...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR