¿Puede mentir la inteligencia artificial?

La inteligencia artificial puede ser engañada con relativa facilidad

Es el actor clave de la llamada cuarta revolución industrial , y se aplicó con éxito a campos tan dispares como la medicina, la enseñanza y las ciencias sociales.

Esta disciplina nació a mediados del siglo pasado, aunque no fue hasta hace pocos años cuando logró sus resultados más valiosos e impactantes. El éxito fue posible gracias a la combinación del fenómeno del big data y el aumento en la potencia de cómputo de los ordenadores.

¿Podemos confiar en un sistema inteligente?

El uso de la inteligencia artificial está cada vez más extendido en nuestra vida cotidiana. Debido a la aparición de casos donde este tipo de sistemas se comportaban de forma racista o sexista , surge la necesidad de que la inteligencia artificial sea ética y confiable. Así lo demuestran las Directrices éticas para una inteligencia artificial fiable de la Unión Europea y la Estrategia Nacional de Inteligencia Artificial española.

Los sistemas de inteligencia artificial que más éxitos están cosechando tienen la desventaja de ser, en muchos casos, imposibles de interpretar. En un contexto en el que se nos insta a confiar en ellos, esto hace que nos cuestionemos si este tipo de sistemas pueden ser fácilmente engañados. O incluso peor: preguntarnos si tienen el poder de engañarnos a nosotros.

Las máquinas, por su parte, aprenden lo que les enseñamos los humano

¿Podemos engañar a un sistema inteligente?

En los últimos años, cobró importancia una nueva rama dentro de la inteligencia artificial: el aprendizaje adversario . Los sistemas inteligentes se usan en muchas ocasiones para tomar decisiones importantes que afectan a las personas, por lo que es necesario asegurarse de que no pueden ser engañados con facilidad.

El aprendizaje adversario intenta prevenir posibles ataques, o la introducción de datos falsos que puedan engañar a una máquina, pero no a una persona. Son famosos los casos en los que se añade un mínimo ruido a una imagen, que es imperceptible para el ojo humano. Este ruido es suficiente para que el algoritmo de inteligencia artificial crea que se trata de una imagen diferente.

En algunas ocasiones, el engaño es tan difícil de creer como el caso de una impresión 3D de una tortuga que la mismísima inteligencia artificial de Google clasificó como un rifle . La investigación sobre este tipo de imágenes adversarias, que pueden engañar a un sistema inteligente, es de vital importancia. Imaginemos las...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR