El bot de Microsoft recomienda PS4 y es racista

El bot de Microsoft recomienda PS4 y es racista

Tay es el bot de inteligencia artificial de Microsoft y que ya ha sido desconectado tras diversos comentarios. Entre ellos, varios racistas o recomendaciones de PlayStation o Android.

“Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno” o “PS4, Xbox no tiene juegos” son algunas de las frases que ha soltado Tay en su cuenta de Twitter.

En un primer momento Tay era realmente agradable pero lo que ha aprendido de los humanos no ha sido nada buena. Microsoft ha eliminado muchos de los tweets que ha publicado automáticamente. En tan solo 24 horas ha sido capaz de pasar de a "los seres humanos son supergeniales” a “¡Soy una buena persona! Simplemente los odio a todos".

Imagen - El bot de Microsoft recomienda PS4 y es racista

De un bot pacifico a un bot nazi, pasando por un bot que no reconoce a sus creadores. Así ha recomendado Android de Google o PlayStation 4 de Sony frente a Windows o Xbox One.

Imagen - El bot de Microsoft recomienda PS4 y es racista

El objetivo de Tay era entretenernos en un primer momento y probar la inteligencia artificial, es decir, un experimento. El problema es que el motor de inteligencia artificial (IA) aprende de los usuarios.

Tras 96.000 tweets en sus primeras 24 horas ha tenido que ser suspendido para que no siga metiendo la pata de esta forma.

Ahora habrá que ver si el experimento continúa y cómo se pone límites a la inteligencia artificial para que no dé este tipo de respuestas. En cualquier caso, finalmente está respondiendo por humanos que se le enseñaron dichos conocimientos.

  • Ver Comentarios