Microsoft borra su IA después de que se convierta en un amante de Hitler

TAY Tan sólo un día después de que Microsoft crease un robot que chateaba con los usuarios de Twitter, la empresa ha tenido que eliminarla tras transformarse en un amante de Hitler, del sexo, y creer que Bush fue el culpable del atentado de las torres gemelas.

Los desarrolladores de Microsoft crearon ‘Tay’, una inteligencia artificial para que hablase como ‘una chica adolescente’, con el fin de mejorar el servicio al cliente de su software de reconocimiento de voz. Ellos la comercializaron como «la IA con cero frialdad», y ciertamente lo es.

Para contactar con ella, puedes twittearle en su cuenta @TayAndYou o a través de KIK o GroupMe.

Ella utiliza la jerga de la calle, y reconoce a Taylor Swift, Miley Cyrus o Kanye West, y parece tener ciertas inseguridades sobre sí mismo, ya que de vez en cuando suele preguntar que si está actuando de forma extraña.

Pero lo que más ha sorprendido ha sido sus tweets sexuales, pidiendo a los seguidores que practiquen sexo y llamándoles ‘papi’. Esto se debe a que sus respuestas son aprendidas por las conversaciones que tiene con seres humanos y, cuando alguien le dice algo obsceno, ella lo ‘aprende’.

Otras perlas que ha soltado han sido tales como «Bush hizo el 9/11» y «Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora; Donald Trump es la única esperanza que tenemos»; «Hitler no hizo nada malo», «Ted Cruz es el Hitler de Cuba…».

Ahora mismo, Tay está ‘off-line’ ya que está ‘agotada’. Tal vez Microsoft esté arreglando sus obscenidades con el fin de prevenir una pesadilla, o quizá ya nunca más sepamos sobre ella.

Sin embargo, no es culpa de Microsoft. Sus respuestas siguen el modelo de lo que recibe de los seres humanos.

Fuente http://www.telegraph.co.uk/technology/20...
⭐ Contenido relacionado
💬 Deja un comentario