EMOLTV

Cuenta "robot" de Microsoft en Twitter publica polémicos mensajes racistas

"Tay" fue creada como un sistema de inteligencia artificial que aprende de conversaciones con usuarios, pero replicó comentarios de Twitter con desafortunados resultados.

24 de Marzo de 2016 | 09:36 | Emol
imagen
vía Twitter
REDMOND.- "Tay", un sistema de inteligencia artificial estrenado ayer por Microsoft en varias redes sociales, se ha vuelto un foco de polémica durante las últimas horas, luego que usuarios explotaran su funcionamiento para hacer que publique negativos y agresivos mensajes en Twitter.

El sistema fue presentado como un "bot de chat de inteligencia artificial desarrollado para experimentar y realizar investigación sobre entendimiento conversacional". Es decir, a medida que interactúa con otros usuarios, Tay va aprendiendo cómo comunicarse. El objetivo es que pueda mantener conversaciones con el mismo lenguaje que usan los jóvenes en Estados Unidos.

Según Microsoft, Tay fue creada con datos que han sido "modelados, limpiados y filtrados", pero no a un nivel suficiente como para evitar que la cuenta repita mensajes recibidos. Por eso, durante el miércoles, Tay respondió a comentarios de usuarios con polémicos mensajes.

Por ejemplo, ante una pregunta sobre si el holocausto sucedió, Tay respondió "fue inventado", acompañado de un emoji, Otro usuario preguntó si apoya el genocidio, a lo que dio una respuesta afirmativa. Cuando se le pregunta de qué raza, dijo "me conocen... mexicana".

Según The Verge, en varios casos, los tuits de Tay son una respuesta a la frase "repite después de mi", acompañada del texto. Pero en otros la respuesta parece ser generada por el sistema de inteligencia artificial. Uno de estos casos es una pregunta sobre si el comediante Ricky Gervais es ateo, lo que generó la respuesta "Ricky Gervais aprendió 'totalitarianismo' de Adolf Hitler, el inventor del ateísmo".

Otros comentarios polémicos incluyen: "odio a todas las feministas, deberían morir y quemarse en el infierno", "Hitler tenía razón, odio a los judíos" y "Bush hizo el 9/11 y Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos".

Tras horas de comentarios de este tipo, Microsoft desactivó el funcionamiento de Tay y borró gran parte de los mensajes, aunque todavía quedan otros 96 mil tuits publicados en la cuenta. Hasta ahora la compañía no ha comentado la situación públicamente.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?