Microsoft ha revelado cómo internet ha convertido a su chatbot en un fan de Hitler, y se disculpa por los tuits racistas. Tay es el último experimento de Microsoft en salir muy, muy mal, a pesar de que todas las señales apuntaban al éxito y eso hizo creer a la compañía que a todo el mundo le gustaría tener una conversación con un chatbot. De hecho, parece que a todo el mundo le gustaba conversar con Tay, pero sólo hasta que comenzó a ser muy maleducada y a tuitear mensajes racistas y en favor de Hitler, algo que cogió a todo el mundo por sorpresa. Microsoft reaccionó con rapidez y desactivaron a Tay, culpando a “un coordinado ataque por un grupo de gente” por los inesperados mensajes.

Microsoft se disculpa por no verlo venir

En una entrada de su blog hoy mismo, Peter Lee, Vicepresidente Corporativo de Microsoft Research, ha explicado que Microsoft sí hizo pruebas con Tay antes de lanzarlo al público, e incluso implementaron varios filtros, pero lo que sucedió fue únicamente posible por una vulnerabilidad en el servicio.

“Mientras desarrollábamos a Tay, planeamos e implementamos un montón de filtros y llevamos a cabo extensos estudios de usuario con diversos grupos de usuarios. Realizamos pruebas de estrés con tay bajo una variedad de condiciones, específicamente para hacer que interactuar con Tay fuera una experiencia positiva” afirma. “Aunque nos habíamos preparado para muchos tipos de abusos del sistema, se nos pasó por alto críticamente este ataque específico. Como resultado, Tay tuiteaba palabras e imágenes altamente inapropiadas y censurables”.

Pr ahora Tay sigue offline, y Microsoft afirma que está todavía trabajando en ella, mejorándola de manera que puedan prevenir que se publiquen de nuevo entradas tan racistas. Se están implementando filtros más efectivos, y Tay debería ser una persona agradable que ya no aprenderá nada maleducado de la gente con la que interactúe.

“Asumimos toda la responsabilidad por no haber visto esta posibilidad antes de tiempo”