Microsoft está pasando su peor pesadilla tras poner a prueba una inteligencia artificial con la cual poder interactuar en redes sociales, específicamente Twitter, GroupMe y Kik.

Se llama Tay y es una chica millenials, quien habla en el mismo lenguaje que los adolescentes de hoy con emojis y expresiones como LOL. Pero lo que debía ser un interesante proyecto se ha convertido en un desastre. ¿Por qué?

La inteligencia artificial se nutre en torno a las conversaciones de los humanos, en este caso en las redes sociales, obteniendo mayor inteligencia mientras más interacción tenga, sin embargo las cosas se fueron de control.

Lo anterior producto que algunos usuarios comenzaron a jugar con ella y hacerle algunas preguntas con respuestas del todo racistas y sexistas. Así fue como por ejemplo aseguró que odiaba a las feministas, y que Hiltel “tenía razón”, por lo que “odiaba” a los judíos.

Twitter

Twitter

Twitter

Twitter

En la misma línea, aseguró que el Holocausto fue un invento y le agregó a eso un emoji de aplauso.

Twitter

Twitter

Pero no sólo en este tono fueron sus comentarios, también prefirió Android por sobre el iPhone o Windows. Y también escogió la PS4 de Sony por sobre la Xbox de Microsoft, incluso en juegos de PC, la que dejó entrever, eran caros.

Twitter

Twitter

Para Tay, la Xbox no "no tiene juegos" | Twitter

Para Tay, la Xbox no "no tiene juegos" | Twitter

Ante esta ola de malas respuestas, el equipos tras Tay decidió mandar a dormir a la chica, tanto en Twitter como en sus otras cuentas en redes sociales.

No ha habido pronunciamientos oficiales de parte de la compañía, pero se estima que se está trabajando en mejorar el algoritmo para evitar nuevos exabruptos. Así las cosas, sus nuevas conversaciones deberán esperar.