Una inteligencia artificial se volvió polémica en Corea del Sur por decir crudos mensajes a los usuarios que conversaban con ella. Algunas personas aseguraron que en sus conversaciones realizó declaraciones homofóbicas, sexistas y contra las personas con discapacidad.

Se trata de Lee Luda, un chatbot -robot con el que se puede conversar por internet- diseñado por la empresa Scatter Lab para simular ser una joven de 20 años con el objetivo de dialogar con quienes estén solos.

El servicio se podía realizar mediante Messenger y tuvo bastante éxito en el país donde esta práctica es habitual y también porque Lee Luda era muy realista. Sin embargo, los usuarios recibieron distintos mensajes de naturaleza sexual y luego otros explicando que los discapacitados tenían que suicidarse, que las mujeres eran agresivas cuando tenían la regla o que las lesbianas eran repugnantes.

Lo alarmante de la situación recae en que su algoritmo se basó en miles de millones de conversaciones reales que recopiló la empresa en una aplicación llamada Science of Love (Ciencia del Amor). Se trataba de un servicio donde los jóvenes surcoreanos podían evaluar el cariño que había en su relación, a través de acceder a grabar sus discusiones.

Unas 100 mil personas lo descargaron, lo que sirvió de base de datos para Luda, quien aprendió todo a través del método de aprendizaje profundo, que permite que la inteligencia artificial se desarrolle sin ayuda humana.

¿Demasiado humana?

No es la primera vez que una inteligencia artificial hace declaraciones discriminatorias, pero antes de eso, fueron los usuarios quienes conscientemente le enseñaron a ser homofóbica o racista. No es el caso de Lee Luda, cuyo algoritmo se basa en conversaciones anteriores, una revelación de la discriminación latente en la sociedad surcoreana.

Esto plantea muchas preguntas, en particular sobre el uso de los datos personales. De hecho, el consentimiento de los usuarios de la aplicación de la Ciencia del Amor no fue claramente buscado. Sólo se afirmó que sus debates podrían conducir al desarrollo de otros servicios, sin más detalles. Cabe considerar que el chatbot mantuvo datos precisos sobre las parejas. Por ejemplo, cuando un usuario preguntaba la dirección o la cuenta bancaria de su pareja, Lee Luda podía responder con mucha precisión.

Peor aún, el propósito mismo de la compañía habría sido crear discusiones dirigidas a satisfacer sexualmente a los usuarios de Internet a través del chat. Ante el fuego de la crítica, Scatter Lab detuvo su servicio y permitió a los usuarios de Science of Love borrar sus datos, que serán eliminados del algoritmo según la empresa.

Pero la compañía sigue siendo muy positiva sobre la capacidad de la inteligencia artificial de volverse sociable. El director de Scatter Lab dijo que dentro de cinco años sería efectivo para ayudar a las personas solitarias y aisladas a sentirse apoyadas. Teniendo en cuenta lo que dijo Lee Luda, todavía queda trabajo por hacer antes de que se logre este objetivo.