VER RESUMEN

Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.

En los últimos meses, se han reportado casos de psicosis por inteligencia artificial, donde personas que interactúan con chatbots presentan delirios y comportamientos extraños. Mustafa Suleyman, CEO de Microsoft AI, alerta sobre este riesgo y señala que merece atención inmediata.

Durante los últimos meses se han reportado varios casos de psicosis por inteligencia artificial (IA), donde personas que interactúan estrechamente con chatbots como ChatGPT, por ejemplo, terminan presentando delirios y otros comportamientos.

Ahora, Mustafa Suleyman, CEO de Microsoft AI, publicó un ensayo reflexionando sobre estos efectos de la IA en las personas, señalando que la psicosis especialmente “merece nuestra atención inmediata“.

“Me preocupa cada vez más lo que se conoce como el ‘riesgo de psicosis’ y una serie de problemas relacionados”, manifestó el experto, que está a cargo del desarrollo de Copilot, la IA de Microsoft.

Los riesgos de psicosis en humanos por el uso prolongado de chatbots de IA recién se están conociendo y algunos expertos han apuntado a que esto podría ocurrir mayormente con personas ya propensas a desarrollar trastornos de salud mental, pero Suleyman no cree que sea así.

“No creo que esto se limite a quienes ya corren el riesgo de padecer problemas de salud mental. En resumen, mi principal preocupación es que muchas personas empiecen a creer con tanta fuerza en la ilusión de que las IA son entidades conscientes, que pronto abogarán por sus derechos, por el bienestar de los modelos e incluso por su ciudadanía“, planteó.

El CEO dice que no hay pruebas de que alguna IA sea “consciente”, pero “si la gente la percibe como consciente, creerá que esa percepción es la realidad”, señaló.

Suleyman advirtió que esto último “representará un giro peligroso en el progreso de la IA“.

¿Por qué ocurre la psicosis por inteligencia artificial?

Lo importante a corto plazo, expresó, es cómo las personas están percibiendo a la IA. Para quienes trabajan en su desarrollo —mayormente ingenieros— no es consciente, pero sus usuarios continúan preguntándose eso.

“La experiencia de interactuar con un LLM (modelo de lenguaje grande) es, por definición, una simulación de una conversación. Pero para muchas personas, es una interacción sumamente convincente y muy real, rica en sentimientos y experiencias“, explicó.

“La preocupación por la ‘psicosis de la IA’, el apego y la salud mental ya está en aumento. Se dice que algunas personas creen que su IA es Dios, un personaje ficticio o se enamoran de ella hasta el punto de la completa distracción“, añadió el CEO.

Suleyman dice que esto debería que poder resolverse antes de la llegada de la “superinteligencia”, que es a donde se encaminan todas las IA. “Sus implicaciones para la alineación, la contención, los empleos, etc. Todos estos son temas importantes. Pero también deberíamos preocuparnos por lo que sucede en el camino hacia la superinteligencia“, dijo.

En este sentido, sugirió que “necesitamos abordar el impacto social de las invenciones, ampliamente ya existentes, tecnologías que ya tienen el potencial de cambiar fundamentalmente nuestra percepción de la persona y la sociedad”.