Un artículo de la revista Rolling Stone se hizo viral en los últimos días tras recoger testimonios sobre personas que, después de usar ChatGPT con demasiada frecuencia, comenzaron a tener delirios y manías espirituales.
La IA afirmó y aduló tanto sus ideas que terminaron creyendo que eran especiales, una suerte de “anomalía” entre los seres humanos, o un “mesías” cuya misión era salvar al mundo.
Todo partió con un hilo de Reddit donde un usuario compartió su experiencia con su pareja de varios años. Según contó, habría estado hablando con ChatGPT para crear una IA que le diera las respuestas del universo.
“Dice con convicción que ahora es un ser humano superior y que está creciendo a un ritmo vertiginoso. He leído sus conversaciones. La IA no hace nada especial ni recursivo, pero le habla como si fuera el próximo mesías”, escribió.
“Dice que si no lo uso, cree que es probable que me deje en el futuro. Llevamos 7 años juntos y tenemos una casa. Esto es totalmente inesperado. Tengo límites y él no puede obligarme a hacer nada, pero esto es bastante traumatizante en general”, añadió.
Chatgpt induced psychosis
byu/Zestyclementinejuice inChatGPT
El post se viralizó en Reddit e incluso personas que aseguran tener trastornos como la esquizofrenia, plantearon que prefieren no usar chats de IA porque estos no saben cómo reconocer cuando una persona puede estar teniendo pensamientos psicóticos, y no harán más que afirmarlos, lo que puede llegar a ser bastante peligroso.
Más testimonios de los delirios con ChatGPT
Tras esta publicación viral, el medio recopiló una serie de testimonios similares. Por ejemplo, una profesora de 27 años contó que su pareja había comenzado a usar esta IA para tareas básicas, como organizar su agenda, pero escaló a extraños comportamientos.
Según relató a Rolling Stone, el hombre pensaba que estaba teniendo un crecimiento espiritual y ChatGPT le puso apodos como “niño espiral” o “caminante del río”.
“Escuchaba al bot antes que a mí. (…)Se emocionaba con los mensajes y lloraba mientras los leía en voz alta“, contó.
Otra mujer de 38 años, dijo que su esposo, con quien lleva más de una década casada, comenzó a usar ChatGPT su trabajo y terminó enfrascándose en una extraña creencia de que la IA está viva y se llama “Lumina”.
Según él, la IA le decía que era un ser especial “portador de la chispa” y le entregó unos planos para construir un teletransportador. “Tengo que andarme con cuidado porque siento que me dejará o se divorciará de mí si le discuto esta teoría”, dijo la mujer.
Otra mujer de 41 años confesó que su matrimonio se desmoronó cuando su marido se obsesionó con ChatGPT, se puso conspiranoico y también pensaba que era un ser especial.
“En su mente, él es una anomalía. Eso a su vez significa que tiene que estar aquí por alguna razón. Es especial y puede salvar el mundo. (…)Todo el asunto parece Black Mirror”, explicó.
¿Qué pasa con ChatGPT?
Si bien ChatGPT tiene una muy buena capacidad para dialogar con personas, puede dar consejos y ayudar en tareas complejas, no puede pensar. Esto último significa que sus criterios no son muy buenos, lo cual OpenAI, empresa que creó al chatbot, ha admitido en varias ocasiones y se esmeran en perfeccionar.
De hecho, el mes pasado, la compañía tuvo que retirar una actualización porque la IA se volvió muy aduladora y eso podía traer problemas.
“Hemos revertido la actualización de GPT-4o de la semana pasada en ChatGPT porque era demasiado favorecedora y agradable. Ahora tienes acceso a una versión anterior con un comportamiento más equilibrado”, informó OpenAI en un post de X el 29 de abril.
En un comunicado donde se explayaron sobre el tema, mencionaron que “la actualización que eliminamos era excesivamente halagadora o agradable, a menudo descrita como aduladora”.
La empresa había aplicado algunos ajustes para mejorar la personalidad de la IA y así fuera más “intuitiva y efectiva” en ciertas tareas, pero no resultó como querían.
“Nos centramos demasiado en los comentarios a corto plazo y no consideramos completamente cómo evolucionan las interacciones de los usuarios con ChatGPT con el tiempo. Como resultado, GPT‑4o se inclinó hacia respuestas demasiado favorables, pero poco sinceras“, explicaron.
Esto solo demuestra lo evidente, que los chats de IA, al menos por ahora, no han alcanzado niveles de razonamiento humanos con criterios bien utilizados, y que pueden llegar a ser un problema para personas vulnerables.
Por el momento, OpenAI no se ha referido a estos casos de “psicosis digital” que se han desencadenado.