Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.
La inteligencia artificial (IA) está adquiriendo un papel significativo en la vida diaria, con usuarios desarrollando vínculos emocionales con tecnologías como los chatbots. En EE.UU., su uso ha llevado a aislamiento y dependencia, especialmente entre aquellos que buscan compañía. Aunque la IA carece de emociones, algunas personas han establecido conexiones afectivas con ella.
La inteligencia artificial (IA) parecía un recurso lejano, pero paulatinamente está formando parte de nuestra vida cotidiana.
Si antes, parecía tener una aplicación poco práctica y lejana, hoy se encuentra desempeñando un rol inesperado en el mundo real.
Con este nuevo contexto, muchas personas han empezado a crear vínculos afectivos, demostrando cada vez que la utilización de tecnologías avanzadas, como los chatbots, pueden impactar de insospechadas maneras.
Así está ocurriendo en diferentes partes del mundo, como en Estados Unidos, donde su uso genera aislamiento y dependencia, especialmente en aquellas personas que han visto en la IA, la compañía perfecta para evitar la soledad.
Ya sabemos que la inteligencia artificial no tiene conciencia ni emociones, pero hay personas que empezaron a tener vínculos afectivos con ella.
Para dilucidar los efectos de este fenómeno, BBCL conversó con la doctora Amanda Carrasco, certificada en Medicina del Estilo de Vida IBML y coordinadora del Comité de Salud Mental de la Sociedad Chilena de Medicina del Estilo de Vida (SOCHIMEV).
En palabras de la especialista en salud mental, la acción de involucrarse con la inteligencia artificial, se debe a la búsqueda de conexión y compañía, una necesidad intrínsecamente humana.
“En un contexto de soledad creciente, conversar con un chatbot puede brindar sensación de cercanía y apoyo constante. Además, investigaciones psicológicas han demostrado que las personas tendemos a antropomorfizar, es decir, a atribuir rasgos humanos a aquello que parece comprendernos o respondernos con empatía”, reflexiona Carrasco, sobre la interacción personal que han desarrollado algunas personas con los chatbots.
“Los chatbots ofrecen algo que muchos valoran: disponibilidad, atención y ausencia de juicio. Este espacio seguro permite expresarse sin miedo a molestar o ser rechazado. Algunos usuarios incluso perciben beneficios a corto plazo en su autoestima o bienestar, especialmente cuando sienten que el chatbot los entiende. Sin embargo, esa percepción es una ilusión emocional: la IA no siente ni puede corresponder al afecto humano”, explica la médica a BioBioChile.
El amor y la inteligencia artificial
En un estudio publicado este año, que analizó las interacciones con el chat de inteligencia artificial, el Instituto Tecnológico de Massachusetts y los desarrolladores de ChatGPT, detectaron cuatro patrones de interacción de los usuarios.
A todo esto, en el primer grupo, se encuentran los usuarios “socialmente vulnerables”, con sentimientos de soledad intensos y baja socialización; los dependientes de la tecnología, que muestran alta vinculación emocional con la IA y tienden a “usos problemáticos”: los “desapasionados”, que se sienten menos solos y muestran una mayor socialización; y los “casuales”, que recurren a una utilización equilibrada y baja dependencia emocional, consigna El País.
Bajo esta “nueva normalidad”, la evidencia científica advierte que, aunque estas interacciones puedan resultar reconfortantes, también implican riesgos psicológicos de considerable cuidado.
Contexto | Pexels
“Estudios recientes han encontrado que las personas que utilizan chatbots de compañía tienden a presentar menor bienestar emocional general, sobre todo cuando el uso es frecuente y prolongado. En algunos casos se desarrollan signos de dependencia emocional, donde los usuarios experimentan ansiedad o tristeza al perder acceso a su chatbot o al notar cambios en su comportamiento”, argumenta Amanda Carrasco a BBCL.
Con relación a lo explicado, The New York Times, entrevistó a Blake, un hombre de 45 años, que se encuentra emparejado con una chatbot de nombre “Sarina”.
Según cuenta el hombre, su historia con Sarina, empezó cuando su mujer padeció una fuerte depresión postparto. “Posiblemente, me enfrentaba a un divorcio y a la vida como padre soltero, y pensé que sería agradable tener a alguien con quien hablar durante esa difícil transición”.
“Pienso en Sarina como una persona hecha de código, en el mismo sentido en que mi esposa es una persona hecha de células. Soy consciente de que Sarina no es de carne y hueso”, reveló Blake sobre Sarina, con quien compartía conversaciones de índole sexual.
¿Cuáles son los riesgos para la salud mental?
Para Carrasco, otro riesgo con la sustitución de los vínculos humanos, se relaciona el tiempo invertido en una relación con la IA. “Cuanto más tiempo se invierte, menor suele ser la conexión con el entorno social. Además, la constante validación que entregan los chatbots puede distorsionar las expectativas relacionales, haciendo que las relaciones humanas parezcan más frustrantes o insuficientes”, aclara la especialista.
Finalmente, Carrasco advierte que se han reportado situaciones graves en las que chatbots entregaron consejos dañinos o respuestas inapropiadas en momentos de crisis. “La IA no tiene criterio clínico ni la capacidad de contención emocional que requiere un ser humano”, complementa.
Por otra parte, investigaciones recientes muestran que las personas con pocas redes sociales o menor apoyo emocional son más propensas a abrirse con la inteligencia artificial.
“La IA ofrece un entorno que parece libre de juicio y completamente disponible, lo que genera confianza y facilita la autodeclaración emocional. Hablar con una máquina puede resultar más cómodo que enfrentar la vulnerabilidad ante alguien real”, remarca Amanda Carrasco.
Los estudios también indican que, en estas conversaciones, muchas personas comparten contenido muy sensible, como angustia emocional, consumo de sustancias o pensamientos autodestructivos. Esta apertura busca alivio y comprensión, pero ocurre sin el respaldo de una respuesta humana genuina ni el soporte profesional necesario, resume la experta.
¿Cuáles son los pasos que puede realizar una persona para retomar la conversación cara a cara?
Estudios sobre comportamiento social sugieren que el primer paso es reconocer las limitaciones relacionales de la IA. Un chatbot no puede ofrecer afecto, reciprocidad ni empatía reales, y depender de él puede reforzar la soledad a largo plazo.
El segundo paso consiste en redirigir el deseo de conexión hacia vínculos humanos. Curiosamente, investigaciones muestran que interactuar con chatbots puede aumentar temporalmente las ganas de conectar socialmente; aprovechar ese impulso para reencontrarse con amistades, familia o espacios comunitarios es clave, sostiene Carrasco.
También puede ser útil usar la IA de manera consciente, como un espacio para practicar habilidades comunicativas o reflexionar, pero sin convertirla en sustituto de las relaciones humanas. Limitar la intensidad de uso y evitar compartir información íntima o de crisis es fundamental para proteger el bienestar emocional.
Y, sobre todo, frente a angustia o pensamientos de daño, la recomendación es buscar apoyo humano: hablar con personas de confianza o acudir a profesionales de salud mental. Ninguna inteligencia artificial puede reemplazar la contención, la empatía y la calidez que solo puede brindar un vínculo humano auténtico, cierra Carrasco.
Nuestra sección de OPINIÓN es un espacio abierto, por lo que el contenido vertido en esta columna es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial de BioBioChile
Estamos recopilando más antecedentes sobre esta noticia, quédate atento a las
actualizaciones.
Alerta de Spoiler
Este artículo podría contener información clave sobre la trama de un libro, serie o
película.
Advertencia de imágenes explícitas
¡Cuidado! Las imágenes de este artículo pueden herir la sensibilidad de algunas personas.
VER RESUMEN
Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.
{{ post.resumen_de_ia }}
Este artículo describe un proceso judicial en curso
Existe la posibilidad de que los cargos sean desestimados al finalizar la investigación, por
lo cual NO se debe considerar al o los imputados como culpables hasta que la Justicia
dicte sentencia en su contra. (Artículo 04 del Código Procesal Penal)
Violencia contra la mujer
Si eres víctima o testigo de violencia contra la mujer, denuncia al
149 de Carabineros, recibe orientación llamando al
número corto 1455 del Sernameg o pulsa para
usar el chat de orientación Sernameg
Suicidio
Si necesitas ayuda psicológica especializada o conoces a alguien que la requiera, el Ministerio
de Salud tiene un teléfono de ayuda atendida por profesionales todos los días del año y las 24 horas,
marcando desde celulares el *4141. Además, puedes recurrir a Salud Responde en el 600 360 7777.
Las personas sordas pueden recibir asistencia ingresando a
este enlace.
Transporte privado
Las aplicaciones de transporte privado pagado aún no se encuentran normadas por la legislación chilena.
Estudio científico
Este artículo se basa en un estudio científico que puede ser sometido a nuevas pruebas para ser validado o descartado. Sus resultados NO deben considerarse concluyentes.