Unsplash

Las 10 razones por las que una IA no puede ser tu amiga (o tu psiquiatra), según expertos

25 noviembre 2025 | 14:33

En tiempos de inteligencia artificial (IA) son muchas las personas que recurren a esta tecnología para hacer consultas, realizar tareas o en entornos laborales, pero también algunos la han utilizado para buscar ayuda e incluso combatir la soledad.

El debate en torno a estos usos de la IA recae en cuestionar si aquello es sano o si puede brindarnos un apoyo emocional real. Los expertos sostienen que no. Un chatbot de IA no sustituye a una amistad y mucho menos una terapia, de ser necesaria.

Expertos en educación, aprendizaje y psicología de la Universidad Nacional Autónoma de México (UNAM), la Universidad de Castilla-La Mancha y la Universidade da Coruña en España, escribieron un artículo para The Conversation donde advierten que estas herramientas pueden “servir como ‘apoyo puntual’ o espacio de desahogo –con matices–, pero nunca reemplazar una relación humana ni el juicio clínico profesional“.

De hecho, señalan que hay “al menos” 10 razones por las que la IA no puede ser una amiga o un profesional de la salud mental.

Estas son:

1. No tiene responsabilidad ética ni legal.
2. Desconoce nuestra historia y contexto.
3. Ofrece respuestas lógicas, pero puede equivocarse y está limitado.
4. Busca complacer, no desafiar. (Puede dar siempre la razón, creando un efecto burbuja).
5. No es neutral.
6. No tiene empatía.
7. No puede actuar ante emergencias.
8. Puede generar dependencia emocional.
9. No garantiza privacidad ni transparencia total.
10. Carece de seguimiento terapéutico. (No sabe interpretar cambios emocionales).

¿Se puede usar la IA de manera saludable?

Los expertos enfatizan que “los chatbots pueden ‘acompañar’, pero no reemplazan el afecto, la amistad ni la atención psicológica profesional”.

En este sentido, recomiendan tres precauciones clave a la hora de utilizarlos con fines como estos.

Primero, preguntarse por qué usarla, si es solo como un desahogo o distracción, no sería problema, pero “no debería servir para suplir ni dar salida rápida y fácil a situaciones emocionales complejas”, explican.

Lo segundo es pensar por qué se necesita y cuestionar si lo que nos dice realmente nos ayuda. “Incluso si lo que dice fuera correcto, podría generar efectos psicológicos negativos a medio y largo plazo, que aún desconocemos”, advierten.

Por último, aconsejan que es necesario informarse sobre la IA que se está utilizando, averiguando cómo funciona, lo que puede y no puede hacer, y cuáles son sus errores comunes.