VER RESUMEN

Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.

Expertos advierten que los chatbots de inteligencia artificial (IA) no pueden reemplazar relaciones humanas ni la ayuda profesional en salud mental. Destacan que la IA carece de ética, empatía y no puede interpretar cambios emocionales, entre otros aspectos. A pesar de que los chatbots pueden acompañar, no deben usarse como única solución para problemas emocionales complejos.

En tiempos de inteligencia artificial (IA) son muchas las personas que recurren a esta tecnología para hacer consultas, realizar tareas o en entornos laborales, pero también algunos la han utilizado para buscar ayuda e incluso combatir la soledad.

El debate en torno a estos usos de la IA recae en cuestionar si aquello es sano o si puede brindarnos un apoyo emocional real. Los expertos sostienen que no. Un chatbot de IA no sustituye a una amistad y mucho menos una terapia, de ser necesaria.

Expertos en educación, aprendizaje y psicología de la Universidad Nacional Autónoma de México (UNAM), la Universidad de Castilla-La Mancha y la Universidade da Coruña en España, escribieron un artículo para The Conversation donde advierten que estas herramientas pueden “servir como ‘apoyo puntual’ o espacio de desahogo –con matices–, pero nunca reemplazar una relación humana ni el juicio clínico profesional“.

De hecho, señalan que hay “al menos” 10 razones por las que la IA no puede ser una amiga o un profesional de la salud mental.

Estas son:

1. No tiene responsabilidad ética ni legal.
2. Desconoce nuestra historia y contexto.
3. Ofrece respuestas lógicas, pero puede equivocarse y está limitado.
4. Busca complacer, no desafiar. (Puede dar siempre la razón, creando un efecto burbuja).
5. No es neutral.
6. No tiene empatía.
7. No puede actuar ante emergencias.
8. Puede generar dependencia emocional.
9. No garantiza privacidad ni transparencia total.
10. Carece de seguimiento terapéutico. (No sabe interpretar cambios emocionales).

¿Se puede usar la IA de manera saludable?

Los expertos enfatizan que “los chatbots pueden ‘acompañar’, pero no reemplazan el afecto, la amistad ni la atención psicológica profesional”.

En este sentido, recomiendan tres precauciones clave a la hora de utilizarlos con fines como estos.

Primero, preguntarse por qué usarla, si es solo como un desahogo o distracción, no sería problema, pero “no debería servir para suplir ni dar salida rápida y fácil a situaciones emocionales complejas”, explican.

Lo segundo es pensar por qué se necesita y cuestionar si lo que nos dice realmente nos ayuda. “Incluso si lo que dice fuera correcto, podría generar efectos psicológicos negativos a medio y largo plazo, que aún desconocemos”, advierten.

Por último, aconsejan que es necesario informarse sobre la IA que se está utilizando, averiguando cómo funciona, lo que puede y no puede hacer, y cuáles son sus errores comunes.