Expertos advierten que el uso de inteligencia artificial (IA) puede afectar nuestras habilidades cognitivas, al hacernos pensar menos, y diversos estudios lo han demostrado. Acá te explicamos algunos.

Sí, usar la inteligencia artificial (IA), incluso para tareas simples, puede volverte más tonto y lo dice la ciencia. Resulta que, desde que se volvió más accesible con la llegada de los chatbots, los científicos han estado investigando sus efectos en los humanos.

De hecho, algunos ya apuntan a que esta tecnología podría causar un efecto corrosivo en las capacidades mentales de las personas, por el simple hecho de que nos hace pensar menos. En simple, trabajamos menos el cerebro.

Ramón López de Mántaras, uno de los pioneros de la inteligencia artificial (IA) más importantes de España y Europa, sacó el tema a colación en enero pasado cuando estuvo en Chile para el Congreso Futuro.

En entrevista con BiobioChile dijo que, especialmente los chatbots, sí pueden afectar a las habilidades cognitivas de la gente, porque “al delegar en la inteligencia artificial, estamos delegando también el pensar”, aseguró.

Y advirtió: “si seguimos así, a largo plazo no puedo ser optimista sobre la sociedad. Nos encontraremos con generaciones de personas casi —desde un punto de vista funcional— analfabetas de tanto usarla“.

La evidencia de ello es vasta, pero acá te compartimos 3 estudios que demuestran que estas advertencias pueden estar en lo correcto.

La IA puede volverte tonto

1. El MIT descubrió que quienes usan IA para escribir un ensayo tienen una actividad cerebral más débil.

Un estudio del Instituto Tecnológico de Massachusetts (MIT) exploró las consecuencias neuronales y conductuales de la escritura de ensayos asistida por modelos de lenguaje grandes (LLM, por sus siglas en inglés).

Los LLM son sistemas de IA avanzados, que fueron entrenados con grandes cantidades de texto y datos para comprender y generar un lenguaje humano coherente, como el popular ChatGPT y otros chatbots famosos como Gemini, Claude o Grok.

Los expertos del MIT usaron electroencefalogramas para medir la carga cognitiva durante la escritura de ensayos en los participantes del estudio. Las 54 personas que participaron fueron divididas en 3 grupos: quienes podían usar ChatGPT, quienes se apoyaron con búsquedas de Google y quienes usaron solamente su cerebro.

Uno de los hallazgos más notables fue que los usuarios de IA tuvieron menor actividad neuronal en las regiones del cerebro que tenían que ver con la creatividad, atención y procesamiento de la información. También les costó más hablar sobre el ensayo que acaban de redactar o citarlo.

Por el contrario, quienes no usaron la IA tenían el cerebro muy activo y mostraban una actividad generalizada en diversas regiones de este. Asimismo, los que usaron Google también mostraron altos niveles de actividad.

Los resultados indicaron que, al usar ChatGPT, la actividad cerebral disminuyó hasta un 55%.

2. Microsoft dice que el uso de la IA está afectando el pensamiento crítico de las personas.

Investigadores de Microsoft y de la Universidad Carnegie Mellon (Pensilvania, EE.UU.) estudiaron el uso de la IA generativa en el trabajo y encontraron que está afectando el pensamiento crítico de las personas.

“Si bien la IA generativa puede mejorar la eficiencia del trabajador, puede inhibir el compromiso crítico con el trabajo y potencialmente conducir a una dependencia excesiva a largo plazo de la herramienta y a una disminución de la habilidad para la resolución independiente de problemas“, concluyó el estudio.

El equipo hizo una encuesta a 319 personas que admitieron usar la IA generativa al menos una vez a la semana en sus trabajos. Así determinaron que la utilizaban mayormente para 3 cosas: creación, como escribir un correo, por ejemplo; información, para investigar o resumir un artículo; y consejo, para pedir orientación o hacer gráficos a partir de datos entregados.

De todos los encuestados, solo un 36% dijeron que utilizaban su pensamiento crítico para revisar las respuestas de la IA y mejorar aspectos negativos, mientras que gran parte del grupo no sabía cómo funciona la IA para generar estas respuestas y, por lo tanto, verificaron menos y confiaron más en ella.

El estudio plantea que, al usar la IA para trabajar y la mente solo para verificar lo que generó el chatbot, los trabajadores dejan de aplicar sus habilidades de pensamiento crítico para crear, evaluar o analizar información.

Asimismo, pierden “oportunidades rutinarias para practicar su juicio y fortalecer su musculatura cognitiva, dejándolos atrofiados y desprevenidos cuando surgen las excepciones”, señala el paper.

3. Si usamos la IA, ¿quién está pensando?

El siguiente estudio realizado por investigadores de Apple, abordó una importante cuestión de la IA: su razonamiento. Recordemos que, los chatbots no pueden pensar, aun cuando lo parezca, lo que están haciendo es usar algoritmos para procesar grandes cantidades de datos, reconocer patrones y generar respuestas coherentes.

Y aunque la industria está intentando mejorar los reasoning models (modelos de razonamiento), en realidad algunos estudios han sugerido que sigue teniendo límites y el razonamiento puede incluso llegar a colapsar.

Los investigadores de Apple presentaron varios problemas a distintos modelos de razonamiento, con diferentes dificultades, y descubrieron que pueden equivocarse, sobrepensar y no “razonar” de manera consistente.

El resultado fue polémico, ya que el paper cuestionó si estos modelos realmente razonan o en realidad solo parecen hacerlo. Y si la IA no está pensando y la estamos usando para pensar menos, ¿entonces quién está pensando realmente?

Referencias:

Nataliya Kosmyna y otros autores. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Estudio de MIT Media Lab, 2025.

Hao-Ping Lee y otros autores. The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. Universidad Carnegie Mellon e investigadores de Microsoft. Conference on Human Factors in Computing Systems (CHI’25), 2025.

Parshin Shojaee y otros autores. The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity. Estudio de Apple, 2025.