Ramón López de Mántaras estuvo en Chile para presentarse en el Congreso Futuro 2026, allí habló sobre la IA, el costo humano, las cuestiones éticas y cómo los modelos generativos están afectando a los humanos.

BiobioChile conversó con Ramón López de Mántaras, uno de los pioneros de la inteligencia artificial (IA) más importantes de España y Europa. El experto investiga la IA desde 1975 y hoy critica a los grandes modelos generativos y cómo están afectando al ser humano.

Actualmente, López es profesor de investigación del Consejo Superior de Investigaciones Científicas (CSIC) en el Instituto de Investigación en Inteligencia Artificial (IIIA), que él mismo fundó y dirigió. En España, lo consideran “la eminencia” de la IA.

Y es que su trayectoria no da para menos, de hecho, es Doctor en Física por la Universidad Paul Sabatier de Toulouse (Francia), tiene un Master of Science en Informática por la Universidad de California-Berkeley (EE.UU.) y también es Doctor en Informática por la Universidad Politécnica de Cataluña.

Con todo este conocimiento, el experto vino a Chile para presentarse en el Congreso Futuro 2026, donde habló con franqueza sobre la IA y lo que realmente es. López piensa que esta tecnología que tiene embobados a los humanos “no es tan inteligente ni tan artificial” como la venden las grandes compañías.

“No puedo ser optimista sobre la sociedad. Nos encontraremos generaciones de personas casi —desde un punto de vista funcional— analfabetas de tanto usarla“, advierte.

En entrevista con el medio, apuntó a la “narrativa triunfalista” de la IA, qué es lo que está causando en los humanos, las cuestiones éticas y cuáles son los límites que habría que ponerle a su desarrollo.

Lee también...

Ni tan inteligente, ni tan artificial

—Me pareció interesante que en tu charla hablaste de “una narrativa triunfalista” de la IA, dijiste que no es ni tan inteligente ni tan artificial, ¿en qué punto está entonces?

R: Bueno, la verdad de la IA generativa en los últimos dos años y un poquito más es que en realidad estamos viendo técnicas y estadísticas muy sofisticadas, pero no comprende realmente lo que le preguntas ni comprende lo que genera su respuesta. Son patrones que ha aprendido de preguntas similares y respuestas similares a las que tú le estás preguntando. Lo que hace es recitar o regurgitar lo que ella tiene previamente.

Entonces, mi crítica es que no es realmente inteligente y tampoco tan artificial como parece, porque esto funciona gracias a las múltiples correcciones o parches para ir modificándola, que cientos de millones de personas están, pues, corrigiendo, para que la siguiente versión sea mejor que la anterior. Detectan fallas, traducciones mal hechas, preguntas con respuestas equivocadas; entonces preparan, ponen parches en realidad. Pero no hay una solución general, no existe, para que la siguiente versión cometa menos errores. O sea, cometen errores continuamente.

Y, además, como se entrenan ahora muchas inteligencias artificiales en base a los resultados que generaron otras etiquetas artificiales, cada vez los datos de entrenamiento son de menos calidad. O sea que no tiene solución, por mucho que haya humanos detrás intentando poner parches y corregir; la realidad es que las versiones más posteriores de la IA, del GPT-4 al 5, del GPT-5 al futuro GPT6, yo qué sé, lo que harán es lo contrario. Alucinarán más y tendrán todavía más errores. Porque han sido entrenadas con datos de menos calidad, que no han sido generados por humanos.

—Mencionaste que cuanto más grandes son los modelos de lenguaje, más pobres son sus resultados, ¿por qué ocurre esto?

R: Porque al hacer más grande el modelo requieren más datos de entrenamiento. Y más del 50% de los datos, o información, o textos, imágenes por las que se entrena, son erróneas. Imágenes con manos que tienen 6 o 7 dedos o caballos con 5 patas. Entonces todo esto entra en el entrenamiento de la futura inteligencia artificial. Está más grande, pero lo que hacemos es amplificar los errores. En inglés se dice garbage in, garbage out. O sea, si tú alimentas, entrenas a una IA con datos basura, datos de mala calidad, aquí no hay milagros. Lo que sale será más mala calidad todavía. Y se está haciendo como una bola de nieve que va creciendo y puede terminar colapsando. Ese es mi pronóstico.

—E igual tendemos a humanizarla, ¿por qué crees que lo hacemos? Y no solo los usuarios, los creadores también, están desarrollando inteligencias artificiales para que sean tus amigos, tu psiquiatra, etc.

R: Bueno, sí, proyectamos. Es una cosa muy inevitable y muy humana. Antropomorfizar, humanizar lo que no es humano. Hay personas que tienen unas relaciones incluso afectivas con aparatos, con dispositivos, con el coche. Con aparatos absolutamente tontos o estúpidos. O sea, que no es extraño que pase cuando interactuamos con un sistema como ChatGPT, que aparentemente parece que nos entiende, y que es un adulador.

La gente se cree que está interactuando con algo que es realmente inteligente y que incluso tiene emociones y que incluso es consciente y que se preocupa por nosotros. Por eso hay personas que lo autorizan, incluso como psicoterapeutas, creyendo que está comprendiendo el problema que tienes y que te lo va a solucionar. Eso es terrible. Esta humanización o antropomorfización de inteligencias artificiales es un error enorme. Es de gente con poco sentido común, en mi opinión, y en paralelo, el efecto colateral de esto es que cuanto más humanizas la inteligencia artificial, más te deshumanizas tú.

—¿Puede la IA afectar las habilidades cognitivas de la gente?

R: Exactamente, sí, sí. Pongamos el ejemplo de un estudiante que tiene que hacer una tarea, un ensayo sobre algo. El gran error es que lo haga ChatGPT. Eso es hacerse trampas al solitario, porque un maestro, un profesor, no le dice a un alumno “hazme un ensayo sobre yo qué sé, el imperio romano, sobre la historia de algo”, para fastidiar, lo hace para que pienses, aprendas a pensar. Es gimnasia mental, para que aprendas a expresarte por escrito u oralmente también. Tiene su función educativa. Entonces lo que no puedes hacer es delegar en la máquina todo eso. Porque ya no eres tú quien hace el esfuerzo.

Efectivamente, la cultura del esfuerzo, pues en los últimos años, independientemente ya de la IA, parece que se ha ido perdiendo poco a poco. Ahora solamente faltaba que la gente tuviera acceso a la IA para empeorar el problema. Nos esforzamos menos y delegar la escritura es delegar el pensamiento. Porque escribir es pensar. Y cuando delegamos en las máquinas estas actividades, nosotros perdemos. Afecta a estas habilidades. Perdemos en parte esas habilidades. Por ejemplo, así como estamos perdiendo la habilidad de orientarnos debido a un uso abusivo de los navegadores tipo GPS.

De la misma manera que nos afecta esta habilidad de orientarnos, al delegar en la inteligencia artificial, estamos delegando también el pensar.

—¿Y a largo plazo qué nos puede pasar como sociedad? ¿Nos vamos a hacer dependientes?

R: Si seguimos así, a largo plazo no puedo ser optimista sobre la sociedad. Nos encontraremos con generaciones de personas casi —desde un punto de vista funcional— analfabetas de tanto usarla, porque no sabrán escribir, no sabrán enfrentarse a problemas complicados, porque estarán siempre acostumbrados a que la inteligencia artificial les haya dado la respuesta. Es problemático.

Lo que hay que hacer es dieta digital y dieta también de inteligencia artificial. Dejar de usar o usar mucho menos, solamente en casos muy puntuales y vivir en un mundo más analógico, hablar cara a cara con las personas, no a través de WhatsApp. Consultar libros, consultar personas que sabemos que tienen los conocimientos antes que consultar el ChatGPT. Conversar, conversar, conversar. Es muy humano conversar. Somos seres sociales, necesitamos socializar para nuestra salud mental. Y lo que estamos haciendo es todo lo contrario. Todo esto afectará incluso nuestra salud mental.

Ramón López de Mántaras y las cuestiones éticas de la IA

En su charla en Chile, el experto abordó una de las cuestiones más oscuras de la IA: el costo humano.

Resulta que, detrás de gran parte de los modelos actuales de IA generativa, está la mano de obra de trabajadores, generalmente del Sur Global, que se ven expuestos a contenidos perturbadores y malas condiciones laborales, los llamados “moderadores”.

López critica que las grandes compañías aprovechan países de Asia, por ejemplo, para poner esta mano de obra, donde es más difícil que se pudieran regular sus condiciones laborales y el bienestar de estos trabajadores.

Los usuarios muchas veces no ven, o desconocen, estas cuestiones éticas.

—La discusión sobre el costo humano está un poco al debe, ¿qué está pasando con eso?

R: Pues se debería regular efectivamente, pero claro, por eso van a países donde no hay regulación laboral o es casi inexistente. Porque esto, por ejemplo, en ciertos países, estas empresas subcontratadas para seres humanos, que están en condiciones precarias de trabajo y ganando menos de 5 dólares al día, están corrigiendo todas estas políticas artificiales, debería prohibirse, ¿no? O sea, no debe permitirse esta explotación, esta casi esclavitud de estos humanos para que la IA funcione. Ahí hace falta que hagan regulación. Claro, países del Sur Global, tendrían que regular ellos.

—Los límites de la IA y las cuestiones éticas ya se están discutiendo hace unos años, pero sigue creciendo exponencialmente; como experto, ¿qué límites crees que hay que ponerle a su desarrollo?

R: Bueno, todo aquello que sean aplicaciones de alto riesgo, pues deben ser prohibidas. La ley de inteligencia artificial europea ya clasifica los usos de la inteligencia artificial en muy alto riesgo, alto riesgo, riesgo moderado, riesgo bajo o sin riesgo. Y lo que sea muy alto riesgo, como la biometría o el reconocimiento facial, etc. Todo esto se prohíbe.

Hay que regular de una manera bien hecha, ojalá que no sea burocráticamente muy problemático cumplir con las leyes, pero hay que hacer leyes, hay que regular. No se puede dejar a la IA, al campo libre, sin regular, que es lo que pretenden las grandes tecnológicas y lo están consiguiendo con la administración Trump, por ejemplo. Tenemos que responder a Chile, países como Chile, España.

—¿Y qué otras IA serían de alto riesgo, aparte de la biometría?

R: Bueno, hay aplicaciones de alto riesgo que tienen que ver, por ejemplo, con conflictos armados. Drones autónomos que deciden el objetivo, a quién eliminar. Eso es otra situación de alto riesgo que hay que tener en cuenta. También todo lo que tenga que ver con la manipulación de personas, que se puede manipular a nivel político a la hora de votar, la desinformación. Hay que prohibir drásticamente, y si se hace castigar legalmente, tendría que ser delito la desinformación. Y que la inteligencia artificial, aparente ser humano, eso no se debería permitir. Sistemas como el ChatGPT tendrían que advertirle continuamente al usuario: “cuidado, no te confundas, no soy una persona, soy una máquina, soy un software, por lo tanto no me trates como una persona”. Y el lenguaje que usan también se tendría que corregir, no deberían hablar como si fueran personas. Todo esto no está regulado.

—Acá en Chile está pasando que se han desarrollado algunos robots con sistemas de IA, que los llevan al quirófano y pueden apoyar a los cirujanos. ¿Eso sería un buen o mal ejemplo de su uso?

R: Ah, eso es otra cosa muy distinta y es genial. Esa es una muy buena aplicación de la IA, porque el robot no opera autónomamente, es teleoperado y por lo tanto, ahí no hay realmente tanta inteligencia artificial. Ahora, en un futuro, es probable, aunque es complicado, porque tiene que pasar muchos controles, que se permita que ciertas partes de la operación quirúrgica, como por ejemplo la incisión o coser, una vez se ha terminado la operación, sí que lo hagan de forma autónoma. Ahí ya entramos a hablar de IA y robótica.

—¿Y quiénes deberían poner los límites? ¿Los gobiernos, los expertos, deberíamos incluir a la ciudadanía en esa discusión también?

R: Los gobiernos, escuchando efectivamente a la ciudadanía y a los expertos, que no escuchen solamente a los líderes de las grandes tecnológicas que les están vendiendo humo y les están contando mentiras. Les están vendiendo una arquitectura mágica que solucionará todos los problemas. No, los gobiernos tienen que escuchar a los expertos y también consultar la opinión de la ciudadanía, tanto para el software digital como para incluso los centros de datos.

En Chile se tenía que consultar a la población sobre si quiere más centros de datos o no, que consumen mucha agua y mucha energía. Tienen que consultar a los ciudadanos, de abajo para arriba. El poder tiene que estar en la ciudadanía, en el pueblo, no en media docena de grandes tecnológicas que están en Silicon Valley. Esto es un gran error que están cometiendo muchos gobiernos.