Como moraleja, confundir escalamiento con inteligencia es un grave error que puede comenzar a frenar significativamente el avance y desarrollo futuro de la IA.

En el debate público nacional e internacional sobre Inteligencia Artificial (IA) se repite con insistencia una idea sin mucha base: que el avance de la IA depende fundamentalmente de disponer de más y mejor supercómputo. Sin embargo, esta afirmación dice menos sobre el estado real de la ciencia/tecnología y más sobre los incentivos económicos de quienes dominan el ecosistema tecnológico actual y en particular, los proveedores de infraestructura. No se trata de una conclusión científica inevitable, sino de una narrativa funcional a un modelo de negocio.

El problema es que incluso algunas instituciones en Chile han comenzado a invertir bastantes recursos para instalar infraestructura de supercómputo para IA, sin tener mucha claridad de los problemas reales ni su real justificación.

Las empresas que lideran la provisión de hardware y servicios de cómputo de alto rendimiento (i.e., fabricantes de GPUs como NVIDIA, centros de datos y plataformas Cloud) tienen un interés directo en asociar el progreso de la IA con la expansión constante de infraestructura.

Así, la inteligencia parece convertirse en una simple cuestión de escala: más datos, más parámetros, más máquinas. El problema es que esta lógica confunde deliberadamente dos planos distintos: la capacidad de llevar ciertas tecnologías al mercado y el avance científico-tecnológico de la IA.

Históricamente, los principales avances de la IA en los últimos 70 años no han surgido de incrementos en poder de cómputo, sino de nuevas ideas sobre representación de conocimientos, razonamiento, aprendizaje y toma de decisiones. El supercómputo puede amplificar y/o masificar resultados, pero no introduce por sí mismo comprensión, modelos del mundo ni causalidad. Presentarlo como el motor central del progreso intelectual desplaza el foco desde los problemas fundamentales (i.e., construir sistemas que comprendan, razonen y actúen de forma confiable, como también la IA general o AGI) hacia una carrera de infraestructura que beneficia a pocos actores y empobrece el debate científico.

Aceptar sin cuestionamiento que “más supercómputo equivale a más inteligencia” no solo es falso, sino también peligroso. Esto reduce la discusión sobre el futuro de la IA a una lógica de inversión y escala, invisibilizando los límites estructurales de los sistemas actuales y postergando las preguntas realmente importantes.

La IA como disciplina no avanza por decreto de hardware, y confundir intereses comerciales con fundamentos científicos es un error que conviene señalar antes de que se convierta en dogma.

Cuando escalar no es avanzar: la confusión entre tamaño e inteligencia en la IA

Escalar sistemas de IA, en particular aquellos bajo el paradigma de la IA generativa, ha demostrado ser eficaz para mejorar ciertos indicadores visibles: fluidez del lenguaje, cobertura temática o rendimiento en benchmarks estandarizados.

Sin embargo, estos avances cuantitativos no implican necesariamente un progreso cualitativo en comprensión, razonamiento o confiabilidad. Aumentar parámetros de los modelos tales como los LLM (Large Language Models) puede reducir errores superficiales, pero no introduce por sí mismo conocimiento del mundo, causalidad ni capacidad de distinguir lo verdadero de lo plausible.

Una consecuencia de ello es que problemas fundamentales tales como las “alucinaciones” en LLM no se pueden resolver adquiriendo mayor infraestructura pues son características intrínsecas a los modelos y cuya solución requiere investigar y desarrollar nuevos paradigmas.

La confusión entre escalar y avanzar resulta especialmente problemática cuando se presenta como una trayectoria inevitable hacia la AGI (IA General). La historia de la IA muestra que los verdaderos saltos conceptuales no han surgido de sistemas más grandes, sino de nuevas formas de representar el conocimiento, de integrar percepción y acción, o de formalizar el razonamiento.

En ese contexto, la insistencia en que “más es mejor” desplaza la atención desde los límites estructurales de los sistemas actuales hacia una carrera de crecimiento que no aborda sus debilidades fundamentales.

Lo anterior también cumple una función económica clara: convierte el progreso en una variable medible en inversión e infraestructura, reforzando la idea de que la IA es, ante todo, un problema de recursos. Pero reducir la inteligencia a una cuestión de escala no solo empobrece el debate científico, sino que genera expectativas poco realistas sobre lo que estos sistemas pueden ofrecer en contextos críticos, donde la confiabilidad y la comprensión importan más que la apariencia de competencia.

Los problemas que la IA aún no resuelve

A pesar del rápido despliegue de sistemas y tecnologías de IA en múltiples áreas, existe un consenso creciente en la comunidad científica: los principales límites de la IA actual no son técnicos en el sentido computacional, sino conceptuales. Más capacidad de cómputo ha permitido modelos más grandes y vistosos, pero no ha resuelto los problemas centrales que definen qué entendemos por inteligencia.

Uno de los más relevantes es la ausencia de modelos del mundo. En el paradigma de los sistemas de IA generativa no se posee una representación interna de cómo funciona la realidad física, social o causal, como si pasa en el paradigma de IA basada en conocimiento (knowledge-based systems).

Lee también...
Trampas en la adopción de la IA en las empresas Miércoles 03 Septiembre, 2025 | 11:30

Además, estos sistemas no entienden relaciones de causa y efecto ni pueden razonar sobre consecuencias de sus acciones. En lugar de ello, operan reconociendo patrones “estadísticos” en grandes volúmenes de datos, lo que explica su fluidez, pero también sus errores sistemáticos y “alucinaciones”.

Lo anterior está relacionado a tres desafíos fundamentales que se deben abordar:

1) Falta de comprensión semántica. Aunque estos sistemas producen respuestas plausibles, no tienen criterios internos para distinguir verdad de falsedad. Además, estos no saben cuándo están equivocados ni pueden justificar sus conclusiones de forma verificable y consistente. Este límite no desaparece al aumentar el tamaño del modelo, porque no es un problema de potencia, sino de arquitectura y representación del conocimiento.

2) Razonamiento confiable. A diferencia de los sistemas clásicos de razonamiento formal en IA basada en conocimiento, la IA generativa no garantiza coherencia lógica ni consistencia entre respuestas. Esto plantea riesgos evidentes en ámbitos como la salud, la justicia o la ingeniería, donde la corrección importa más que la apariencia de competencia. La confiabilidad sigue dependiendo de capas externas de control, validación humana o sistemas híbridos, no del modelo en sí.

3) Agencia y la autonomía real. Los sistemas actuales no tienen objetivos propios ni comprensión del contexto en el que operan. Estos carecen de intención, responsabilidad y capacidad de aprendizaje estructurado a partir de la experiencia en el mundo. Sin estos elementos, hablar de AGI sigue siendo, por ahora, una extrapolación más que una realidad científica.

Estos problemas no son nuevos ni desconocidos pues han sido discutidos durante décadas en la investigación en IA. No obstante, hoy corren el riesgo de quedar eclipsados por el énfasis en el escalamiento y el despliegue comercial. Mientras no se aborden estas limitaciones fundamentales, el progreso de la IA seguirá siendo impresionante en apariencia, pero frágil en su comprensión del mundo que pretende modelar.

Como moraleja, confundir escalamiento con inteligencia es un grave error que puede comenzar a frenar significativamente el avance y desarrollo futuro de la IA.

Así, el desafío central de la IA no es cuán grande puede ser un modelo, sino qué tipo de comprensión es capaz de construir. Mientras esa distinción no se haga explícita, el debate seguirá girando en torno al tamaño de las máquinas, en lugar de la naturaleza de la inteligencia que decimos querer desarrollar.