La verdadera ventaja competitiva hoy no es usar la IA, sino tener la formación y la suspicacia para saber cuándo la IA se equivoca —porque puede hacerlo—.

A estas alturas, nadie puede negar que los modelos de lenguaje (LLM) son una maravilla. Como usuario asiduo, me sigo asombrando cuando en tres segundos obtengo una estructura de proyecto o un análisis que antes tomaba horas.

Pero hay una trampa en ese asombro. Estamos cayendo en la cultura del SISP (Solution in Search of a Problem): nos enamoramos del “chiche” tecnológico y queremos que todo sea un clavo para nuestro martillo de IA, olvidando que los problemas reales suelen ser mucho más complejos y frágiles.

Lee también...

El peligro no es la herramienta, sino nuestro abandono ante ella. Los LLM funcionan bajo una dictadura probabilística: nos entregan el “promedio” de lo que la humanidad ha escrito, con una elocuencia que desarma, y dado que aciertan el 95% de las veces, nos estamos relajando, pues estamos dejando de auditar los resultados.

En esa confianza ciega aparece la alucinación silenciosa: ese error que no parece error, que suena lógico y verosímil, pero que es técnicamente falso.

Si no hay un experto detrás revisando cada coma, cualquier pequeño error puede quedar incluido en la base de nuestras decisiones, lo que redunda, no en un riesgo que crece poco a poco, sino en un error que se acumula necesariamente y de forma exponencial.

Tomás de Aquino, en tiempos muy anteriores a la tecnología actual, ya sentenciaba, que “la más mínima desviación inicial de la verdad se multiplica después por mil”. Por eso, cada decisión no auditada es un ladrillo podrido, porque al final, corremos el riesgo de liderar proyectos que son simplemente una fachada, es decir, que se ven impecables en la superficie, pero carecen de la sustancia técnica necesaria para soportar la realidad. Un proyecto que ignora ese 5% de “casos de borde” —esos que la IA no ve porque se salen del promedio— está destinado a fallar cuando las papas queman.

Actualmente estamos confundiendo eficiencia con efectividad, pues la IA nos hace rápidos (eficientes), pero nada puede reemplazar al criterio humano en su asertividad (efectivos). Aquí es donde debemos rescatar el valor de la suspicacia.

En efecto, tenemos que reivindicar el derecho a dudar, a tener esas discusiones incómodas que enriquecen los proyectos. La IA nos entrega una respuesta plana, y somos nosotros los que, a través de la duda y el contraste, le damos profundidad y seguridad a esa solución.

No escribo esto desde el púlpito de la sabiduría, al contrario, lo hago desde la inquietud de quien busca, de forma reflexiva, hacer las cosas bien. Y por eso mi llamado no es a dejar de usar la IA; al contrario, es a usarla más, pero con una auditoría interna implacable.

No permitamos que la ansiedad por ser “AI First” nos convierta en operadores de una caja negra que no cuestionamos. La verdadera ventaja competitiva hoy no es usar la IA, sino tener la formación y la suspicacia para saber cuándo la IA se equivoca —porque puede hacerlo—.

Pastelero a tus pasteles: usemos la tecnología para potenciar nuestra capacidad, pero nunca reemplacemos la discusión humana por un resultado automático, pues al final del día, la efectividad de una solución sigue dependiendo de que alguien tenga la valentía de preguntar: “¿Y qué pasa si esto está mal?”.

Rafael Cereceda
Académico de la Facultad de Ingeniería y Ciencias UAI.

Maite Cereceda Martínez
Observatorio para la Familia USS.

Nuestra sección de OPINIÓN es un espacio abierto, por lo que el contenido vertido en esta columna es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial de BioBioChile