Señor director:
El producto final de cualquier proceso de producción de bienes y servicios depende directamente de la calidad de las materias primas que participan en su fabricación, esto se da en todo orden de cosas, desde la elaboración de un plato de comida, elaboración de un fármaco, hasta los productos de alta tecnología, la regla es “buenos ingredientes, buenos productos”. Por ello, las grandes industrias ponen el foco de su producción en la utilización de materias primas que permitan el correcto desarrollo de sus productos.
La calidad de la materia prima constituye la base del proceso industrial. Por eso la expresión “basura que entra, basura que sale”, frase acuñada en 1957 por William Mellin, en el ámbito informático, para explicar que los computadores no pueden pensar y que “programar de forma descuidada” las entradas inevitablemente dirigen a resultados incorrectos.
Para decirlo en un lenguaje actual, el valor que obtiene de un sistema es tan bueno como los datos que se ingresan en él. Esto último es importante, ya que el uso cada vez más masivo de la Inteligencia Artificial (IA), hay que tener ciertos resguardos, ya que los modelos de IA funcionan entrenándose con grandes cantidades de datos de Internet. Pero como la IA se utiliza cada vez más para producir páginas web, llenas de contenido basura, ese proceso corre el riesgo de verse afectado.
En una investigación reciente, publicado en julio del 2024 en la revista Nature, muestra que la calidad de los resultados del modelo se degrada gradualmente cuando la IA se entrena con datos generados por ella. Es decir, a medida que los modelos posteriores producen resultados que se utilizan como datos de entrenamiento para modelos futuros, el efecto empeora.
El investigador a cargo del estudio Dr. Shumailov, lo compara como el proceso de hacer fotos de fotos, es decir, si escaneas una foto, luego la imprimes y vuelves a escanearla y respetes este proceso, terminaras con una foto negra.
La idea a futuro es que los modelos de IA, le den más pesos a los datos originales generados por los humanos, filtrando de internet los contenidos generados por humanos, en relación con los generados por la IA, para mejorar las respuestas. Por eso hay que tener cuidado sobre lo que es verdadero o falso en las respuestas de las plataformas de inteligencia artificial.
Volviendo al título de este artículo, a modo de ejemplo, preguntaré por mí, a chatGPT: “Pedro Palominos Belmar es un abogado chileno conocido por su participación en el ámbito académico y en la defensa de los derechos humanos. Ha sido profesor de Derecho Penal y Criminología, y es reconocido por su trabajo en temas relacionados con la justicia penal y la protección de los derechos fundamentales”.
Finalmente, preguntaré a la última plataforma estrella DeepSeek: “Es un académico e investigador conocido por su trabajo en el ámbito de la filosofía y la teoría política(…)”.
En fin, por hoy no seguiré preguntando por mí en las plataformas de IA, para no tener una crisis de identidad.
Por Pedro Palominos Belmar
Director del Smart City Lab, Universidad de Santiago
