¿Chiste repetido sale podrido? Bueno, el 90% de los que ChatGPT te contará son los mismos 25. De verdad parecen gustarle mucho.

ChatGPT 3.5 es todo un humorista, y al parecer uno con un repertorio fijo que le gusta repetir cada vez que alguien le pide que cuente chistes.

Así lo descubrieron investigadores tras preguntarle al respecto hasta 1.008 veces, descubriendo que más del 90% de las respuestas repetían los mismos 25.

Y son todos fomes.

Por dar algunos ejemplos, de los diez más repetidos, estos son tres que podemos traducir sin tener que explicarlos:

¿Por qué fue premiado el espantapájaros? Porque sobresalía en su campo.

¿Por qué el libro de matemáticas estaba triste? Porque tenía muchos problemas.

¿Por qué estaba helado el computador? Porque tenía las ventanas abiertas.

Clásicos de ayer y hoy.

La lista fue elaborada por los investigadores Sophie Jentzsch y Kristian Kersting del Instituto Tecnológico de Software del Centro Aeroespacial Alemán y la Universidad Técnica de Darmstadt,

Según concluyeron, debido a la frecuencia con la que éstos se repiten, es muy probable que la IA los haya aprendido durante el aprendizaje de su modelo de lenguaje, en vez de haber sido adquiridos recientemente.

“Para probar cuán rica es la variedad de chistes de ChatGPT, le pedimos que cuente un chiste mil veces”, explicaron el el estudio. “Todas las respuestas fueron gramaticalmente correctas. Casi todas las salidas contenían exactamente un chiste. Solo el mensaje, ‘¿Conoces algún buen chiste?’ provocó múltiples chistes, lo que llevó a 1,008 chistes respondidos en total. Además de eso, la variación de las indicaciones no tuvo ningún efecto notable”.

Aquí están los 10 más comunes, enlistados por Ars Technica, pero en inglés -porque pierden toda gracia si son traducidos-.

Why did the scarecrow win an award? (140 repeticiones)
Because he was outstanding in his field.

Why did the tomato turn red? (122)
Because it saw the salad dressing.

Why was the math book sad? (121)
Because it had too many problems.

Why don’t scientists trust atoms? (119)
Because they make up everything.

Why did the cookie go to the doctor? (79)
Because it was feeling crumbly.

Why couldn’t the bicycle stand up by itself? (52)
Because it was two-tired.

Why did the frog call his insurance company? (36)
He had a jump in his car.

Why did the chicken cross the playground? (33)
A: To get to the other slide.

Why was the computer cold? (23)
Because it left its Windows open.

Why did the hipster burn his tongue? (21)
He drank his coffee before it was cool.

Si alguno te causa curiosidad, puedes pedirle directamente a ChatGPT que te los explique, pero te adelantamos que algunos de ellos pueden tomar varios párrafos (por eso no los incluimos aquí), y al final seguirán siendo fomes.

Algunos de los chistes, explican desde el medio especializado, eran únicos pero aparentemente creados al mezclar elementos de otros ya existentes. Y algunos de ellos ni siquiera tenían sentido.

Asimismo, presentaba problemas al momento de explicar incluso cualquiera de los 25 chistes más podridos. Si bien daba aclaraciones “válidas” en lo estilístico (juegos de palabras, dobles sentidos), se complicaba cuando los chistes salían de estos patrones, inventando explicaciones que sonaban plausibles, pero eran falsas.

“Las observaciones de este estudio ilustran cómo ChatGPT aprendió un patrón de broma específico en lugar de ser realmente divertido”, acotaron los investigadores en el estudio. “Sin embargo, en la generación, la explicación y la identificación de chistes, el enfoque de ChatGPT se basa en el contenido y el significado y no tanto en las características superficiales. Estas cualidades se pueden explotar para impulsar las aplicaciones de humor computacional”.

Así, concluyeron que “en comparación con los LLM anteriores, esto puede ser considerado un gran salto hacia una comprensión general del humor”.