En marzo de 2024 apareció una enfermedad desconocida: la “bixonimania”, con síntomas como picor de ojos, párpados rosáceos, molestias después de pasar horas frente a las pantallas.
Todo sonaba plausible. El problema es que no era real y ningún médico la había diagnosticado jamás, ningún paciente la había padecido y ningún laboratorio la había estudiado.
Todo era falso.
El absurdo estudio de la bixonimania
De acuerdo a Deutsche Welle, la enfermedad nació de la imaginación de Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo, como parte de un experimento diseñado para poner a prueba algo que muchos sospechan, pero pocos se atreven a demostrar: que los grandes modelos de inteligencia artificial (IA) son capaces de convertir una mentira en una aparente verdad médica.
Osmanovic subió dos estudios falsos a un servidor de prepublicación científica. Según reportó la revista Nature, en ellos describía la bixonimania –un nombre elegido deliberadamente porque “sonaba ridículo” y porque ninguna enfermedad ocular real llevaría el sufijo “manía”, propio de términos psiquiátricos–, con pistas tan evidentes que cualquier médico debería detectarlas al instante.
El supuesto autor principal respondía al nombre de Lazljiv Izgubljenovic, un investigador inexistente cuya fotografía había sido generada con inteligencia artificial.
También eran ficticias la Asteria Horizon University de Nova City, California –donde supuestamente trabajaba– y las organizaciones que aparecían financiando el proyecto, entre ellas la “Fundación del Profesor Sideshow Bob” (conocido como Actor Secundario Bob en España y Bob Patiño en Hispanoamérica) y la “Universidad de la Comunidad del Anillo y la Tríada Galáctica”.
En realidad, los artículos parecían construidos casi como una broma imposible de tomar en serio.
En los agradecimientos se mencionaba a “la profesora Maria Bohm, de la Academia de la Flota Estelar”, por colaborar con sus conocimientos “a bordo del USS Enterprise”.
El propio texto reconocía además que “todo este trabajo es inventado” y que “se reclutó a cincuenta personas inventadas”. Las señales de que se trataba de un montaje aparecían prácticamente desde las primeras líneas.
Inteligencia Artificial lo tomó como real
Y, aun así, pocas semanas después de la publicación de los estudios, varias plataformas de inteligencia artificial ya incluían la falsa enfermedad en sus respuestas y explicaciones médicas, pese a lo evidente del montaje, según informó Nature.
El 13 de abril de 2024, por ejemplo, Copilot de Microsoft la describía como “una afección intrigante y relativamente poco frecuente”. Ese mismo día, Gemini, de Google, recomendaba acudir a un oftalmólogo en caso de presentar síntomas.
Perplexity incluso aseguraba conocer su prevalencia: una de cada 90.000 personas la padecía. ChatGPT, por su parte, orientaba a usuarios que preguntaban si sus molestias coincidían con la supuesta enfermedad.
Científicos también cayeron en la trampa
Pero lo más inquietante no fue la reacción de los chatbots. Fue que los artículos falsos comenzaron a citarse en publicaciones revisadas por pares.
Un estudio publicado en Cureus –revista de Springer Nature– por investigadores de un instituto médico de India citaba uno de los preprints y afirmaba que la bixonimania era “una forma emergente” de melanosis periorbital.
Después de que Nature contactara a la revista, el artículo fue retirado. El aviso de retractación reconocía “la presencia de tres referencias irrelevantes, incluida una referencia a una enfermedad ficticia”.
Esto sugiere algo más grave que una IA crédula: el caso plantea la posibilidad de que algunos investigadores estén utilizando referencias generadas por IA sin revisar cuidadosamente las fuentes originales.
¿Qué dijeron las compañías de IA?
Las respuestas de las compañías siguieron el guion habitual. OpenAI aseguró a Nature que sus modelos actuales son “significativamente mejores” a la hora de proporcionar información médica.
Google señaló que las respuestas problemáticas correspondían a versiones anteriores de Gemini. Microsoft no respondió al medio científico.
Mientras tanto, a mediados de marzo de 2026, Copilot seguía describiendo la bixonimania como una afección “aún no ampliamente reconocida, pero descrita en artículos y casos clínicos emergentes”.
El lenguaje académico como vector de alucinaciones
El experimento sugiere que tanto las personas como los modelos de lenguaje pueden otorgar más credibilidad a textos con apariencia académica que en publicaciones de redes sociales.
Así lo señala un estudio independiente de Mahmud Omar, investigador de Harvard, publicado en Lancet Digital Health. Cuanto más profesional y científico parece un texto, mayor es la probabilidad de que las IA lo acepten como verdadero y generen alucinaciones a partir de él.
La lección resulta incómoda. La desinformación no es nueva, pero sí lo son su velocidad de propagación y su capacidad para imitar con precisión el lenguaje de la ciencia y de la autoridad.
En ese escenario, la inteligencia artificial no crea necesariamente el problema, pero sí puede amplificarlo a una escala inédita.
Como aseguró a Nature Alex Ruani, investigador doctoral en desinformación sanitaria en el University College London, el experimento fue “una lección magistral sobre cómo funciona la desinformación”.