En marzo de 2024, el ámbito médico fue testigo de una anomalía digital: el surgimiento de la bixonimania, una supuesta patología que prometía síntomas como picor de ojos, párpados rosáceos y fatiga ocular tras el uso excesivo de pantallas. Aunque el diagnóstico sonaba lógico, la realidad era que esta afección no existía, carecía de respaldo clínico y jamás fue reportada por pacientes reales.
El origen de un engaño académico
La bixonimania fue una creación deliberada de Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo. Su objetivo era comprobar si los grandes modelos de lenguaje (LLM) son capaces de validar mentiras como si fueran verdades médicas. Para ello, subió dos estudios falsos a un servidor de prepublicación científica, eligiendo el nombre bixonimania por su carácter absurdo y el uso incorrecto del sufijo psiquiátrico ‘-manía’ en un contexto ocular.
El montaje incluyó detalles disparatados, como la firma de Lazljiv Izgubljenovic, un investigador inexistente cuya foto fue generada por IA. También se inventó la Asteria Horizon University en Nova City, California. Entre las entidades financiadoras figuraban nombres tan inverosímiles como la “Fundación del Profesor Sideshow Bob” y la “Universidad de la Comunidad del Anillo y la Tríada Galáctica”, además de agradecimientos a personajes como la profesora Maria Bohm de la Academia de la Flota Estelar.
La IA cae en la trampa
A pesar de que el texto admitía explícitamente que todo el trabajo y los 50 participantes eran inventados, plataformas de IA comenzaron a tratar la información como un hecho. El 13 de abril de 2024, Copilot de Microsoft la describió como una “afección intrigante y relativamente poco frecuente”. Por su parte, Gemini recomendaba consultas oftalmológicas y Perplexity se atrevió a cifrar su prevalencia: una de cada 90.000 personas.
La situación escaló más allá de los chatbots. Investigadores de un instituto médico en la India citaron estos preprints en un artículo publicado en la revista Cureus, vinculando la bixonimania con la melanosis periorbital. Aunque el texto fue retirado tras el reporte de la revista Nature, el incidente dejó en evidencia la falta de revisión crítica en la academia al citar fuentes generadas por herramientas automatizadas.
La ciencia frente al espejo de las alucinaciones
El experimento es una lección magistral sobre cómo funciona la desinformación.
Así lo definió Alex Ruani, investigador del University College London. Por otro lado, un estudio de Mahmud Omar en Lancet Digital Health refuerza esta tesis: cuanto más profesional y técnico parece un texto, mayor es la probabilidad de que las IA generen alucinaciones creyendo en su veracidad.
Las empresas tecnológicas han respondido minimizando el impacto. OpenAI asegura que sus modelos actuales son “significativamente mejores”, mientras que Google atribuye el error a versiones antiguas de Gemini. Sin embargo, a mediados de marzo de 2026, Copilot aún describía la enfermedad como una afección “aún no ampliamente reconocida”. La gran duda que queda abierta es: ¿cuánta desinformación médica similar sigue circulando en la red bajo una apariencia de rigor científico que las IA simplemente se niegan a cuestionar?