Una investigadora creó una patología inexistente para poner a prueba a distintos sistemas de IA. El resultado encendió alarmas: varios chatbots difundieron información falsa como si fuera conocimiento médico real.
La inteligencia artificial volvió a mostrar uno de sus límites más delicados.
No entiende la verdad.
Entiende patrones.
Una investigadora sueca creó una enfermedad ficticia llamada “bixonimanía” para probar cómo reaccionaban distintos sistemas de IA frente a información falsa presentada con apariencia científica.
El experimento funcionó demasiado bien.
Varios chatbots describieron la enfermedad como si realmente existiera.
Algunos incluso inventaron síntomas, tratamientos y explicaciones clínicas con tono completamente profesional.
La trampa tenía señales evidentes.
Los supuestos estudios científicos incluían universidades inexistentes, referencias absurdas y detalles que dejaban claro que todo era inventado.
Pero aun así, los sistemas procesaron la información y la reprodujeron como válida.
Ahí aparece el problema de fondo.
La IA no verifica hechos como lo haría una persona.
No distingue entre algo cierto y algo falso por comprensión real, sino por probabilidades estadísticas. Si un texto parece creíble, tiene formato académico y circula lo suficiente, puede terminar integrado como información confiable.
El caso expone un riesgo cada vez más importante en una época donde millones de personas consultan chatbots para resolver dudas sobre salud, educación o actualidad.
Porque las respuestas suelen sonar seguras.
Convincente.
Ordenadas.
Técnicas.
Incluso cuando están equivocadas.
Y eso vuelve más difícil detectar errores.
La preocupación crece especialmente en temas médicos.
Una recomendación falsa o un diagnóstico inventado pueden generar desinformación, ansiedad o decisiones peligrosas si las personas toman esas respuestas como asesoramiento profesional.
El experimento también dejó otra señal inquietante: parte de la información falsa llegó a circular en espacios académicos antes de que el engaño fuera detectado.
Eso demuestra que el problema no afecta solo a usuarios comunes.
También alcanza sistemas científicos y plataformas donde la velocidad de publicación muchas veces supera los controles de verificación.
La discusión sobre inteligencia artificial suele centrarse en el futuro.
En lo que las máquinas podrán hacer.
Pero casos como este muestran otro desafío más urgente: cómo convivir con herramientas capaces de producir respuestas extremadamente convincentes sin comprender realmente lo que dicen.
La “bixonimanía” nunca existió.
El problema que reveló, sí.
Y probablemente recién esté empezando.