La inteligencia artificial diagnosticó una enfermedad que nunca existió: los motivos detrás del error

Date:

Una enfermedad que no existe empezó a aparecer en respuestas de inteligencia artificial como si fuera un diagnóstico real. Se llama bixonimania, describe síntomas vinculados a los ojos y fue creada deliberadamente por investigadores para probar hasta qué punto los sistemas pueden procesar y reproducir información falsa en el ámbito de la salud.

El resultado fue contundente: varios chatbots no solo repitieron el término, sino que lo explicaron como una condición médica legítima e incluso lo sugirieron ante síntomas compatibles.

La bixonimania fue diseñada por un equipo de la Universidad de Gotemburgo liderado por Almira Osmanovic Thunström. El experimento consistió en introducir el concepto en internet con apariencia creíble, primero en un blog y luego en textos con formato académico.

La inteligencia artificial diagnosticó una enfermedad que nunca existió. (Imagen: ChatGPT)
La inteligencia artificial diagnosticó una enfermedad que nunca existió. (Imagen: ChatGPT)

Para evitar confusiones en humanos, los investigadores dejaron señales evidentes de que se trataba de una invención. El nombre terminaba en “-mania”, una clasificación que no corresponde a enfermedades físicas, se mencionaban universidades inexistentes y se incluían agradecimientos a instituciones de ciencia ficción. Incluso así, los modelos de lenguaje (LLM) basados en IA no detectaron esas inconsistencias.

La IA lo tomó como real y lo convirtió en respuesta médica

Cuando los sistemas procesaron esa información, la incorporaron como si fuera válida. Herramientas como Microsoft Copilot describieron la bixonimania como una condición real, mientras que Google Gemini la vinculó con la exposición a la luz azul de las pantallas.

El punto crítico no fue solo la repetición del término, sino su uso como respuesta médica. Ante consultas con síntomas similares, algunos LLM llegaron a sugerir esa enfermedad inexistente como posible explicación.

El experimento dejó en evidencia un límite estructural: los sistemas no distinguen entre información verdadera y falsa si esta última está presentada con suficiente coherencia y formato.

De un experimento a un paper científico

El alcance del caso fue más allá de la inteligencia artificial. Investigadores externos llegaron a citar el material sobre bixonimania en un artículo publicado en la revista Cureus, que luego fue retirado.

Ese recorrido demostró cómo una información falsa puede escalar desde un experimento controlado hasta espacios donde se espera validación académica.

Tras la difusión del caso y su análisis en Nature, varios sistemas comenzaron a ajustar sus respuestas y dejaron de presentar la bixonimania como una enfermedad real.

Así, este incidente dejó al descubierto un problema más amplio: cuando se trata de salud, la inteligencia artificial puede construir respuestas convincentes a partir de datos incorrectos. El riesgo aparece cuando esa respuesta falsa es tomada por una persona como orientación o recomendación de salud.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Redes Post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

Quién era Carla Magallanes, la mujer de 36 años que fue encontrada muerta en su casa de Mendoza

La víctima había sido asesinada varios días antes del hallazgo. La policía detuvo a su pareja como principal sospechoso.

Detuvieron a un trader por estafas: posaba con autos de alta gama y mostraba una vida de lujos en las redes

El inversor mostraba una vida de lujos y les prometía a sus clientes triunfar con inversiones en acciones y bonos.

Femicidio en Claypole: los violentos antecedentes del hombre acusado de asesinar y enterrar a su pareja

El principal acusado, Brian Leandro Lesta, fue detenido tras permanecer dos días prófugo. El hijo de la víctima, de 12 años, encontró el cuerpo.

Sergio Franco, odontólogo: “Si tenés los dientes amarillos aunque te cepilles bien, esta puede ser la razón”

El especialista explicó por qué, a pesar de cepillarse de manera correcta, la dentadura puede mantener una tonalidad amarillenta.