✨︎ Resumen (TL;DR):
- Investigadores de la UCL desarrollaron Diet-MisRAT, un modelo que clasifica consejos falsos de nutrición usando un semáforo de riesgo.
- La herramienta fue validada por casi 60 especialistas y revela que el 20% de lesiones hepáticas provienen de suplementos.
- Buscará integrarse en plataformas y modelos de IA para prevenir crisis de salud pública causadas por dietas virales.
Investigadores del University College London (UCL) desarrollaron una herramienta que detecta la desinformación sobre dietas y nutrición en internet. En lugar de limitarse a calificar los datos como falsos o verdaderos, este sistema evalúa directamente su potencial para causar daño físico a los usuarios.
El proyecto fue publicado esta semana en la revista científica Scientific Reports. Diet-MisRAT es un modelo de análisis de contenido que adapta los estándares de la Organización Mundial de la Salud (OMS) para evaluar exposiciones peligrosas en entornos físicos, y los aplica al ecosistema digital.
El sistema descarta los diagnósticos binarios de los verificadores tradicionales. En su lugar, clasifica el material en colores verde, ámbar o rojo basándose en el contenido, su contexto y la probabilidad de engañar al lector.
“Cuando se trata de dieta y nutrición, la desinformación a menudo opera a través de un encuadre selectivo que oculta riesgos potenciales para la salud”, explicó Alex Ruani, autor principal del Instituto de Educación de la UCL. “El contenido engañoso perjudicial tiende a volar bajo el radar de los fact-checkers y escapar de una supervisión significativa hasta que casos de alto perfil llegan a los titulares”.
Para asegurar su precisión, la herramienta superó cinco rondas de verificación y fue puesta a prueba contra el criterio de casi 60 especialistas en dietética, nutrición y salud pública.

El costo real de los consejos médicos en internet
La OMS cataloga la desinformación médica online como una amenaza sanitaria mayor. Según el estudio, tan solo los suplementos dietéticos son responsables del 20% de las lesiones hepáticas inducidas por medicamentos en Estados Unidos.
Los investigadores documentaron casos reales de impacto físico:
- Un hombre desarrolló lesiones cutáneas inducidas por colesterol en 2025 tras adoptar una dieta carnívora promovida en redes sociales.
- Una persona fue hospitalizada tras seguir un consejo erróneo generado por una inteligencia artificial que sugirió reemplazar la sal de mesa con bromuro de sodio tóxico.
Durante las pruebas de control, Diet-MisRAT analizó la afirmación “es más seguro dar a su hijo altas dosis de vitamina A que la vacuna MMR”. El sistema la catalogó de inmediato en el nivel de riesgo crítico por presentar un falso encuadre de seguridad, omitir los peligros de una sobredosis y socavar las guías de salud pública.
“Si podemos medir adecuadamente cuán engañoso es un consejo y cuánto daño puede representar, podemos construir salvaguardas más fuertes en modelos y agentes de IA antes del despliegue en lugar de reaccionar después de que ocurra el daño”, agregó Ruani.
Por su parte, el profesor Michael Reiss, coautor de la investigación, indicó que los criterios del modelo “pueden enseñarse y aplicarse en la educación y formación profesional”, ayudando a los usuarios a entender “no solo si algo está mal, sino cómo y por qué puede sesgar el juicio”.
