✨︎ Resumen (TL;DR):
- Meta presentó un modelo de IA multimodal diseñado para predecir las respuestas del cerebro humano ante diferentes estímulos visuales y de lenguaje.
- El sistema procesa más de 1,000 horas de datos fMRI de 720 voluntarios y logra anticipar respuestas en 70,000 voxels cerebrales.
- La tecnología permitirá ejecutar simulaciones por computadora para ahorrar los miles de dólares que cuesta una sola sesión de escáner fMRI real.
Meta presentó este jueves TRIBE v2, un modelo de inteligencia artificial multimodal diseñado para predecir cómo reacciona el cerebro humano ante estímulos visuales, auditivos y lingüísticos. Desarrollado por el equipo Fundamental AI Research (FAIR), esta herramienta busca acelerar la investigación en neurociencia y reducir la dependencia de costosos experimentos con escáneres cerebrales.
TRIBE v2 (TRImodal Brain Encoder v2) es un modelo predictivo basado en una arquitectura que ganó el primer lugar en la competencia de codificación cerebral Algonauts 2025, superando a más de 260 equipos. Para su entrenamiento, el equipo alimentó al sistema con registros fMRI de más de 700 voluntarios que leyeron textos, escucharon podcasts y vieron películas dentro de un escáner.
El salto técnico frente a su primera versión es masivo. Mientras el modelo original analizaba datos de solo cuatro sujetos para mapear unos 1,000 puntos cerebrales, la nueva versión evalúa más de 1,000 horas de datos provenientes de 720 participantes. Esto le permite predecir la actividad en aproximadamente 70,000 voxels cerebrales, un incremento de 70 veces en resolución espacial.

Experimentación “In-silico” y salto predictivo
La arquitectura del modelo funciona en tres etapas: extrae características independientes para video, audio y texto, las fusiona mediante un módulo de integración basado en transformers y proyecta el resultado final sobre la superficie cortical.
El gran logro de esta versión radica en lo que los investigadores llaman predicción “zero-shot”. El modelo tiene la capacidad de calcular respuestas cerebrales para individuos nuevos, idiomas no procesados previamente y tareas inéditas sin requerir reentrenamiento. La compañía reportó mejoras de precisión de dos a tres veces frente a métodos anteriores.
Este avance consolida lo que Meta describe como “experimentación in-silico”. Las implicaciones inmediatas para la comunidad científica incluyen:
- Capacidad de validar hipótesis computacionalmente antes de iniciar ensayos clínicos.
- Ahorro sustancial de presupuesto, ya que una sola sesión de fMRI cuesta miles de dólares y exige aprobaciones éticas complejas.
- Reproducción precisa de patrones de procesamiento de lenguaje que hasta ahora solo se observaban en estudios humanos en vivo.
Meta liberó los pesos del modelo, el código fuente y la documentación técnica bajo una licencia de código abierto (CC-BY-NC-4.0). El reto ahora queda en los laboratorios independientes, quienes deberán evaluar este software frente a sus propias bases de datos para comprobar si su utilidad logra trascender las pruebas académicas y llegar a la práctica médica clínica.
