Databricks lanza acceso serverless a GPUs NVIDIA para IA

Databricks lanza acceso serverless a GPUs NVIDIA para IA

Databricks lanza AI Runtime, una plataforma serverless con GPUs NVIDIA A10 y H100 para entrenar modelos de IA sin gestionar infraestructura.

Por Humberto Toledo el 19 marzo, 2026 a las 17:05

💡 Resumen (TL;DR):

  • Databricks habilitó el acceso directo a cómputo de GPUs sin necesidad de administrar la infraestructura del servidor.
  • Los desarrolladores usarán hardware NVIDIA A10 y H100 para proyectos con hasta siete días de ejecución continua en AWS.
  • La empresa busca centralizar los flujos de trabajo de inteligencia artificial dentro de su propio ecosistema de datos.

Databricks anunció la disponibilidad en vista previa pública de AI Runtime, un nuevo servicio de cómputo que proporciona acceso serverless a GPUs directamente en su plataforma. La herramienta permite a los equipos entrenar y ajustar modelos de inteligencia artificial sin configurar ni gestionar la infraestructura subyacente.

AI Runtime es un entorno de ejecución gestionado que elimina la selección de controladores y las políticas de autoescalado al integrarse de forma nativa en los notebooks de Databricks.

Los desarrolladores eligen entre dos configuraciones de Python: una base mínima para máxima flexibilidad o un entorno completo preinstalado con marcos de machine learning populares como PyTorch y Transformers.

Para el procesamiento de datos, la plataforma segmenta el hardware según la exigencia operativa. La GPU NVIDIA A10 atiende tareas de deep learning pequeñas y medianas, como el fine-tuning de modelos de lenguaje (LLM) ligeros.

Por su parte, la GPU NVIDIA H100 procesa cargas a gran escala. Esta opción soporta el entrenamiento de modelos masivos conectando hasta ocho GPUs simultáneamente. Las tareas de un solo nodo ya están públicas, mientras que la API de entrenamiento distribuido sigue en fase beta.

Ilustración conceptual de flujos de energía que alimentan una estructura elegante para entrenar modelos de IA avanzados.
Ilustración conceptual de flujos de energía que alimentan una estructura elegante para entrenar modelos de IA avanzados.

Control corporativo y la alianza con NVIDIA

El sistema mantiene políticas estrictas de seguridad de datos operando junto a Unity Catalog y registra cada fase de los experimentos con la herramienta MLflow.

Databricks diseñó este entorno para cargas de trabajo específicas, entre las que destacan:

  • Fine-tuning completo de LLMs, incluyendo métodos como LoRA y QLoRA.
  • Sistemas de recomendación basados en deep learning y visión computacional.
  • Aprendizaje por refuerzo y predicción matemática de series temporales.

Cada proceso tiene un tiempo máximo de ejecución de siete días. Por ahora, el servicio solo está activo en regiones selectas de AWS, incluyendo us-east-1, us-west-2 y otras cuatro zonas geográficas.

El anuncio ocurrió durante NVIDIA GTC 2026, un evento donde ambas compañías fortalecieron su colaboración. NVIDIA aprovechó su conferencia para revelar las GPUs RTX PRO Blackwell Server Edition y destacó a Databricks como uno de los primeros socios estratégicos en usar la arquitectura Blackwell.

AI Runtime se suma a los lanzamientos recientes de Genie Code y Databricks Runtime 18.1. Con esta estrategia técnica, la compañía competirá por retener el procesamiento intensivo de hardware dentro de su ecosistema lakehouse, evitando que las corporaciones trasladen su entrenamiento de IA a nubes independientes.

FUENTE

Más de AI