Nvidia revoluciona la IA de agentes con Nemotron 3 Super: 120B de parámetros y ventana de contexto millonaria
Nvidia ha vuelto a sacudir los cimientos de la inteligencia artificial de código abierto con el lanzamiento de Nemotron 3 Super. Este nuevo modelo, diseñado específicamente para gestionar flujos de trabajo «agénticos» complejos (donde la IA actúa de forma autónoma para resolver tareas), introduce una arquitectura híbrida de Mezcla de Expertos (MoE) que promete eficiencia y razonamiento avanzado a una escala sin precedentes.
El modelo ya ha sido adoptado por gigantes del sector como Perplexity, que lo utilizará como motor principal para su nueva plataforma Computer, demostrando que Nvidia no solo domina el hardware, sino que está marcando el ritmo en el desarrollo de software de frontera.
Arquitectura Híbrida: Razonamiento de élite a bajo coste
Uno de los mayores desafíos de los sistemas de agentes autónomos es el coste computacional. Cada interacción requiere enviar el contexto completo, lo que dispara la generación de tokens. Nvidia soluciona esto con una configuración técnica impresionante:
- Parámetros: Un total de 120 mil millones de parámetros, pero con solo 12 mil millones activos durante la inferencia, lo que permite un rendimiento de nivel «frontera» con una fracción del consumo energético habitual.
- Latent MoE: Una técnica innovadora que permite activar cuatro «expertos» por el coste de uno solo, mejorando drásticamente la precisión en tareas de razonamiento multinivel.
- Memoria Infinita: Una ventana de contexto de un millón de tokens, permitiendo que los agentes mantengan la memoria completa de flujos de trabajo extensos sin perder información crítica.
Apertura total: Pesos abiertos y metodología transparente
A diferencia de otros modelos propietarios, Nvidia ha lanzado Nemotron 3 Super con licencia permisiva y pesos abiertos. La compañía ha ido un paso más allá publicando la metodología completa:
- Entrenado con más de 10 billones de tokens de conjuntos de datos pre y post-entrenamiento.
- Uso de datos sintéticos generados por modelos de razonamiento avanzado.
- Disponibilidad inmediata en repositorios públicos como Hugging Face, OpenRouter y el catálogo oficial de Nvidia.
Implementación empresarial: De la nube a los centros de datos locales
Para el sector profesional, el modelo está optimizado para su despliegue en infraestructuras locales a través del Dell Enterprise Hub y la Dell AI Factory. Esto permite a las empresas ejecutar agentes autónomos potentes sin que sus datos salgan de sus propios servidores, garantizando privacidad y baja latencia.










