La solución presenta siete nuevos chips para escalar los modelos de IA más grandes del mundo con una infraestructura configurable y optimizada para cada fase, desde el preentrenamiento, el postentrenamiento y la escalabilidad en tiempo de prueba hasta la inferencia de agentes

SAN JOSE, Calif. — GTC — NVIDIA anuncia que la plataforma NVIDIA Vera Rubin está abriendo una nueva frontera en la IA activa, con siete nuevos chips que ya se encuentran en plena producción para escalar las fábricas de IA más grandes del mundo.
La plataforma reúne la CPU NVIDIA Vera, la GPU NVIDIA Rubin, el conmutador NVIDIA NVLink™6, la SuperNIC NVIDIA ConnectX®-9, la DPU NVIDIA BlueField®-4 y el conmutador Ethernet NVIDIA Spectrum™-6, además de la recién integrada LPU NVIDIA Groq 3. Diseñados para funcionar en conjunto como una increíble supercomputadora de IA, los chips potencian todas las fases de la IA, desde el preentrenamiento a gran escala, el postentrenamiento y el escalado en tiempo de prueba hasta la inferencia de agentes en tiempo real.
“Vera Rubin representa un salto generacional — siete chips innovadores, cinco racks, un supercomputador gigante — diseñado para impulsar todas las fases de la IA”, afirma Jensen Huang, fundador y director ejecutivo de NVIDIA. “El punto de inflexión de la IA con agentes llegó con Vera Rubin, dando inicio a la mayor expansión de infraestructura de la historia”.
“Las empresas y los desarrolladores están utilizando Claude para razonamientos cada vez más complejos, flujos de trabajo con agentes y decisiones de importancia crítica. Esto requiere una infraestructura capaz de seguir el ritmo”, añade Dario Amodei, director ejecutivo y cofundador de Anthropic. “La plataforma Vera Rubin de NVIDIA nos ofrece la capacidad de computación, la red y el diseño de sistemas necesarios para seguir ofreciendo resultados, al tiempo que mejoramos la seguridad y la confiabilidad de las que dependen nuestros clientes”.
“La infraestructura de NVIDIA es la base que nos permite seguir ampliando los límites de la IA”, explica Sam Altman, director ejecutivo de OpenAI. “Con NVIDIA Vera Rubin, ejecutaremos modelos y agentes más potentes a gran escala y ofreceremos sistemas más rápidos y confiables a cientos de millones de personas”.
“Estamos entrando en la era de la IA basada en agentes: sistemas capaces de comprender el contexto, tomar decisiones y ejecutar tareas complejas. Con la evolución de la arquitectura NVIDIA Vera Rubin, vemos cómo la empresa se posiciona a la vanguardia de esta revolución al proporcionar la potencia de cómputo necesaria para sustentar estos nuevos modelos, que exigen niveles sin precedentes de procesamiento, memoria y eficiencia para operar a gran escala. El objetivo es garantizar que el mercado corporativo siga contando con la infraestructura necesaria para transformar toda esta inteligencia en productividad real e innovación continua”, señala Marcio Aguiar, director de la división Enterprise de NVIDIA para América Latina.
Transición a sistemas basados en puntos por dispositivo (POD)
La innovación está impulsando una rápida evolución en la infraestructura de IA: desde chips discretos y servidores independientes hasta sistemas totalmente integrados a escala de rack, implementaciones a escala de POD, fábricas de IA e IA soberana. Estos avances están generando mejoras significativas en el rendimiento, mejorando la relación costo-beneficio para organizaciones de todos los tamaños y sectores — desde startups y empresas medianas hasta instituciones público-privadas y grandes corporaciones — al tiempo que ayudan a democratizar el acceso a la IA y mejorar la eficiencia energética para satisfacer las cargas de trabajo más exigentes del mundo.
A través de un proyecto conjunto de gran envergadura en informática, redes y almacenamiento, con el respaldo de un ecosistema de más de 80 socios del ecosistema NVIDIA MGX y una cadena de suministro global, NVIDIA Vera Rubin ofrece la plataforma NVIDIA POD a una escala sin precedentes: un superordenador en el que varios racks diseñados específicamente para IA funcionan juntos como un sistema masivo y coherente.
Rack NVIDIA Vera Rubin NVL72
La solución integra 72 GPU Rubin y 36 CPU Vera conectadas mediante NVLink 6, junto con SuperNIC ConnectX-9 y DPU BlueField-4, lo que ofrece una eficiencia sin precedentes — entrenando grandes modelos de mezcla de expertos con una cuarta parte del número de GPU en comparación con la plataforma NVIDIA Blackwell y alcanzando una tasa de transferencia de inferencia hasta 10 veces mayor por vatio a una décima parte del costo por token.
Diseñado para fábricas de IA a hiperescala en todo el mundo, el NVL72 se integra a la perfección con NVIDIA Quantum-X800 InfiniBand y Spectrum-X Ethernet para mantener una alta utilización en clústeres masivos de GPU, lo que reduce el tiempo de entrenamiento y el costo total de propiedad.
El rack para CPUs NVIDIA Vera es ideal
Para cargas de trabajo de aprendizaje por refuerzo y agentes de IA, que dependen de un gran número de entornos basados en CPU para probar y validar los resultados generados por modelos ejecutados en sistemas de GPU.
El rack de CPU NVIDIA Vera ofrece una infraestructura de alta densidad con refrigeración líquida, basada en la plataforma NVIDIA MGX, que integra 256 CPU Vera para proporcionar una capacidad escalable y energéticamente eficiente, además de un rendimiento de un solo subproceso de primer nivel, lo que permite el uso de la IA activa a gran escala.
Integrados en la red Ethernet Spectrum-X, los racks de CPU Vera mantienen los entornos de CPU rigurosamente sincronizados en toda la fábrica de IA. Junto con los racks de computación de GPU, proporcionan la base de CPU para el agente de IA a gran escala y el aprendizaje por refuerzo, y Vera ofrece resultados dos veces más eficientes y un 50 % más rápidos que las CPU tradicionales.
NVIDIA Groq 3 LPX Rack
Esta solución supone un hito en la computación acelerada. Diseñados para satisfacer las exigencias de baja latencia y gran contexto de los sistemas de agentes, el LPX y el Vera Rubin combinan el rendimiento extremo de ambos procesadores para ofrecer hasta 35 veces más tasa de transferencia de inferencia por megavatio y hasta 10 veces más oportunidades de ingresos para modelos con billones de parámetros.
A gran escala, una flota de LPU funciona como un único procesador gigante para acelerar la inferencia de forma rápida y determinista. El rack LPX con 256 procesadores LPU cuenta con 128 GB de SRAM integrada y 640 TB/s de ancho de banda escalable. Implementadas con Vera Rubin NVL72, las GPU Rubin y las LPU impulsan la decodificación, calculando conjuntamente todas las capas del modelo de IA para cada token de salida.
Optimizada para modelos con billones de parámetros y contextos con millones de tokens, la arquitectura LPX, diseñada en colaboración con Vera Rubin, maximiza la eficiencia en términos de energía, memoria y computación. El aumento en la tasa de transferencia por vatio y en el rendimiento por token abre un nuevo nivel de inferencia de primera categoría con billones de parámetros y millones de contextos, ampliando las oportunidades de ingresos para todos los proveedores de IA. Totalmente refrigerada por líquido y construida sobre la infraestructura MGX, la LPX se integra perfectamente con las fábricas de IA de última generación de Vera Rubin, que estarán disponibles en el segundo semestre de este año.
Por su parte, el sistema de rack NVIDIA BlueField-4 STX es una infraestructura de almacenamiento nativa para IA que amplía la memoria de la GPU de forma transparente por todo el POD. Con la tecnología BlueField-4 — que combina la CPU NVIDIA Vera y la SuperNIC NVIDIA ConnectX-9 —, el STX ofrece una capa compartida de alto ancho de banda optimizada para almacenar y recuperar los datos masivos de caché clave-valor generados por grandes modelos de lenguaje y flujos de trabajo de IA con agentes.
Por su parte, NVIDIA DOCA Memos™ — una nueva estructura DOCA que potencia el almacenamiento BlueField-4 — permite el procesamiento dedicado de caché KV para aumentar la tasa de transferencia de inferencia hasta 5 veces, al tiempo que mejora significativamente la eficiencia energética en comparación con las arquitecturas de almacenamiento de uso general. El resultado es un contexto integral en todo el POD que proporciona interacciones más rápidas y de múltiples etapas con agentes de IA, servicios de IA más escalables y una mayor utilización general de la infraestructura.
“El sistema de almacenamiento de memoria contextual a escala de rack NVIDIA BlueField-4 STX proporcionará un aumento de rendimiento crucial, necesario para escalar exponencialmente nuestros esfuerzos en IA activa”, afirma Timothée Lacroix, cofundador y director de tecnología de Mistral AI. “Al ofrecer una nueva capa de almacenamiento diseñada específicamente para la memoria de los agentes de IA, STX se encuentra en una posición ideal para garantizar que nuestros modelos puedan mantener la coherencia y la velocidad al razonar sobre conjuntos de datos masivos”.
Rack Ethernet Spectrum-6 SPX de NVIDIA
El rack Ethernet Spectrum-6 SPX ha sido diseñado para acelerar el tráfico este-oeste en centros de datos de IA. Configurable con switches Ethernet Spectrum-X o NVIDIA Quantum-X800 InfiniBand, ofrece conectividad de rack a rack con baja latencia y alta velocidad de transferencia a gran escala.
La tecnología Spectrum-X Ethernet Photonics con óptica integrada alcanza una eficiencia de potencia óptica hasta cinco veces mayor y una resiliencia diez veces superior en comparación con los transceptores enchufables tradicionales.
Mejorando la resiliencia y la eficiencia energética
NVIDIA, junto con más de 200 socios de infraestructura de centros de datos, anuncia la plataforma NVIDIA DSX para Vera Rubin. Esto incluye DSX Max-Q, que permite el aprovisionamiento dinámico de energía en toda la fábrica de IA, lo que se traduce en un 30 % más de infraestructura de IA en un centro de datos con energía fija. El nuevo software DSX Flex permite que las fábricas de IA sean activos flexibles en relación con la red eléctrica, liberando 100 gigavatios de energía ociosa de la red.
NVIDIA también presenta el proyecto de referencia Vera Rubin DSX AI Factory, un modelo de infraestructura de IA de creación conjunta que maximiza los tokens por vatio y el rendimiento general, lo que mejora la resiliencia del sistema y acelera el tiempo hasta la primera producción.
Al integrar de manera precisa la computación, las redes, el almacenamiento, la energía y la refrigeración, la arquitectura aumenta la eficiencia energética y garantiza que las fábricas de IA puedan escalarse de manera confiable bajo cargas de trabajo continuas y de alta intensidad, con un tiempo de actividad máximo.
Amplio soporte del ecosistema
Los productos basados en Vera Rubin estarán disponibles a través de socios a partir del segundo semestre de este año. Esto incluye a los principales proveedores de servicios en la nube, como Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, junto con los socios de nube de NVIDIA: CoreWeave, Crusoe, Lambda, Nebius, Nscale y Together AI.
Se espera que los fabricantes mundiales de sistemas Cisco, Dell Technologies, HPE, Lenovo y Supermicro ofrezcan una amplia gama de servidores basados en productos Vera Rubin, al igual que Aivres, ASUS, Foxconn, GIGABYTE, Inventec, Pegatron, Quanta Cloud Technology (QCT), Wistron y Wiwynn.
Los laboratorios de IA y los desarrolladores de modelos de vanguardia, entre los que se incluyen Anthropic, Meta, Mistral AI y OpenAI, buscan utilizar la plataforma NVIDIA Vera Rubin para entrenar modelos más grandes y potentes, además de dar soporte a sistemas multimodales de contexto largo con menor latencia y a un costo menor que las generaciones anteriores de GPU.
Acerca de NVIDIA
Desde su fundación en 1993, NVIDIA (NASDAQ: NVDA) ha sido pionera en el campo de la aceleración computacional. La invención de la GPU por parte de la compañía en 1999 estimuló el crecimiento del mercado de juegos para PC, redefinió los gráficos por ordenador, inauguró la era de la IA moderna y ha contribuido a la digitalización industrial en todos los mercados. En la actualidad, NVIDIA es una empresa de infraestructuras informáticas completas con soluciones a escala de centro de datos que están revolucionando la industria. Para saber más: Link.
Ver también:
Facebook: NVIDIALatinoamérica
Twitter: NVIDIALatinoamérica
Instagram: NVIDIALatam
YouTube: NVIDIA Latinoamérica
LinkedIn: NVIDIALatinoamérica
Ciertas declaraciones en este comunicado de prensa, que incluyen, entre otras, declaraciones sobre: que el momento de ChatGPT para la IA física ha llegado; que los robotaxis están entre los primeros en beneficiarse; que Alpamayo está llevando el razonamiento a los vehículos autónomos, lo que les permite pensar en escenarios poco frecuentes, conducir de manera segura en entornos complejos y explicar sus decisiones de conducción; y que es la base para una autonomía escalable segura; los beneficios, el impacto, el desempeño y la disponibilidad de los productos, servicios y tecnologías de NVIDIA; las expectativas con respecto a los acuerdos de NVIDIA con terceros, incluidos sus colaboradores y socios; las expectativas con respecto a los desarrollos tecnológicos; y otras afirmaciones que no son hechos históricos son declaraciones prospectivas en el sentido de la sección 27A de la Ley de Valores de 1933, en su versión modificada, y la sección 21E de la Ley de Bolsa de Valores de 1934, en su versión modificada, que están sujetas a las disposiciones de “puerto seguro” creadas por esas secciones, basadas en las creencias y suposiciones de la administración y en la información actualmente disponible para la misma, y que están sujetas a riesgos e incertidumbres que podrían causar que los resultados sean sustancialmente diferentes de las expectativas. Los factores importantes que podrían causar que los resultados reales difieran sustancialmente incluyen: las condiciones económicas y políticas globales; la dependencia de NVIDIA de terceros para la fabricación, el ensamblaje, el empaquetado y la prueba de los productos de NVIDIA; el impacto del desarrollo tecnológico y la competencia; el desarrollo de nuevos productos y tecnologías, o mejoras a los productos y tecnologías actuales de NVIDIA; la aceptación por parte del mercado de los productos de NVIDIA o de los productos de los socios de NVIDIA; defectos de diseño, manufactura o software; cambios en las preferencias o demandas de los consumidores; cambios en las normas e interfaces de la industria; pérdidas inesperadas de desempeño de los productos o tecnologías de NVIDIA cuando se integran en los sistemas; y cambios en las leyes y regulaciones aplicables, así como otros factores detallados ocasionalmente en los informes más recientes que NVIDIA presenta ante la Comisión de Valores y Bolsa (SEC), que incluyen, entre otros, su informe anual en el Formulario 10-K e informes trimestrales en el Formulario 10-Q. Las copias de los informes presentados ante la SEC se publican en el sitio web de la empresa y están disponibles a través de NVIDIA sin costo alguno. Estas declaraciones prospectivas no son garantías de desempeño futuro y solo se refieren a la fecha del presente documento. Además, NVIDIA renuncia a cualquier obligación de actualizar estas declaraciones prospectivas para reflejar circunstancias o eventos futuros, excepto cuando lo exija la ley.
Muchos de los productos y características descritos en el presente documento se encuentran en etapa de desarrollo, y se ofrecerán cuando y si llegan a estar disponibles. Las declaraciones anteriores no pretenden ser ni deben interpretarse como un compromiso, promesa u obligación legal. Además, el desarrollo, el lanzamiento y los tiempos de cualquier característica o funcionalidad descritos para nuestros productos están sujetos a cambios y quedan a exclusivo criterio de NVIDIA. NVIDIA no tendrá ninguna responsabilidad por faltas de entrega o retrasos en la entrega de cualquiera de los productos, características o funciones presentados en este documento.
© 2026 NVIDIA Corporation. Todos los derechos reservados. NVIDIA, el logotipo de NVIDIA, NVIDIA Cosmos, NVIDIA DRIVE AGX Thor, NVIDIA DRIVE Hyperion y NVIDIA Omniverse son marcas comerciales registradas de NVIDIA Corporation en Estados Unidos y otros países. Otros nombres de empresas y productos pueden ser marcas comerciales de las respectivas empresas con las que están asociados. Las funciones, los precios, la disponibilidad y las especificaciones están sujetos a cambios sin previo aviso.
Sing Comunicação – Assessoria de imprensa da NVIDIA (divisão Enterprise) no Brasil, México e América Latina
Contato para imprensa: nvidia@singcomunica.com
17/03/2026

