NVIDIA da inicio a la próxima generación de IA con Rubin: seis nuevos chips y una increíble supercomputadora con IA

El diseño conjunto extremo entre la CPU NVIDIA Vera, la GPU Rubin, el conmutador NVLink 6, la SuperNIC ConnectX-9, la DPU BlueField-4 y el conmutador Ethernet Spectrum-6 reduce drásticamente el tiempo de entrenamiento y el costo de generación de tokens de inferencia
 

Resumen de noticias:

  • La plataforma Rubin aprovecha el diseño conjunto extremo entre hardware y software para ofrecer una reducción de hasta 10 veces en el costo de los tokens de inferencia y una reducción de 4 veces en el número de GPUs necesarias para entrenar modelos MoE, en comparación con la plataforma NVIDIA Blackwell.
  • Los sistemas de conmutadores fotónicos Ethernet NVIDIA Spectrum-X ofrecen una eficiencia energética y un tiempo de actividad 5 veces superiores.
  • Nueva plataforma de almacenamiento de memoria de contexto de inferencia de NVIDIA con procesador de almacenamiento NVIDIA BlueField-4 para acelerar el razonamiento de la IA agencial.
  • Las superfábricas de IA Fairwater de próxima generación de Microsoft, que cuentan con sistemas a escala de rack NVIDIA Vera Rubin NVL72, se ampliarán a cientos de miles de superchips NVIDIA Vera Rubin.
  • CoreWeave es una de las primeras empresas en ofrecer NVIDIA Rubin, que se opera a través de CoreWeave Mission Control para mayor flexibilidad y rendimiento.
  • Se ha ampliado la colaboración con Red Hat para ofrecer una pila de IA completa optimizada para la plataforma Rubin con Red Hat Enterprise Linux, Red Hat OpenShift y Red Hat AI.

LAS VEGAS — CES — 6 de enero de 2026 — NVIDIA ha dado el pistoletazo de salida a la próxima generación de IA con el lanzamiento de la plataforma NVIDIA Rubin, que incluye seis nuevos chips diseñados para ofrecer un increíble supercomputador de IA. NVIDIA Rubin establece un nuevo estándar para crear, implementar y proteger los sistemas de IA más grandes y avanzados del mundo al menor costo, con el fin de acelerar la adopción generalizada de la IA.

 

La plataforma Rubin utiliza un diseño conjunto extremo en los seis chips (la CPU NVIDIA Vera, NVIDIA Rubin GPU, NVIDIA NVLink™ 6 Switch, NVIDIA ConnectX®-9 SuperNIC, NVIDIA BlueField®-4 DPU y NVIDIA Spectrum™-6 Ethernet Switch para reducir drásticamente el tiempo de entrenamiento y los costos de los tokens de inferencia.

 

“Rubin llega justo en el momento oportuno, ya que la demanda de computación de IA tanto para entrenamiento como para inferencia se está disparando”, afirmó Jensen Huang, fundador y director ejecutivo de NVIDIA. “Con nuestra cadencia anual de lanzamiento de una nueva generación de supercomputadoras de IA, y el diseño conjunto extremo de seis nuevos chips, Rubin da un gran salto hacia la próxima frontera de la IA”.

 

La plataforma Rubin, que lleva el nombre de Vera Florence Cooper Rubin, la pionera astrónoma estadounidense cuyos descubrimientos transformaron la comprensión que la humanidad tenía del universo, cuenta con la solución a escala de rack  NVIDIA Vera Rubin NVL72 y el sistema NVIDIA HGX Rubin NVL8 .

 

Rubin consolida la infraestructura como base estratégica de la IA moderna. Al integrar computación, red, almacenamiento y software desde el diseño, NVIDIA permite a las empresas operar modelos cada vez más complejos con previsibilidad, eficiencia y un costo viable a escala”, comentó Marcio Aguiar, director de la división Enterprise de NVIDIA para América Latina.

 

La plataforma Rubin presenta cinco innovaciones, entre las que se incluyen las últimas generaciones de la tecnología de interconexión NVIDIA NVLink, Transformer Engine, Confidential Computing y RAS Engine, así como la CPU NVIDIA Vera. Estos avances acelerarán la IA agencial, el razonamiento avanzado y la inferencia de modelos de mezcla de expertos (MoE) a gran escala con un costo por token hasta 10 veces menor que el de la plataforma NVIDIA Blackwell. En comparación con su predecesora, la plataforma NVIDIA Rubin entrena modelos MoE con cuatro veces menos GPU para acelerar la adopción de la IA.

 

Amplio soporte del ecosistema

Entre los principales laboratorios de IA, proveedores de servicios en la nube, fabricantes de computadoras y empresas emergentes del mundo que se espera que adopten Rubin se encuentran Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab y xAI.

 

Sam Altman, director ejecutivo de OpenAI: “La inteligencia crece con la computación. Cuando añadimos más computación, los modelos se vuelven más capaces, resuelven problemas más difíciles y tienen un mayor impacto en las personas. La plataforma NVIDIA Rubin nos ayuda a seguir ampliando este progreso para que la inteligencia avanzada beneficie a todos”.

 

Dario Amodei, cofundador y director ejecutivo de Anthropic: “Las mejoras en la eficiencia de la plataforma NVIDIA Rubin representan el tipo de avance en infraestructura que permite una memoria más amplia, un mejor razonamiento y resultados más confiables. Nuestra colaboración con NVIDIA contribuye a impulsar nuestra investigación en materia de seguridad y nuestros modelos de vanguardia”.

 

Mark Zuckerberg, fundador y director ejecutivo de Meta: “La plataforma Rubin de NVIDIA promete ofrecer el cambio radical en rendimiento y eficiencia necesario para implementar los modelos más avanzados a miles de millones de personas”.

 

Elon Musk, fundador y director ejecutivo de xAI: “NVIDIA Rubin será un motor cohete para la IA. Si quieres entrenar e implementar modelos de vanguardia a gran escala, esta es la infraestructura que debes utilizar, y Rubin le recordará al mundo que NVIDIA es el estándar de oro”.

 

Satya Nadella, presidente ejecutivo y director general de Microsoft: “Estamos construyendo las superfábricas de IA más potentes del mundo para dar servicio a cualquier carga de trabajo, en cualquier lugar, con el máximo rendimiento y eficiencia. Con la incorporación de las GPUs NVIDIA Vera Rubin, permitiremos a los desarrolladores y a las organizaciones crear, razonar y escalar de formas totalmente nuevas”.

 

Mike Intrator, cofundador y director ejecutivo de CoreWeave: “Creamos CoreWeave para ayudar a los pioneros a acelerar sus innovaciones con el rendimiento inigualable de nuestra plataforma de IA diseñada específicamente para este fin, que adapta la tecnología adecuada a las cargas de trabajo adecuadas a medida que evolucionan. La plataforma NVIDIA Rubin representa un importante avance para las cargas de trabajo de razonamiento, agentes e inferencia a gran escala, y estamos encantados de añadirla a nuestra plataforma. Con CoreWeave Mission Control como estándar operativo, podemos integrar nuevas capacidades rápidamente y ejecutarlas de forma fiable a escala de producción, trabajando en estrecha colaboración con NVIDIA”.

 

Matt Garman, director ejecutivo de AWS: “AWS y NVIDIA llevan más de 15 años impulsando conjuntamente la innovación en IA en la nube. La plataforma NVIDIA Rubin en AWS representa nuestro compromiso continuo con ofrecer una infraestructura de IA de vanguardia que brinde a los clientes opciones y flexibilidad sin igual. Al combinar la avanzada tecnología de IA de NVIDIA con la escala, la seguridad y los completos servicios de IA de AWS, los clientes pueden crear, entrenar e implementar sus aplicaciones de IA más exigentes de forma más rápida y rentable, acelerando su camino desde la experimentación hasta la producción a cualquier escala”.

 

Sundar Pichai, director ejecutivo de Google y Alphabet: “Estamos orgullosos de nuestra profunda y duradera relación con NVIDIA. Para satisfacer la considerable demanda de GPU de NVIDIA que observamos entre nuestros clientes, nos centramos en proporcionar el mejor entorno posible para su hardware en Google Cloud. Nuestra colaboración continuará a medida que llevemos las impresionantes capacidades de la plataforma Rubin a nuestros clientes, ofreciéndoles la escala y el rendimiento necesarios para ampliar los límites de la IA”.

 

Clay Magouyrk, director ejecutivo de Oracle: “Oracle Cloud Infrastructure es una nube a hiperescala diseñada para ofrecer el máximo rendimiento y, junto con NVIDIA, estamos ampliando los límites de lo que los clientes pueden crear y escalar con la IA. Con fábricas de IA a gigascale impulsadas por la arquitectura NVIDIA Vera Rubin, OCI ofrece a los clientes la base de infraestructura que necesitan para superar los límites del entrenamiento de modelos, la inferencia y el impacto de la IA en el mundo real”.

 

Michael Dell, presidente y director ejecutivo de Dell Technologies: “La plataforma NVIDIA Rubin representa un gran avance en la infraestructura de IA. Al integrar Rubin en la Dell AI Factory con NVIDIA, estamos creando una infraestructura capaz de gestionar grandes volúmenes de tokens y razonamientos de varios pasos, al tiempo que ofrecemos el rendimiento y la resiliencia que las empresas y las neoclouds necesitan para implementar la IA a gran escala”.

 

Antonio Neri, presidente y director ejecutivo de HPE: “La IA está transformando no solo las cargas de trabajo, sino también los fundamentos mismos de la TI, lo que nos obliga a replantearnos cada capa de la infraestructura, desde la red hasta la computación. Con la plataforma NVIDIA Vera Rubin, HPE está construyendo la próxima generación de infraestructura segura y nativa de IA, convirtiendo los datos en inteligencia y permitiendo a las empresas convertirse en verdaderas fábricas de IA”.

 

Yuanqing Yang, presidente y director ejecutivo de Lenovo: “Lenovo está adoptando la plataforma NVIDIA Rubin de última generación, aprovechando nuestra solución de refrigeración líquida Neptune, así como nuestra escala global, eficiencia de fabricación y alcance de servicios, para ayudar a las empresas a construir fábricas de IA que sirvan como motores inteligentes y acelerados para el conocimiento y la innovación. Juntos, estamos diseñando un futuro impulsado por la IA en el que la IA eficiente y segura se convierta en el estándar para todas las organizaciones”.

 

Diseñada para escalar la inteligencia

Los modelos de IA agencial y de razonamiento, junto con las cargas de trabajo de generación de video de última generación, están redefiniendo los límites de la computación. La resolución de problemas de varios pasos requiere que los modelos procesen, razonen y actúen a lo largo de largas secuencias de tokens. Diseñada para satisfacer las demandas de las complejas cargas de trabajo de IA, las cinco tecnologías innovadoras de la plataforma Rubin incluyen:

  • NVIDIA NVLink de sexta generación: ofrece la comunicación rápida y fluida entre GPU que requieren los enormes modelos MoE actuales. Cada GPU ofrece 3,6 TB/s de ancho de banda, mientras que el rack Vera Rubin NVL72 proporciona 260 TB/s, más ancho de banda que todo Internet. Con computación integrada en la red para acelerar las operaciones colectivas, así como nuevas funciones para mejorar la facilidad de mantenimiento y la resiliencia, el conmutador NVIDIA NVLink 6 permite un entrenamiento y una inferencia de IA más rápidos y eficientes a gran escala.
  • CPU NVIDIA Vera: Diseñada para el razonamiento agencial, NVIDIA Vera es la CPU más eficiente energéticamente para fábricas de IA a gran escala. La CPU NVIDIA está construida con 88 núcleos Olympus personalizados de NVIDIA, compatibilidad total con Armv9.2 y conectividad NVLink-C2C ultrarrápida. Vera ofrece un rendimiento excepcional, un gran ancho de banda y una eficiencia líder en el sector para dar soporte a una amplia gama de cargas de trabajo de los centros de datos modernos.
  • GPU NVIDIA Rubin: con un motor Transformer de tercera generación con compresión adaptativa acelerada por hardware, la GPU Rubin ofrece 50 petaflops de computación NVFP4 para la inferencia de IA.
  • Computación confidencial NVIDIA de tercera generación: Vera Rubin NVL72 es la primera plataforma a escala de rack que ofrece computación confidencial NVIDIA, que mantiene la seguridad de los datos en los dominios de CPU, GPU y NVLink, protegiendo los modelos propietarios, las cargas de trabajo de entrenamiento y de inferencia más grandes del mundo.
  • Motor RAS de segunda generación: la plataforma Rubin, que abarca GPU, CPU y NVLink, cuenta con comprobaciones de estado en tiempo real, tolerancia a fallos y mantenimiento proactivo para maximizar la productividad del sistema. El diseño modular y sin cables de la bandeja del bastidor permite un montaje y un mantenimiento hasta 18 veces más rápidos que Blackwell.

Almacenamiento nativo para IA e infraestructura segura definida por software

NVIDIA Rubin presenta NVIDIA Inference Context Memory Storage Platform, una nueva clase de infraestructura de almacenamiento nativa para IA diseñada para escalar el contexto de inferencia a escala gigabit.

 

Impulsada por NVIDIA BlueField-4, la plataforma permite compartir y reutilizar de manera eficiente los datos de la caché de clave-valor en toda la infraestructura de IA, lo que mejora la capacidad de respuesta y el rendimiento, al tiempo que permite un escalado predecible y energéticamente eficiente de la IA agencial.

 

A medida que las fábricas de IA adoptan cada vez más modelos de implementación bare-metal y multitenant, se hace esencial mantener un fuerte control y aislamiento de la infraestructura.

 

BlueField-4 también introduce la arquitectura avanzada de recursos seguros y confiables (ASTRA), una arquitectura de confianza a nivel de sistema que ofrece a los creadores de infraestructura de IA un único punto de control confiable para aprovisionar, aislar y operar de forma segura entornos de IA a gran escala sin comprometer el rendimiento.

 

A medida que las aplicaciones de IA evolucionan hacia el razonamiento agéntico multiturno, las organizaciones nativas de IA deben gestionar y compartir volúmenes mucho mayores de contexto de inferencia entre usuarios, sesiones y servicios.

 

Diferentes formas para diferentes cargas de trabajo

NVIDIA Vera Rubin NVL72 ofrece un sistema unificado y seguro que combina 72 GPU NVIDIA Rubin, 36 CPU NVIDIA Vera, NVIDIA NVLink 6, NVIDIA ConnectX-9 SuperNIC y NVIDIA BlueField-4 DPU.

 

NVIDIA también ofrecerá la plataforma NVIDIA HGX Rubin NVL8, una placa de servidor que conecta ocho GPU Rubin a través de NVLink para admitir plataformas de IA generativa basadas en x86. La plataforma HGX Rubin NVL8 acelera el entrenamiento, la inferencia y la computación científica para cargas de trabajo de IA y computación de alto rendimiento.

 

NVIDIA DGX SuperPOD™ sirve como referencia para implementar sistemas basados en Rubin a gran escala, integrando los sistemas NVIDIA DGX Vera Rubin NVL72 o DGX Rubin NVL8 con DPU NVIDIA BlueField-4, SuperNIC NVIDIA ConnectX-9, redes NVIDIA InfiniBand y el software NVIDIA Mission Control™.

 

Redes Ethernet de última generación

Las redes Ethernet avanzadas y el almacenamiento son componentes de la infraestructura de IA fundamentales para mantener los centros de datos funcionando a plena velocidad, mejorar el rendimiento y la eficiencia, y reducir los costos.

 

NVIDIA Spectrum-6 Ethernet es la próxima generación de Ethernet para redes de IA, diseñada para ampliar las fábricas de IA basadas en Rubin con mayor eficiencia y resistencia, y habilitada por circuitos de comunicación SerDes de 200G, óptica copackaged y estructuras optimizadas para IA.

 

Basados en la arquitectura Spectrum-6, los sistemas de conmutadores ópticos co-empaquetados Spectrum-X Ethernet Photonics ofrecen una fiabilidad 10 veces mayor y un tiempo de actividad 5 veces más largo para aplicaciones de IA, al tiempo que logran una eficiencia energética 5 veces superior, maximizando el rendimiento por vatio en comparación con los métodos tradicionales. La tecnología Spectrum-XGS Ethernet, que forma parte de la plataforma Spectrum-X Ethernet, permite que instalaciones separadas por cientos de kilómetros y más funcionen como un único entorno de IA.
 

En conjunto, estas innovaciones definen la próxima generación de la plataforma Ethernet NVIDIA Spectrum-X, diseñada con un codiseño extremo para Rubin con el fin de habilitar fábricas de IA a gran escala y allanar el camino para futuros entornos con millones de GPU.

 

Preparación de Rubin

NVIDIA Rubin se encuentra en plena producción, y los productos basados en Rubin estarán disponibles a través de nuestros socios en la segunda mitad de 2026.

 

Entre los primeros proveedores de nube que implementarán instancias basadas en Vera Rubin en 2026 se encuentran AWS, Google Cloud, Microsoft y OCI, así como los socios de NVIDIA Cloud CoreWeave, Lambda, Nebius y Nscale.

 

Microsoft implementará los sistemas a escala de rack NVIDIA Vera Rubin NVL72 como parte de los centros de datos de IA de próxima generación, incluidas las futuras superfábricas de IA de Fairwater.

 

Diseñada para ofrecer una eficiencia y un rendimiento sin precedentes para las cargas de trabajo de entrenamiento e inferencia, la plataforma Rubin sentará las bases para las capacidades de IA en la nube de próxima generación de Microsoft. Microsoft Azure ofrecerá una plataforma altamente optimizada que permitirá a los clientes acelerar la innovación en aplicaciones empresariales, de investigación y de consumo.

 

CoreWeave integrará los sistemas basados en NVIDIA Rubin en su plataforma de IA en la nube a partir de la segunda mitad de 2026. CoreWeave está diseñado para operar múltiples arquitecturas en paralelo, lo que permite a los clientes incorporar Rubin a sus entornos, donde ofrecerá el mayor impacto en las cargas de trabajo de entrenamiento, inferencia y agentes.

 

Junto con NVIDIA, CoreWeave ayudará a los pioneros de la IA a aprovechar los avances de Rubin en razonamiento y modelos MoE, al tiempo que seguirá ofreciendo el rendimiento, la fiabilidad operativa y la escala necesarios para la producción de IA a lo largo de todo el ciclo de vida con CoreWeave Mission Control.

 

Además, se espera que Cisco, Dell, HPE, Lenovo y Supermicro ofrezcan una amplia gama de servidores basados en productos Rubin.
 

Laboratorios de IA como Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab y xAI están apostando por la plataforma NVIDIA Rubin para entrenar modelos más grandes y capaces, y para dar servicio a sistemas multimodales de contexto largo con menor latencia y coste que con las generaciones anteriores de GPU.

 

Los socios de software de infraestructura y almacenamiento AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data y WEKA están colaborando con NVIDIA para diseñar plataformas de última generación para la infraestructura Rubin.

 

La plataforma Rubin marca la tercera generación de la arquitectura a escala de rack de NVIDIA, con más de 80 socios del ecosistema NVIDIA MGX™.

 

Para desbloquear esta densidad, Red Hat ha anunciado hoy una colaboración ampliada con NVIDIA para ofrecer una pila de IA completa optimizada para la plataforma NVIDIA Rubin con la cartera de nube híbrida de Red Hat, que incluye Red Hat Enterprise Linux, Red Hat OpenShift y Red Hat AI. Estas soluciones son utilizadas por la gran mayoría de las empresas de la lista Fortune Global 500.

 

Obtenga más información al ver NVIDIA Live en CES y leyendo el blog técnico “Inside Vera Rubin”.

 

Acerca de NVIDIA

Desde su fundación en 1993, NVIDIA (NASDAQ: NVDA) ha sido pionera en el campo de la aceleración computacional. La invención de la GPU por parte de la compañía en 1999 estimuló el crecimiento del mercado de juegos para PC, redefinió los gráficos por ordenador, inauguró la era de la IA moderna y ha contribuido a la digitalización industrial en todos los mercados. En la actualidad, NVIDIA es una empresa de infraestructuras informáticas completas con soluciones a escala de centro de datos que están revolucionando la industria. Para saber más: Link.

Ver también: 

Facebook: NVIDIALatinoamérica

Twitter: NVIDIALatinoamérica

Instagram: NVIDIALatam

YouTube: NVIDIA Latinoamérica

LinkedIn: NVIDIALatinoamérica

 

Sing Comunicação – Oficina de prensa de NVIDIA (división Enterprise) en Brasil, Mexico y Latinoamérica

Contacto de prensa: nvidia@singcomunica.com

06/01/2026

 

Ciertas declaraciones en este comunicado de prensa, que incluyen, entre otras, declaraciones sobre: la IA revolucionando toda la pila de computación y el almacenamiento; la IA ya no se trata de chatbots de interacción lineal, sino de colaboradores inteligentes que entienden el mundo físico, razonan sobre horizontes largos, se mantienen basados en los hechos, utilizan herramientas para realizar trabajo real y retienen la memoria tanto a corto como a largo plazo; gracias a BlueField-4, NVIDIA y sus socios de software y hardware reinventan la pila de almacenamiento para la próxima frontera de la IA; los beneficios, el impacto, el desempeño y la disponibilidad de los productos, servicios y tecnologías de NVIDIA; expectativas con respecto a los acuerdos de NVIDIA con terceros, incluidos sus colaboradores y socios; expectativas con respecto a los desarrollos tecnológicos; y otras afirmaciones que no son hechos históricos son declaraciones prospectivas en el sentido de la sección 27A de la Ley de Valores de 1933, en su versión modificada, y la sección 21E de la Ley de Bolsa de Valores de 1934, en su versión modificada, que están sujetas a las disposiciones de “puerto seguro” creadas por esas secciones, basadas en las creencias y suposiciones de la administración y en la información actualmente disponible para la misma, y que están sujetas a riesgos e incertidumbres que podrían causar que los resultados sean sustancialmente diferentes de las expectativas. Los factores importantes que podrían causar que los resultados reales difieran sustancialmente incluyen: las condiciones económicas y políticas globales; la dependencia de NVIDIA de terceros para la fabricación, el ensamblaje, el empaquetado y la prueba de los productos de NVIDIA; el impacto del desarrollo tecnológico y la competencia; el desarrollo de nuevos productos y tecnologías, o mejoras a los productos y tecnologías actuales de NVIDIA; la aceptación por parte del mercado de los productos de NVIDIA o de los productos de los socios de NVIDIA; defectos de diseño, manufactura o software; cambios en las preferencias o demandas de los consumidores; cambios en las normas e interfaces de la industria; pérdidas inesperadas de desempeño de los productos o tecnologías de NVIDIA cuando se integran en los sistemas; y cambios en las leyes y regulaciones aplicables, así como otros factores detallados ocasionalmente en los informes más recientes que NVIDIA presenta ante la Comisión de Valores y Bolsa (SEC), que incluyen, entre otros, su informe anual en el Formulario 10-K e informes trimestrales en el Formulario 10-Q. Las copias de los informes presentados ante la SEC se publican en el sitio web de la empresa y están disponibles a través de NVIDIA sin costo alguno. Estas declaraciones prospectivas no son garantías de desempeño futuro y solo se refieren a la fecha del presente documento. Además, NVIDIA renuncia a cualquier obligación de actualizar estas declaraciones prospectivas para reflejar circunstancias o eventos futuros, excepto cuando lo exija la ley.     

© 2026 NVIDIA Corporation. Todos los derechos reservados. NVIDIA, el logotipo de NVIDIA, BlueField, NVIDIA DOCA y NVIDIA Spectrum-X son marcas comerciales registradas de NVIDIA Corporation en Estados Unidos y otros países. Otros nombres de empresas y productos pueden ser marcas comerciales de las respectivas empresas con las que están asociados. Las funciones, los precios, la disponibilidad y las especificaciones están sujetos a cambios sin previo aviso.


Também encontrado em:


A Sing utiliza cookies e outras tecnologias semelhantes para melhorar a sua experiência, de acordo com a nossa política de privacidade e, ao continuar navegando, você concorda com estas condições.