Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Jensen Huang desvela una nueva era de supercomputación, Vera Rubin se convierte en el catalizador del cambio en el campo de la IA
Jensen Huang volvió a subir al escenario del CES, y este líder de NVIDIA, con un lanzamiento tecnológico de gran envergadura, mostró a toda la industria la dirección futura del cómputo de IA. A diferencia de años anteriores, el plato fuerte de este año no fue una tarjeta gráfica de consumo tradicional, sino una plataforma de supercomputación empresarial que pesa 2.5 toneladas e integra 6 chips personalizados: Vera Rubin. Este nombre proviene de la astrónoma Vera Rubin, simbolizando que NVIDIA continuará explorando nuevas fronteras en el universo de la IA.
La reconstrucción de la lógica de diseño de chips de Vera Rubin y la innovación sistémica detrás del salto en rendimiento
En los métodos tradicionales de I+D, NVIDIA suele seguir una estrategia conservadora de “innovar solo 1-2 chips por generación”. Pero Vera Rubin rompió con esa norma, diseñando y produciendo en masa 6 nuevos chips de una sola vez, una medida sin precedentes en la industria. Jensen Huang la denominó “diseño colaborativo extremo”: una innovación sincronizada en todos los niveles de la arquitectura de chips y la plataforma completa.
Estos 6 chips cumplen funciones específicas: el CPU Vera utiliza la arquitectura Olympus personalizada de NVIDIA con 88 núcleos, y cuenta con 1.5TB de memoria del sistema (triplicando la de la generación anterior, Grace), lo que ya es suficiente para soportar aplicaciones de IA más complejas; el GPU Rubin es la fuerza principal en rendimiento, alcanzando 50 PFLOPS en inferencia, cinco veces más que la generación Blackwell anterior, con solo un aumento de 1.6 veces en la cantidad de transistores, demostrando una eficiencia de diseño sobresaliente.
Además de estos “cerebros”, Vera Rubin integra también la tarjeta de red ConnectX-9, la unidad de procesamiento de datos BlueField-4, los chips de intercambio NVLink-6 y Spectrum-6 para Ethernet óptico. Cada chip ha sido meticulosamente perfeccionado para que todo el sistema funcione como un organismo coordinado.
En términos de rendimiento real, el sistema NVL72, basado en la arquitectura Vera Rubin, alcanza 3.6 EFLOPS en tareas de inferencia, cinco veces más que la generación Blackwell; en entrenamiento, llega a 2.5 EFLOPS, un aumento de 3.5 veces. Lo más notable es que estas mejoras de rendimiento vienen con solo un incremento de 1.7 veces en la cantidad de transistores, lo que indica avances significativos en procesos semiconductores y optimización arquitectónica por parte de NVIDIA.
Los avances en diseño físico también son sorprendentes. Antes, los nodos de supercomputación requerían 43 cables, 2 horas para ensamblar y eran propensos a errores. Ahora, los nodos Vera Rubin no necesitan cables, solo 6 tubos de enfriamiento líquido, y el ensamblaje se reduce a 5 minutos. La red principal NVLink que conecta estos nodos está compuesta por casi 3,200 km de cobre y 5,000 cables, transmitiendo datos a 400 Gbps. La complejidad de esta ingeniería llevó a Jensen Huang a bromear diciendo que “probablemente solo un CEO muy fuerte podría moverlo”.
La revolución de la memoria y la aceleración de red, claves para resolver los cuellos de botella en aplicaciones de IA
Un gran problema en las aplicaciones de IA es la insuficiencia de memoria contextual. Cuando los modelos de IA realizan tareas de diálogo, generan un “KV Cache”, que funciona como la memoria de trabajo de la IA. A medida que aumenta el número de turnos en la conversación y la escala del modelo, la memoria HBM de alta banda ancha se agota rápidamente.
La solución de Vera Rubin es desplegar unidades BlueField-4 para gestionar de forma independiente el KV Cache. Cada nodo cuenta con 4 BlueField-4, cada uno con 150 TB de memoria de contexto, lo que permite que cada GPU tenga 16 TB adicionales de capacidad de memoria — un salto revolucionario, ya que una sola GPU originalmente solo tenía alrededor de 1 TB de memoria integrada. Lo más importante es que esta expansión no reduce la velocidad de acceso, manteniendo el ancho de banda en 200 Gbps.
Pero no basta con ampliar la memoria; cuando la memoria de trabajo debe coordinarse a través de decenas de servidores y decenas de miles de GPUs, la infraestructura de red se convierte en un nuevo cuello de botella. Para ello surge Spectrum-X, la primera plataforma Ethernet “especializada en generación de IA” de NVIDIA. Utiliza el proceso COOP de TSMC, integra tecnología de fotónica de silicio y soporta tasas de transmisión de 512 canales × 200 Gbps.
Desde una perspectiva económica, para un centro de datos de kilovatios con una inversión de 5 mil millones de dólares, Spectrum-X puede aumentar el rendimiento en un 25%, lo que equivale a un ahorro de 500 millones de dólares — y Jensen Huang describe este sistema de red como “casi regalado”.
Además, Vera Rubin también ha avanzado en seguridad computacional. Todos los datos en tránsito, almacenamiento y cálculo están cifrados, incluyendo canales PCIe, NVLink, comunicaciones CPU-GPU y otros buses. Las empresas pueden desplegar sus propios modelos en sistemas externos sin preocuparse por la fuga de datos.
La ola de código abierto y la democratización de la IA, cómo los nuevos modelos están redefiniendo el ecosistema industrial
Uno de los aspectos destacados de la conferencia fue la entusiasta valoración de Jensen Huang hacia la comunidad de IA de código abierto. Mencionó especialmente cómo el lanzamiento revolucionario de DeepSeek V1 el año pasado sacudió al mundo, calificándolo como “el primer modelo de inferencia de código abierto”, que encendió una ola de innovación en toda la industria. En las diapositivas, Kimi y DeepSeek V3.2 de China ocupan respectivamente los primeros y segundos puestos en los rankings globales de modelos de código abierto.
Jensen Huang admitió que, aunque los modelos de código abierto actuales todavía están unos meses atrás de las soluciones líderes del mercado, cada medio año aparecen nuevos modelos revolucionarios. Esta velocidad de iteración mantiene a startups, gigantes tecnológicos e instituciones de investigación en constante alerta, y NVIDIA sabe que no puede faltar a esta competencia.
Por ello, NVIDIA ya no se limita a ser un fabricante de chips. Han construido un clúster de supercomputación DGX Cloud valorado en miles de millones de dólares, desarrollado aplicaciones punteras como La Proteina para síntesis de proteínas y OpenFold 3, y continúan expandiendo un ecosistema de código abierto centrado en salud, física de IA, agentes inteligentes, robótica y conducción autónoma.
La familia de modelos Nemotron también destaca, abarcando dimensiones como reconocimiento de voz, multimodalidad, generación con recuperación mejorada y seguridad. Estos modelos muestran un rendimiento sobresaliente en múltiples rankings y ya son utilizados por muchas empresas en aplicaciones reales.
La encarnación física de la IA, Alpamayo, y la era de la inferencia en conducción autónoma
Si los grandes modelos de lenguaje resolvieron el “mundo digital”, la siguiente ambición de Jensen Huang es conquistar el “mundo físico”. Propuso una arquitectura de “tres computadoras clave” para impulsar la IA física: la computadora de entrenamiento (basada en sistemas tradicionales con GPU), la computadora de inferencia (en robots o vehículos autónomos en el borde, como un “pequeño cerebro”), y la computadora de simulación (entrenamiento virtual con Omniverse y Cosmos).
El producto que materializa esta arquitectura de tres niveles es Alpamayo, el primer sistema de conducción autónoma con capacidad de pensamiento en el mundo, lanzado oficialmente por NVIDIA. A diferencia de los sistemas tradicionales basados en reglas, Alpamayo es un sistema de aprendizaje profundo de extremo a extremo, que resuelve el “problema de la cola larga” en conducción autónoma.
Cuando un vehículo enfrenta condiciones de tráfico extremadamente complejas, Alpamayo no simplemente ejecuta instrucciones preprogramadas, sino que realiza razonamiento y toma decisiones como un conductor humano. Lo más innovador es que el sistema “te dice qué va a hacer a continuación y por qué”. En una demostración en vivo, el coche autónomo mostró una capacidad sorprendente, descomponiendo escenarios de tráfico muy complejos en conocimientos básicos para responder.
El Mercedes-Benz CLA fue el primer vehículo comercial en adoptar la tecnología Alpamayo. Jensen Huang anunció que este modelo equipado con dicha tecnología saldrá en el primer trimestre de este año en Estados Unidos, y posteriormente llegará a Europa y Asia. Además, obtuvo la máxima puntuación en las pruebas de seguridad NCAP, gracias a la “doble pila de seguridad” diseñada por NVIDIA: cuando el modelo de IA no tiene suficiente confianza en las condiciones del camino, el sistema cambia inmediatamente a un modo de seguridad tradicional más estable, garantizando la seguridad total.
Ecosistema robótico y futuro industrial, de lo virtual a la manufactura real
Otro punto clave de la conferencia fue la estrategia de robótica. NVIDIA invitó a varios socios a presentar robots, incluyendo humanoides y el cuadrúpedo de Boston Dynamics. Jensen Huang enfatizó que todos estos robots llevarán unidades de procesamiento Jetson, entrenados en entornos simulados con Isaac Simulator basado en Omniverse.
Una visión aún más ambiciosa es que NVIDIA está integrando este ecosistema tecnológico en los principales softwares industriales como Synopsys, Cadence y Siemens. Para Jensen Huang, la mayor “máquina” en realidad es la propia fábrica.
Desde abajo hacia arriba, el futuro de NVIDIA contempla que el diseño de chips, la ingeniería de sistemas y la simulación de fábricas serán acelerados por IA física. En la escena también apareció una sorpresa: un robot de Disney. Jensen Huang, con humor, les dijo a estos robots adorables: “Serán diseñados en computadoras, fabricados en computadoras, e incluso antes de sentir la gravedad real, serán probados y certificados en computadoras”.
Si solo se mira la segunda mitad de la conferencia, uno podría pensar que se trata del lanzamiento de productos de alguna empresa de robots o modelos.
De proveedor de chips a habilitador de IA: el cambio estratégico de Jensen Huang
En el contexto de las controversias sobre la burbuja de la IA, la lógica profunda de esta conferencia de Jensen Huang resulta interesante. Además de que la desaceleración de la Ley de Moore ha enfriado las rutas tradicionales de optimización de rendimiento, claramente también busca demostrar el valor real de la IA a través de plataformas como Vera Rubin — elevando la capacidad de cálculo a aplicaciones concretas.
Este cambio estratégico, de vender solo chips a convertirse en habilitador de IA, no se limita al hardware. Más importante aún, NVIDIA ha comenzado a invertir profundamente en la capa de aplicaciones y en el ecosistema: apoyando modelos de código abierto, construyendo DGX Cloud, desarrollando aplicaciones punteras como Alpamayo para conducción autónoma y modelos de física de IA, todo con casos de uso reales que muestran cómo la IA puede cambiar verdaderamente el mundo.
Un detalle final interesante es que, debido a las limitaciones de tiempo en el CES, Jensen Huang preparó muchas diapositivas que no pudo mostrar en vivo. En lugar de eso, hizo un video humorístico que recopila estos contenidos no presentados, reflejando el estilo personal de este líder de la industria: serio en innovación tecnológica, pero con una visión relajada del desarrollo industrial.