Discurso completo de Huang Renxun en la GTC: Ha llegado la era de la inferencia, y se prevé que los ingresos alcancen al menos un billón de dólares para 2027; Lobster es el nuevo sistema operativo

By: datos raíz|2026/03/17 12:52:29
0
Compartir
copy

El 16 de marzo de 2026 se inauguró oficialmente la conferencia NVIDIA GTC 2026, en la que el fundador y director ejecutivo de NVIDIA, Jensen Huang, pronunció el discurso de apertura.

En esta conferencia, considerada como la «peregrinación anual del sector de la IA», Huang explicó en detalle la transformación de NVIDIA de una «empresa de chips» a una «empresa de infraestructura y fabricación de IA». En respuesta a las inquietudes del mercado sobre la sostenibilidad del rendimiento y el potencial de crecimiento, Huang detalló la lógica empresarial subyacente que impulsa el crecimiento futuro: la «economía de las fábricas de tokens».

Las previsiones de rendimiento son extremadamente optimistas: «Al menos un billón de dólares en demanda para 2027».

En los últimos dos años, la demanda mundial de recursos informáticos para la inteligencia artificial se ha disparado de forma exponencial. A medida que los modelos a gran escala evolucionan de la «percepción» y la «generación» al «razonamiento» y la «acción (ejecución de tareas)», el consumo de potencia de cálculo se ha disparado de forma espectacular. En respuesta a las inquietudes del mercado sobre los límites máximos de pedidos e ingresos, Huang expresó unas expectativas muy optimistas.

Huang afirmó en su discurso:

El año pasado por estas fechas, mencioné que habíamos observado una demanda con un alto grado de fiabilidad de 500 000 millones de dólares, que abarcaba los proyectos de Blackwell y Rubin hasta 2026. Ahora mismo, aquí y ahora, preveo una demanda de al menos un billón de dólares para 2027.

La previsión de Huang de alcanzar el billón de dólares hizo que el precio de las acciones de NVIDIA subiera más de un 4,3 %.

Además, añadió lo siguiente a esta cifra:

¿Te parece razonable? De eso voy a hablar a continuación. De hecho, es posible que incluso nos enfrentemos a una escasez de suministro. Estoy seguro de que la demanda real de recursos informáticos será mucho mayor.

Huang señaló que los sistemas actuales de NVIDIA han demostrado ser la «infraestructura más económica» del mundo. Dado que NVIDIA puede ejecutar modelos de IA en prácticamente todos los ámbitos, esta versatilidad garantiza que los 1 billón de dólares invertidos por los clientes puedan aprovecharse al máximo y mantenerse a lo largo de un ciclo de vida prolongado.

En la actualidad, el 60 % del negocio de NVIDIA procede de los cinco principales proveedores de servicios en la nube a hiperescala, mientras que el 40 % restante se distribuye ampliamente entre nubes soberanas, empresas, sectores industriales, robótica y computación periférica.

La economía de las fábricas de tokens, donde el rendimiento por vatio es el motor del negocio

Para explicar lo razonable de esta demanda de un billón de dólares, Huang presentó una nueva mentalidad empresarial a los directores generales de empresas internacionales. Señaló que los futuros centros de datos ya no serán meros almacenes para guardar archivos, sino «fábricas» que producirán tokens (la unidad básica generada por la IA).

Huang destacó:

Se considera que todos los centros de datos y todas las fábricas tienen limitaciones en cuanto al suministro eléctrico. Una planta de 1 GW (gigavatio) nunca se convertirá en una de 2 GW; es una ley de la física y de la estructura atómica. A potencia fija, quien tenga el mayor rendimiento de tokens por vatio tendrá los costes de producción más bajos.

Huang clasificó los futuros servicios de IA en cuatro niveles de negocio:

  • Plan gratuito (alto rendimiento, baja velocidad)
  • Gama media (aproximadamente 3 $ por millón de tokens)
  • Nivel alto (aproximadamente 6 $ por cada millón de tokens)
  • Nivel de alta velocidad (aprox. 45 $ por millón de tokens)
  • Nivel de velocidad ultrarrápida (aprox. 150 $ por millón de tokens)

Señaló que, a medida que los modelos se hagan más grandes y los contextos más largos, la IA será más inteligente, pero la tasa de generación de tokens disminuirá. Huang afirmó:

En esta «Token Factory», tu rendimiento y la velocidad de generación de tokens se traducirán directamente en tus ingresos exactos para el próximo año.

Huang destacó que la arquitectura de NVIDIA permite a los clientes alcanzar un rendimiento extremadamente alto en el nivel gratuito, al tiempo que logra una asombrosa mejora del rendimiento de 35 veces en el nivel de inferencia de mayor valor.

Vera Rubin logra una aceleración de 350 veces en dos años; Groq cubre el vacío existente en la inferencia ultrarrápida

A pesar de las limitaciones físicas, NVIDIA presentó Vera Rubin, su sistema de computación de IA más complejo hasta la fecha. Huang afirmó:

Antes, cuando hablaba de Hopper, solía mostrar una ficha, lo cual estaba muy bien. Pero cuando se menciona a Vera Rubin, todo el mundo piensa en todo el sistema. En este sistema refrigerado íntegramente por líquido, que elimina por completo el cableado tradicional, los racks que antes tardaban dos días en instalarse ahora solo requieren dos horas.

Huang señaló que, gracias a un diseño conjunto extremo de hardware y software de extremo a extremo, Vera Rubin logró un avance asombroso en el tratamiento de datos dentro del mismo centro de datos de 1 GW:

En solo dos años, hemos aumentado la tasa de generación de tokens de 22 millones a 700 millones, lo que supone un crecimiento de 350 veces. La Ley de Moore, durante ese mismo periodo, solo permitió un aumento de 1,5 veces.

Para resolver el cuello de botella del ancho de banda en condiciones de inferencia ultrarrápida (como 1000 tokens por segundo), NVIDIA ofreció la solución definitiva mediante la integración de la empresa adquirida Groq: la inferencia asimétrica separada. Huang explicó:

Estos dos procesadores tienen características totalmente diferentes. El chip Groq tiene 500 MB de SRAM, mientras que un chip Rubin cuenta con 288 GB de memoria.

Huang señaló que NVIDIA, a través del sistema de software Dynamo, asigna la fase de «prellenado» —que requiere una enorme capacidad de cálculo y memoria de vídeo— a Vera Rubin, mientras que la fase de «decodificación» —que es extremadamente sensible a la latencia— se asigna a Groq. Huang también ofreció algunas recomendaciones sobre la configuración de la potencia informática en las empresas:

Si tu carga de trabajo se caracteriza principalmente por un alto rendimiento, utiliza Vera Rubin al 100 %; si tienes una gran cantidad de necesidades de generación de tokens de alto valor a nivel de programación, asigna el 25 % de la capacidad de tu centro de datos a Groq.

Se ha revelado que el chip Groq LP30, fabricado por Samsung, ha entrado en fase de producción en masa y se espera que comience a comercializarse en el tercer trimestre, mientras que el primer rack Vera Rubin ya está operativo en Microsoft Azure.

Además, en lo que respecta a la tecnología de interconexión óptica, Huang presentó el Spectrum X, el primer conmutador óptico de encapsulado conjunto (CPO) fabricado en serie del mundo, y disipó las preocupaciones del mercado sobre la «transición del cobre a la fibra óptica»:

Necesitamos más capacidad de cable de cobre, más capacidad de chips ópticos y más capacidad de CPO.

Precio de --

--

El agente pone fin al SaaS tradicional; el modelo «salario + tokens» se convierte en la norma en Silicon Valley

Además de las barreras de hardware, Huang dedicó una parte importante de su discurso a la revolución en el software y los ecosistemas de IA, en particular al auge de los agentes.

Describió el proyecto de código abierto OpenClaw como «el proyecto de código abierto más popular de la historia de la humanidad», afirmando que había superado los logros de Linux en los últimos 30 años en tan solo unas semanas. Huang afirmó sin rodeos que OpenClaw es, en esencia, el «sistema operativo» de los ordenadores agentes.

Huang afirmó:

Todas las empresas de SaaS (Software como servicio) se convertirán en empresas de AaaS (Agente como servicio). No hay duda de que, para implementar de forma segura estos agentes —que tienen la capacidad de acceder a datos confidenciales y ejecutar código—, NVIDIA ha lanzado un diseño de referencia de NeMo Claw para el ámbito empresarial, que incorpora un motor de políticas y un enrutador de privacidad.

Para los profesionales en general, esta transformación también está a la vuelta de la esquina. Huang imaginó una nueva forma de lugar de trabajo para el futuro:

En el futuro, todos los ingenieros de nuestra empresa necesitarán un presupuesto anual para tokens. Su salario base puede ascender a cientos de miles de dólares, y les asignaré aproximadamente la mitad de esa cantidad como una cuota simbólica, lo que les permitirá multiplicar por diez su eficiencia. Esto ya se ha convertido en un nuevo factor de negociación en Silicon Valley: ¿cuántas tokens incluye tu oferta?

Al final de su intervención, Huang también «desveló» la arquitectura informática de próxima generación, Feynman, que logrará por primera vez en la historia el escalado horizontal conjunto de cables de cobre y CPO. Lo más interesante es que NVIDIA está desarrollando un ordenador para centros de datos destinado al espacio, el «Vera Rubin Space-1», lo que abre un amplio abanico de posibilidades en cuanto a la potencia de cálculo de la IA más allá de la Tierra.

El texto completo del discurso de Jensen Huang en la GTC 2026 es el siguiente (con la ayuda de herramientas de IA):

Presentador: Demos la bienvenida al escenario a Jensen Huang, fundador y director ejecutivo de NVIDIA.

Jensen Huang, fundador y director ejecutivo:

Bienvenido a GTC. Quiero recordarles a todos que se trata de una conferencia sobre tecnología. Me alegra mucho ver a tanta gente haciendo cola desde primera hora de la mañana y teneros a todos aquí.

En la GTC, nos centraremos en tres temas principales: tecnología, plataforma y ecosistema. Actualmente, NVIDIA cuenta con tres plataformas principales: la plataforma CUDA-X, la plataforma de sistemas y nuestra recién lanzada plataforma AI Factory.

Antes de empezar oficialmente, quiero dar las gracias a los presentadores de la sesión introductoria: Sarah Guo, de Conviction; Alfred Lin, de Sequoia Capital (el primer inversor de capital riesgo de NVIDIA); y Gavin Baker, el primer gran inversor institucional de NVIDIA. Estas tres personas poseen un profundo conocimiento de la tecnología y ejercen una gran influencia en todo el ecosistema tecnológico. Por supuesto, también quiero dar las gracias a todos los distinguidos invitados a los que he invitado personalmente a asistir hoy. Gracias a este equipo de primera.

También quiero dar las gracias a todas las empresas presentes hoy aquí. NVIDIA es una empresa de plataformas, y contamos con tecnología, plataformas y un amplio ecosistema. Las empresas aquí presentes representan a casi todos los participantes de este sector, cuyo valor asciende a 100 billones de dólares, y son 450 las empresas que patrocinan este evento, por lo que les estoy profundamente agradecido.

Esta conferencia cuenta con 1.000 foros técnicos y 2.000 ponentes, y abarca todos los niveles de la arquitectura de la IA, conocida como «pastel de cinco capas»: desde la infraestructura —como terrenos, suministro eléctrico y centros de datos— hasta los chips, las plataformas, los modelos y las diversas aplicaciones que, en última instancia, impulsan todo el sector.

CUDA: Dos décadas de avances tecnológicos

Todo empieza aquí. Este año se cumple el vigésimo aniversario de CUDA.

Durante los últimos veinte años, nos hemos dedicado al desarrollo de esta arquitectura. CUDA es un invento revolucionario: la tecnología SIMT (Single Instruction Multiple Threads) permite a los desarrolladores escribir programas en código escalar y ampliarlos a aplicaciones multihilo, con una dificultad de programación mucho menor que la de las arquitecturas SIMD anteriores. Recientemente hemos incorporado la función «Tiles» para ayudar a los desarrolladores a programar los núcleos Tensor de forma más cómoda, así como diversas estructuras de operaciones matemáticas en las que se basa la IA actual. En la actualidad, CUDA cuenta con miles de herramientas, compiladores, marcos de trabajo y bibliotecas, además de cientos de miles de proyectos públicos en la comunidad de código abierto, y se ha integrado profundamente en todos los ecosistemas tecnológicos.

Este gráfico pone de manifiesto la lógica 100 % estratégica de NVIDIA, de la que he estado hablando desde el principio. El elemento más difícil y fundamental es la «base instalada», que se encuentra en la parte inferior del gráfico. En los últimos veinte años, hemos acumulado cientos de millones de GPU y sistemas informáticos que ejecutan CUDA en todo el mundo.

Nuestras GPU son compatibles con todas las plataformas en la nube y se utilizan en casi todos los fabricantes de ordenadores y sectores. La amplia base instalada de CUDA es la razón fundamental por la que este efecto de inercia sigue acelerándose. La base instalada atrae a los desarrolladores; estos crean nuevos algoritmos y avances; los avances generan nuevos mercados; los nuevos mercados dan lugar a nuevos ecosistemas y atraen a más empresas, lo que a su vez amplía la base instalada: este efecto sinfín se acelera continuamente.

El volumen de descargas de las bibliotecas de NVIDIA está creciendo a un ritmo asombroso, con una gran escala y una velocidad cada vez mayor. Este motor impulsor permite que nuestra plataforma informática dé cabida a aplicaciones a gran escala y a continuos avances innovadores.

Y lo que es más importante, también confiere a estas infraestructuras una vida útil extremadamente larga. La razón es obvia: existe una gran variedad de aplicaciones que pueden ejecutarse en NVIDIA CUDA, que abarcan todas las etapas del ciclo de vida de la IA, diversas plataformas de procesamiento de datos y diversos solucionadores basados en principios científicos. Por lo tanto, una vez instaladas las GPU de NVIDIA, su valor de uso real es extremadamente alto. Por eso también el precio en la nube de la GPU con arquitectura Ampere que lanzamos hace seis años ha ido aumentando.

La razón fundamental de todo esto es: una amplia base instalada, un fuerte impulso y un amplio ecosistema de desarrolladores. Cuando estos factores se combinen, junto con nuestras continuas actualizaciones de software, los costes informáticos seguirán disminuyendo. La computación acelerada mejora considerablemente el rendimiento de las aplicaciones y, a medida que mantenemos y actualizamos el software a largo plazo, los usuarios no solo obtienen mejoras significativas en el rendimiento desde el principio, sino que también siguen beneficiándose de una reducción de los costes de computación. Estamos dispuestos a ofrecer soporte a largo plazo para todas las GPU a nivel mundial, ya que son totalmente compatibles a nivel arquitectónico.

Estamos dispuestos a hacerlo porque la base de usuarios es tan amplia que, cada vez que se lanza una nueva optimización, beneficia a millones de usuarios. Esta combinación dinámica permite a la arquitectura de NVIDIA ampliar continuamente su alcance, acelerar su propio crecimiento y reducir constantemente los costes informáticos, lo que, en última instancia, estimula un nuevo crecimiento. CUDA es el núcleo de todo esto.

De GeForce a CUDA: Una evolución de 25 años

De hecho, nuestra andadura con CUDA comenzó hace 25 años.

GeForce: muchos de vosotros habéis crecido con GeForce. GeForce es el proyecto de marketing más exitoso de NVIDIA. Empezamos a fidelizar a nuestros futuros clientes cuando vosotros aún no podíais permitirvos nuestros productos: vuestros padres se convirtieron en los primeros usuarios de NVIDIA, comprando nuestros productos año tras año, hasta que un día crecisteis y os convertisteis en excelentes informáticos, pasando a ser auténticos clientes y desarrolladores.

Esta es la base que sentó GeForce hace 25 años. Hace veinticinco años, inventamos los sombreadores programables —un invento obvio, pero de gran importancia, que permitió programar los aceleradores— y el primer acelerador programable del mundo: los sombreadores de píxeles. Cinco años después, creamos CUDA, una de nuestras inversiones más importantes de la historia. En aquel momento, la empresa contaba con recursos financieros limitados, pero apostamos la mayor parte de nuestros beneficios a este proyecto, con el compromiso de llevar CUDA desde GeForce a todos los ordenadores. Estábamos tan decididos porque creíamos en su potencial. A pesar de las dificultades que atravesó en sus inicios, la empresa se mantuvo fiel a esta convicción durante trece generaciones, es decir, veinte años, y hoy en día CUDA está presente en todas partes.

Fue el sombreador de píxeles el que impulsó la revolución de GeForce. Hace unos ocho años, lanzamos RTX, una revisión integral de la arquitectura para la era moderna de los gráficos por ordenador. GeForce introdujo CUDA en el mundo y, gracias a ello, muchos investigadores como Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton y Andrew Ng descubrieron que las GPU podían convertirse en potentes herramientas para acelerar el aprendizaje profundo, lo que desencadenó la explosión de la IA hace una década.

Hace una década, decidimos combinar el sombreado programable con dos nuevos conceptos: uno era el trazado de rayos por hardware, que supone un reto técnico; el otro era una idea con visión de futuro: hace unos diez años, previmos que la inteligencia artificial transformaría radicalmente los gráficos por ordenador. Al igual que GeForce introdujo la IA en el mundo, ahora la IA está transformando la forma en que se implementan los gráficos por ordenador.

Hoy quiero mostraros el futuro. Esta es nuestra tecnología gráfica de última generación, a la que denominamos «renderizado neuronal»: una integración profunda de los gráficos 3D y la inteligencia artificial. Esto es DLSS 5, échale un vistazo.

Renderizado neuronal: La fusión de los datos estructurados y la IA generativa

¿No es impresionante? De este modo, los gráficos por ordenador cobran un nuevo impulso.

¿Qué hicimos? Combinamos gráficos 3D controlables (la verdadera base del mundo virtual) con sus datos estructurados, y luego lo integramos con IA generativa y computación probabilística. Uno es totalmente determinista, mientras que el otro es probabilístico, aunque muy realista: hemos fusionado estos dos conceptos en uno solo, logrando un control preciso a través de datos estructurados y generando resultados en tiempo real. En definitiva, el contenido es a la vez visualmente impresionante y totalmente controlable.

La idea de combinar la información estructurada con la IA generativa seguirá imponiéndose en diversos sectores. Los datos estructurados son la piedra angular de una IA fiable.

Plataforma acelerada para datos estructurados y no estructurados

Ahora quiero mostraros un diagrama de la arquitectura técnica.

Datos estructurados: SQL, Spark, Pandas, Velox y plataformas importantes como Snowflake, Databricks, Amazon EMR, Azure Fabric y Google BigQuery, todas ellas manejan marcos de datos. Estos marcos de datos son como hojas de cálculo gigantes que contienen toda la información del mundo empresarial y constituyen los datos de referencia (Ground Truth) de la informática empresarial.

En la era de la IA, debemos permitir que la IA utilice datos estructurados y logre una aceleración extrema. En el pasado, el objetivo de acelerar el procesamiento de datos estructurados era lograr que las empresas funcionaran de manera más eficiente. En el futuro, la IA utilizará estas estructuras de datos a velocidades que superarán con creces las capacidades humanas, y los agentes de IA dependerán en gran medida de bases de datos estructuradas.

En lo que respecta a los datos no estructurados, las bases de datos vectoriales, los archivos PDF, los vídeos, los archivos de audio, etc., constituyen la gran mayoría de los formatos de datos que existen en el mundo: alrededor del 90 % de los datos que se generan cada año son datos no estructurados. Antes, estos datos eran prácticamente inservibles: los leíamos, los almacenábamos en sistemas de archivos y eso era todo. No podíamos realizar consultas ni recuperar la información, ya que los datos no estructurados carecen de métodos de indexación sencillos y deben interpretarse en función de su significado y contexto. Hoy en día, la IA es capaz de hacerlo: gracias a las tecnologías de percepción y comprensión multimodal, la IA puede leer documentos PDF, comprender su significado e integrarlos en estructuras más amplias para realizar consultas.

NVIDIA ha creado dos bibliotecas básicas con este fin:

  • cuDF: para el procesamiento acelerado de marcos de datos y datos estructurados

  • cuVS: para el almacenamiento de vectores, datos semánticos y el procesamiento de datos no estructurados de IA

Estas dos plataformas se convertirán en una de las plataformas fundamentales más importantes del futuro.

Hoy anunciamos nuestra colaboración con varias empresas. IBM —la empresa que inventó el lenguaje SQL— utilizará cuDF para acelerar su plataforma WatsonX Data. Dell ha colaborado con nosotros para crear la plataforma Dell AI Data Platform, que integra cuDF y cuVS, lo que ha permitido lograr mejoras significativas en el rendimiento en proyectos reales con NTT Data. En lo que respecta a Google Cloud, ahora no solo estamos impulsando Vertex AI, sino también BigQuery, y nos hemos asociado con Snapchat para reducir sus costes informáticos en casi un 80 %.

Las ventajas de la computación acelerada son tres: velocidad, escala y coste. Esto concuerda con la lógica de la Ley de Moore: lograr avances significativos en el rendimiento mediante la aceleración de la computación, al tiempo que se optimizan continuamente los algoritmos, lo que permite que todo el mundo se beneficie de unos costes informáticos cada vez más bajos.

NVIDIA ha creado una plataforma de computación acelerada que reúne numerosas bibliotecas: RTX, cuDF, cuVS y mucho más. Estas bibliotecas están integradas en servicios globales en la nube y en sistemas OEM, y llegan a usuarios de todo el mundo.

Estrecha colaboración con los proveedores de servicios en la nube

Colaboración con los principales proveedores de servicios en la nube

Google Cloud: Aceleramos Vertex AI y BigQuery mediante una integración profunda con JAX/XLA, al tiempo que ofrecemos un rendimiento excelente con PyTorch: NVIDIA es el único acelerador del mundo que ofrece un buen rendimiento tanto con PyTorch como con JAX/XLA. Hemos incorporado a clientes como Base10, CrowdStrike, Puma y Salesforce al ecosistema de Google Cloud.

AWS: Aceleramos EMR, SageMaker y Bedrock mediante una integración profunda con AWS. Este año, me hace especial ilusión que vayamos a incorporar OpenAI a AWS, lo que impulsará de manera significativa el crecimiento del consumo de la nube de AWS y ayudará a OpenAI a ampliar sus implementaciones regionales y su capacidad de computación.

Microsoft Azure: El superordenador de 100 PFLOPS de NVIDIA es el primer superordenador que hemos construido y el primero que se ha implementado en Azure, lo que sienta una base importante para la colaboración con OpenAI. Impulsamos los servicios en la nube de Azure y AI Foundry, colaborando para promover la expansión regional de Azure y cooperando estrechamente en el motor de búsqueda Bing. Cabe destacar que nuestra capacidad de computación confidencial —que garantiza que ni siquiera los operadores puedan ver los datos y los modelos de los usuarios— convierte a las GPU de NVIDIA en unas de las primeras del mundo en admitir la computación confidencial, lo que permite implementaciones confidenciales de modelos de OpenAI y Anthropic en entornos en la nube de todo el mundo. Por ejemplo, aceleramos todos los flujos de trabajo de EDA y CAD para Synopsys y los implementamos en Microsoft Azure.

Oracle: Somos el primer cliente de Oracle en el ámbito de la inteligencia artificial, y me enorgullece haber sido el primero en explicar a Oracle el concepto de la nube de inteligencia artificial. Desde entonces, han experimentado un rápido crecimiento y hemos incorporado a numerosos socios, como Cohere, Fireworks y OpenAI.

CoreWeave: La primera nube nativa de IA del mundo, diseñada específicamente para el alojamiento de GPU y los servicios de IA en la nube, con una excelente cartera de clientes y un sólido impulso de crecimiento.

Palantir + Dell: Las tres partes han creado conjuntamente una nueva plataforma de IA basada en la plataforma ontológica y la plataforma de IA de Palantir, capaz de implementar la IA de forma totalmente localizada en cualquier país y en cualquier entorno aislado físicamente —desde el procesamiento de datos (vectorización o estructuración) hasta una pila completa de computación acelerada para la IA—.

NVIDIA ha establecido esta relación de colaboración especial con proveedores de servicios en la nube de todo el mundo: ayudamos a los clientes a dar el salto a la nube, creando así un ecosistema beneficioso para todas las partes.

Integración vertical, apertura horizontal: La estrategia principal de NVIDIA

NVIDIA es la primera empresa del mundo integrada verticalmente y abierta horizontalmente.

La razón por la que este modelo es necesario es muy sencilla: la computación acelerada no es solo una cuestión de chips o de sistemas; su máxima expresión debería ser la aceleración de las aplicaciones. Las CPU pueden hacer que los ordenadores funcionen más rápido en general, pero esta vía ha llegado a un punto de saturación. En el futuro, solo mediante la aceleración específica para cada aplicación o ámbito podremos seguir logrando avances significativos en el rendimiento y reducciones de costes.

Precisamente por eso NVIDIA debe desarrollar a fondo una biblioteca tras otra, un campo tras otro y un sector vertical tras otro. Somos una empresa informática integrada verticalmente, y no hay otra opción. Debemos comprender las aplicaciones, conocer los ámbitos de aplicación, comprender a fondo los algoritmos y ser capaces de implementarlos en cualquier entorno: centros de datos, la nube, instalaciones locales, el perímetro e incluso sistemas robóticos.

Al mismo tiempo, NVIDIA mantiene una política de apertura horizontal y está dispuesta a integrar su tecnología en la plataforma de cualquier socio, lo que permite que todo el mundo disfrute de las ventajas de la computación acelerada.

La composición del público asistente a esta GTC refleja plenamente esta realidad. La proporción de asistentes procedentes del sector de los servicios financieros es la más elevada; el objetivo es atraer a desarrolladores, no a operadores bursátiles. Nuestro ecosistema abarca toda la cadena de suministro, tanto en la fase inicial como en la final. Independientemente de si una empresa lleva 50, 70 o 150 años en el mercado, el año pasado fue el mejor de su historia. Nos encontramos en el punto de partida de algo muy, muy importante.

CUDA-X: El motor de computación acelerada para diversos sectores

En diversos sectores verticales, NVIDIA se ha consolidado profundamente:

  • Conducción autónoma: Amplia cobertura y gran repercusión

  • Servicios financieros: La inversión cuantitativa está pasando de la ingeniería de características manual al aprendizaje profundo impulsado por superordenadores, lo que marca el inicio de su «momento Transformer».

  • Sanidad: Está viviendo su propio «momento ChatGPT», que abarca el descubrimiento de fármacos asistido por IA, el diagnóstico con ayuda de agentes de IA, la atención al cliente en el ámbito médico y mucho más

  • Sector: Se está produciendo la mayor oleada de construcción a nivel mundial, con la construcción de fábricas de inteligencia artificial, fábricas de chips y centros de datos

  • Entretenimiento y juegos: Las plataformas de IA en tiempo real facilitan la traducción, la retransmisión en directo, la interacción en videojuegos y los asistentes de compra inteligentes

  • Robótica: Tras más de una década de intenso desarrollo, se han establecido tres grandes arquitecturas informáticas (ordenadores de entrenamiento, ordenadores de simulación y ordenadores de a bordo), y en esta exposición se presentan 110 robots.

  • Telecomunicaciones: En un sector valorado en unos 2 billones de dólares, las estaciones base pasarán de desempeñar funciones de comunicación básicas a convertirse en plataformas de infraestructura de inteligencia artificial, con una plataforma relacionada llamada Aerial que colabora estrechamente con empresas como Nokia y T-Mobile.

El núcleo de todos estos campos es nuestra biblioteca CUDA-X: esta es la esencia fundamental de NVIDIA como empresa de algoritmos. Estas bibliotecas constituyen los activos más importantes de la empresa, ya que permiten que la plataforma informática aporte un valor real en diversos sectores.

Una de las bibliotecas más importantes es cuDNN (CUDA Deep Neural Network Library), que ha revolucionado por completo la inteligencia artificial, desencadenando el auge actual de esta tecnología.

(Reproducir el vídeo de demostración de CUDA-X)

Todo lo que acabas de ver era una simulación, incluidos los solucionadores basados en la física, los modelos físicos de los agentes de IA y los modelos físicos de los robots de IA. Todo se simuló, sin animación manual ni vinculación de articulaciones. Ahí es precisamente donde reside la capacidad fundamental de NVIDIA: aprovechar estas oportunidades gracias a un profundo conocimiento de los algoritmos y a una integración orgánica con la plataforma informática.

Las empresas nativas de IA y la nueva era de la informática

Acabas de ver a gigantes del sector que marcan la sociedad actual, como Walmart, L'Oréal, JPMorgan Chase, Roche y Toyota, así como a un gran número de empresas de las que quizá nunca hayas oído hablar; a estas las denominamos «empresas nativas de la IA». La lista es muy amplia e incluye a OpenAI, Anthropic y muchas otras empresas emergentes que prestan servicios en distintos sectores.

En los últimos dos años, este sector ha experimentado un crecimiento asombroso. El volumen de capital riesgo invertido en empresas emergentes alcanzó los 150 000 millones de dólares, una cifra récord en la historia de la humanidad. Y lo que es más importante, el volumen de las inversiones individuales ha pasado de millones de dólares a cientos de millones e incluso miles de millones. La razón es sencilla: por primera vez en la historia, todas estas empresas necesitan enormes recursos informáticos y una gran cantidad de tokens. Este sector se dedica a crear y generar tokens o a añadir valor a los tokens de organizaciones como Anthropic y OpenAI.

Al igual que la revolución de los ordenadores personales, la revolución de Internet y la revolución de la nube móvil dieron lugar a una serie de empresas que marcaron una época, esta transformación de las plataformas informáticas también dará lugar a una serie de empresas de gran influencia, que se convertirán en una fuerza importante en el mundo del futuro.

Tres avances históricos que están impulsando todo esto

¿Qué ha pasado exactamente en los últimos dos años? Tres eventos importantes.

En primer lugar: ChatGPT, que marca el inicio de la era de la IA generativa (desde finales de 2022 hasta 2023)

No solo es capaz de percibir y comprender, sino también de generar contenido original. Demostré la fusión de la IA generativa con los gráficos por ordenador. La IA generativa cambia radicalmente el funcionamiento de la informática: esta ha pasado de basarse en la recuperación de información a basarse en la generación de la misma, lo que ha tenido un profundo impacto en la arquitectura informática, los métodos de implementación y su relevancia general.

Segundo: Reasoning AI, representada por o1

Las capacidades de razonamiento permiten a la IA reflexionar sobre sí misma, planificar y descomponer los problemas, es decir, dividir aquellos que no puede comprender directamente en pasos manejables. o1 hace que la IA generativa sea fiable, capaz de razonar basándose en información real. Para lograrlo, se ha incrementado considerablemente el número de tokens de contexto de entrada y de salida para el procesamiento del pensamiento, lo que ha provocado un aumento sustancial de las exigencias informáticas.

Tercero: Claude Code, el primer modelo de agente

Puede leer archivos, escribir código, compilar, probar, evaluar y realizar iteraciones. Claude Code ha revolucionado por completo la ingeniería de software: el 100 % de los ingenieros de NVIDIA utilizan al menos una de estas herramientas —Claude Code, Codex o Cursor—; no hay ni un solo ingeniero de software que no recurra a la asistencia de la IA.

Este es un nuevo punto de inflexión: ya no le preguntas a la IA «qué es, dónde está o cómo se hace», sino que le permites «crear, ejecutar y construir», dejándola utilizar herramientas de forma activa, leer archivos, desglosar problemas y tomar medidas. La IA ha pasado de la percepción a la generación y al razonamiento, y ahora es realmente capaz de realizar tareas.

En los últimos dos años, la demanda informática relacionada con el razonamiento se ha multiplicado por unas 10 000, y su uso se ha multiplicado por unas 100. Siempre he creído que la demanda informática se ha multiplicado por un millón en los últimos dos años; esta es una opinión compartida por todos, incluidas OpenAI y Anthropic. Si conseguimos más potencia de cálculo, podremos generar más tokens, los ingresos aumentarán y la IA será más inteligente. El punto de inflexión en el razonamiento ha llegado, sin duda.

La era de los billones de dólares en infraestructura de IA

El año pasado por estas fechas, afirmé aquí que teníamos mucha confianza en la demanda y los pedidos de Blackwell y Rubin hasta 2026, que ascendían a unos 500 000 millones de dólares. Hoy, un año después de la GTC, estoy aquí para decirles que, de cara al 2027, preveo una cifra de al menos un billón de dólares. Y estoy convencido de que la demanda real de recursos informáticos superará con creces esta cifra.

2025: El año de la inferencia para NVIDIA

2025 es el Año de la Inferencia de NVIDIA. Queremos asegurarnos de que, más allá de la formación y la fase posterior a la misma, mantengamos la excelencia en todas las etapas del ciclo de vida de la IA, lo que permitirá que la infraestructura en la que se ha invertido funcione de manera eficiente y eficaz durante más tiempo, con menores costes unitarios.

Al mismo tiempo, Anthropic y Meta se han incorporado oficialmente a la plataforma de NVIDIA, y juntas representan un tercio de la demanda mundial de computación para IA. Los modelos de código abierto están a la vanguardia y se encuentran en todas partes.

NVIDIA es actualmente la única plataforma del mundo capaz de ejecutar todos los campos de la IA —lenguaje, biología, gráficos por ordenador, visión artificial, voz, proteínas y química, robótica, etc.— y todos los modelos de IA, ya sea en el borde o en la nube, independientemente del lenguaje. La arquitectura de NVIDIA es universal en todos estos escenarios, lo que nos convierte en la plataforma más económica y fiable.

En la actualidad, el 60 % del negocio de NVIDIA procede de los cinco principales proveedores de servicios en la nube a hiperescala, mientras que el 40 % restante se distribuye entre nubes regionales, nubes soberanas, empresas, sectores industriales, robótica y computación periférica. El alcance de la IA es, en sí mismo, su fortaleza; se trata, sin duda, de una nueva transformación de la plataforma informática.

Grace Blackwell y NVLink 72: Una audaz innovación arquitectónica

Aunque la arquitectura Hopper aún se encontraba en su apogeo, decidimos rediseñar por completo el sistema, ampliando NVLink de 8 carriles a NVLink 72 y descomponiendo y reconstruyendo íntegramente el sistema de computación. Grace Blackwell NVLink 72 supone una importante apuesta tecnológica, que no ha sido fácil para todos los socios, y quiero expresar mi más sincero agradecimiento a todos por ello.

Al mismo tiempo, lanzamos el NVFP4, que no es un FP4 cualquiera, sino un nuevo tipo de núcleo tensorial y unidad de cálculo. Hemos demostrado que NVFP4 puede realizar inferencias sin pérdida de precisión, al tiempo que ofrece mejoras significativas en cuanto a rendimiento y eficiencia energética, y que también es adecuado para el entrenamiento. Además, han surgido una serie de nuevos algoritmos, como Dynamo y TensorRT-LLM, e incluso hemos invertido miles de millones de dólares en la creación de un superordenador diseñado específicamente para optimizar los núcleos, denominado DGX Cloud.

Los resultados muestran que nuestro rendimiento en materia de inferencia es notable. Los datos de Semi Analysis —la evaluación más exhaustiva del rendimiento de la inferencia con IA realizada hasta la fecha— muestran que NVIDIA lidera con diferencia tanto en tokens por vatio como en coste por token. En un principio, la Ley de Moore podría haber proporcionado un aumento del rendimiento de 1,5 veces para el H200, pero nosotros logramos multiplicarlo por 35. Dylan Patel, de Semi Analysis, llegó a decir: «Jensen se quedó corto; en realidad son 50 veces». Tiene razón.

Le cito: «Jensen se ha guardado algo».

El coste por token de NVIDIA es el más bajo del mundo y, actualmente, no tiene rival. La razón radica en el diseño colaborativo extremo.

Por ejemplo, antes de que NVIDIA actualizara todo el conjunto de software y algoritmos, Fireworks tenía una velocidad media de tokens de unos 700 por segundo; tras la actualización, se acercó a los 5.000 por segundo, lo que supone un aumento de aproximadamente siete veces. Este es el poder del co-diseño extremo.

AI Factory: Desde centros de datos hasta fábricas de tokens

Antes, los centros de datos eran lugares donde se almacenaban archivos; ahora son fábricas donde se producen tokens. En el futuro, todos los proveedores de servicios en la nube y todas las empresas de inteligencia artificial utilizarán la «eficiencia de la fábrica de tokens» como indicador operativo fundamental.

Este es mi argumento principal:

  • Eje vertical: Rendimiento: número de tokens generados por segundo a una potencia fija

  • Eje horizontal: Velocidad de interacción: velocidad de respuesta de cada inferencia; cuanto mayor sea la velocidad, más grande será el modelo utilizable, más extenso será el contexto y más inteligente será la IA

Los tokens son el nuevo producto básico y, una vez que alcancen su madurez, se cotizarán por niveles:

  • Plan gratuito (alto rendimiento, baja velocidad)

  • Gama media (aproximadamente 3 $ por millón de tokens)

  • Nivel alto (aproximadamente 6 $ por cada millón de tokens)

  • Nivel de alta velocidad (aprox. 45 $ por millón de tokens)

  • Nivel de velocidad ultrarrápida (aprox. 150 $ por millón de tokens)

En comparación con Hopper, Grace Blackwell ha multiplicado por 35 el rendimiento en el nivel de precios más alto y ha introducido un nuevo nivel. Simplificando las estimaciones del modelo, si se asignara un 25 % de la capacidad a cada uno de los cuatro niveles, Grace Blackwell podría generar cinco veces más ingresos que Hopper.

Vera Rubin: El sistema informático de IA de última generación

(Reproducir el vídeo de presentación del sistema Vera Rubin)

Vera Rubin es un sistema completo y optimizado de principio a fin, diseñado para cargas de trabajo de tipo «agente»:

  • Núcleo informático de modelos de lenguaje a gran escala: Clúster de 72 GPU con NVLink, encargado del pre-fill y la caché KV

  • Nueva CPU Vera: Diseñada para ofrecer un rendimiento monohilo extremadamente alto, utiliza memoria LPDDR5 y presenta una excelente eficiencia energética; es la única CPU para centros de datos del mundo que utiliza LPDDR5, ideal para llamadas a herramientas de agentes de IA.

  • Sistema de almacenamiento: BlueField 4 + CX 9, una nueva plataforma de almacenamiento para la era de la IA, con la participación del 100 % del sector mundial del almacenamiento

  • Conmutador CPO Spectrum X: El primer conmutador Ethernet óptico del mundo integrado en un solo paquete, ya en plena producción en serie

  • Rack Kyber: Un nuevo sistema de racks capaz de albergar 144 GPU para formar un único dominio NVLink, con procesamiento en el front-end y conmutación NVLink en el back-end, lo que da lugar a un ordenador gigante

  • Rubin Ultra: Nodo de superordenador de última generación, con diseño vertical, combinado con el rack Kyber, que admite interconexiones NVLink a mayor escala

Vera Rubin cuenta con refrigeración 100 % líquida, lo que reduce el tiempo de instalación de dos días a dos horas, utilizando agua a 45 °C para la refrigeración, lo que alivia considerablemente la carga de refrigeración en los centros de datos. En esta ocasión, Satya (Nadella) ha confirmado que el primer rack de Vera Rubin ya está operativo en Microsoft Azure, lo cual me parece muy emocionante.

Integración con Groq: Mejora radical del rendimiento de la inferencia

Hemos adquirido el equipo de Groq y hemos obtenido la licencia de su tecnología. Groq es un procesador de flujo de datos determinista que utiliza compilación estática y programación del compilador, cuenta con una gran cantidad de SRAM, está optimizado para la inferencia de una sola carga de trabajo y destaca por su latencia extremadamente baja y su alta velocidad de generación de tokens.

Sin embargo, la capacidad de memoria de Groq es limitada (500 MB de SRAM integrada), lo que dificulta el almacenamiento independiente de los parámetros y la caché KV de los modelos de gran tamaño, lo que limita su aplicación a gran escala.

La solución es Dynamo, un conjunto de programas de planificación de inferencias. Descompusimos el proceso de inferencia mediante Dynamo:

  • El rellenado previo y la decodificación del mecanismo de atención se han completado en Vera Rubin (lo que requiere una enorme potencia de cálculo y almacenamiento en caché KV).

  • La decodificación de la red de alimentación directa, es decir, la parte de generación de tokens, se lleva a cabo en Groq (lo que requiere un ancho de banda extremadamente alto y una latencia baja)

Ambos están estrechamente conectados a través de Ethernet, lo que reduce la latencia aproximadamente a la mitad gracias a unos modos especiales. Gracias a la programación unificada de Dynamo, el «sistema operativo de fábrica de IA», el rendimiento general se multiplica por 35, lo que abre nuevas perspectivas en cuanto al rendimiento de inferencia que antes eran inalcanzables con NVLink 72.

Recomendaciones para la combinación de Groq y Vera Rubin:

  • Si la carga de trabajo se caracteriza principalmente por un alto rendimiento, utiliza Vera Rubin al 100 %

  • Si un gran número de cargas de trabajo implican la generación de tokens de alto valor, como la generación de código, se recomienda utilizar Groq, con una proporción de aproximadamente un 25 % de Groq y un 75 % de Vera Rubin.

El Groq LP30, fabricado por Samsung, ha entrado en fase de producción en serie y se espera que comience a comercializarse en el tercer trimestre. Gracias a Samsung por su total colaboración.

Un avance histórico en el rendimiento de la inferencia

Cuantificación de los avances tecnológicos anteriores: en un plazo de dos años, la tasa de generación de tokens de una fábrica de IA de 1 GW pasará de 22 millones de tokens por segundo a 700 millones de tokens por segundo, lo que supone un aumento de 350 veces. Este es el poder del co-diseño extremo.

Hoja de ruta tecnológica

  • Blackwell: Actualmente en producción: sistema de rack estándar Oberon, cable de cobre ampliado a NVLink 72, ampliación óptica opcional a NVLink 576

  • Vera Rubin (actual): Rack Kyber, NVLink 144 (cable de cobre); rack Oberon, NVLink 72 + óptico, ampliado a NVLink 576; Spectrum 6, el primer conmutador CPO del mundo

  • Vera Rubin Ultra (próximamente): La GPU Rubin Ultra de última generación, con el chip LP35 (primera integración de NVFP4), mejora aún más el rendimiento de forma significativa

  • Feynman (nueva generación): Nueva GPU, chip LP40 (desarrollado conjuntamente por NVIDIA y el equipo de Groq, que integra NVFP4); nueva CPU: Rosa (Rosalyn); BlueField 5; CX 10; rack Kyber compatible con métodos de expansión tanto de cobre como de CPO

La hoja de ruta es clara: la expansión de la red de cobre, la expansión de la red óptica (Scale-Up) y la expansión de la red óptica (Scale-Out) avanzan en paralelo, y necesitamos que todos los socios sigan ampliando la producción de cables de cobre, fibras ópticas y CPO.

NVIDIA DSX: La plataforma de gemelos digitales para fábricas con IA

Las fábricas de IA son cada vez más complejas, pero los distintos proveedores de tecnología que las componen nunca han colaborado durante la fase de diseño, sino que solo se «encuentran» en el centro de datos, lo cual es claramente insuficiente.

Para dar respuesta a esto, hemos creado Omniverse y la plataforma NVIDIA DSX basada en ella, una plataforma que permite a todos los socios diseñar y gestionar de forma colaborativa fábricas de IA a escala de gigavatios en el mundo virtual. DSX ofrece:

  • Sistemas de simulación mecánica, térmica, eléctrica y de redes a nivel de rack

  • Conexión a la red eléctrica para la programación colaborativa del ahorro energético

  • Optimización dinámica del consumo energético y la refrigeración basada en Max-Q en el centro de datos

Según una estimación prudente, este sistema puede duplicar aproximadamente la eficiencia en el uso de la energía, lo que supone una ventaja significativa a la escala de la que estamos hablando. Omniverse parte de la Tierra digital y albergará gemelos digitales a diversas escalas; estamos construyendo el ordenador más grande de la historia de la humanidad en colaboración con socios de todo el mundo.

Además, NVIDIA se está adentrando en el espacio. El chip Thor ha superado la certificación de resistencia a la radiación y ya se está utilizando en satélites. Estamos desarrollando Vera Rubin Space-1 junto con nuestros socios para fabricar ordenadores destinados a centros de datos espaciales. En el espacio, solo podemos recurrir a la radiación para disipar el calor, por lo que la gestión térmica supone un reto fundamental; para ello, estamos reuniendo a los mejores ingenieros.

OpenClaw: El sistema operativo de la era de los agentes

Peter Steinberger desarrolló un programa llamado OpenClaw. Este es el proyecto de código abierto más popular de la historia de la humanidad, y ha superado los logros de Linux en tan solo unas semanas.

OpenClaw es, en esencia, un sistema agentivo capaz de:

  • Gestión de recursos, acceso a herramientas, sistemas de archivos y modelos de lenguaje a gran escala

  • Ejecución de tareas programadas y temporizadas

  • Descomponer los problemas paso a paso y recurrir a subagentes

  • Compatible con diversos formatos de entrada y salida (voz, vídeo, texto, correo electrónico, etc.)

Si lo describimos en los términos de un sistema operativo, se trata, en realidad, de un sistema operativo: el sistema operativo para los ordenadores agentes. Windows hizo posible la informática personal; OpenClaw hace posible la existencia de agentes personales.

Todas las empresas deben definir su propia estrategia de OpenClaw, del mismo modo que todas necesitamos estrategias para Linux, HTML y Kubernetes.

Reestructuración integral de las tecnologías de la información de la empresa

Antes de OpenClaw, la informática empresarial consistía en introducir datos y archivos en los sistemas, hacerlos circular a través de herramientas y flujos de trabajo, para que, en última instancia, se convirtieran en herramientas al servicio de las personas. Las empresas de software crearon herramientas, y los integradores de sistemas (GSI) y las consultoras ayudaron a las empresas a utilizarlas.

Tras OpenClaw, todas las empresas de SaaS se convertirán en empresas de AaaS (Agentic as a Service): ya no se limitarán a ofrecer herramientas, sino que proporcionarán agentes de IA especializados en campos específicos.

Pero hay un problema fundamental: los agentes internos pueden acceder a datos confidenciales, ejecutar código y comunicarse con terceros. Esto debe controlarse estrictamente en entornos empresariales.

Para solucionar esto, colaboramos con Peter para integrar la seguridad en la versión empresarial, lanzando:

  • NeMo Claw (diseño de referencia): Un marco de referencia de nivel empresarial basado en OpenClaw, que integra el conjunto completo de kits de herramientas de IA para agentes de NVIDIA

  • Open Shield (capa de seguridad): Integrado en OpenClaw, proporciona motores de políticas, barreras de red y enrutadores de privacidad para garantizar la seguridad de los datos empresariales

  • NeMo Cloud: Disponible para su descarga e integrado con los motores de políticas de todas las empresas de SaaS

Se trata de un renacimiento para las tecnologías de la información empresariales, un sector de 2 billones de dólares que está a punto de alcanzar una escala de varios billones de dólares, pasando de proporcionar herramientas a ofrecer servicios especializados de agentes de inteligencia artificial.

No me cuesta imaginar que, en el futuro, todos los ingenieros de una empresa dispondrán de un presupuesto anual para tokens. Puede que sus salarios alcancen cientos de miles de dólares, y además les proporcionaré una asignación simbólica equivalente a la mitad de su salario, lo que permitirá que su rendimiento se multiplique por diez. «¿Cuántas acciones te ofrecen con el contrato de trabajo?» se ha convertido en un nuevo tema de conversación en Silicon Valley.

En el futuro, todas las empresas serán tanto usuarias de tokens (para los ingenieros) como productoras de tokens (al prestar servicios a sus clientes). No se puede subestimar la importancia de OpenClaw; es tan importante como el HTML y Linux.

Iniciativa de modelos abiertos de NVIDIA

En el ámbito de los agentes personalizados (Custom Claw), ofrecemos los modelos de vanguardia desarrollados por la propia NVIDIA:

Modelo de dominio Nemotron, modelo de lenguaje a gran escala Cosmos, modelo base World Foundation Model, modelo de robot humanoide general GROOT, conducción autónoma Alpamayo, biología digital BioNeMo, física Phys-AIAI

Estamos a la vanguardia de la tecnología en todos los ámbitos y apostamos por la innovación continua: al Nemotron 3 le seguirá el Nemotron 4, al Cosmos 1 le seguirá el Cosmos 2, y el Groq también dará paso a su segunda generación.

El Nemotron 3 se encuentra entre los tres mejores modelos a nivel mundial en OpenClaw y está a la vanguardia. Nemotron 3 Ultra se convertirá en el modelo base más potente de la historia y ayudará a los países a desarrollar una IA soberana.

Hoy anunciamos la creación de la Alianza Nemotron, que invertirá miles de millones de dólares para impulsar el desarrollo de modelos fundamentales de inteligencia artificial. Entre los miembros de la alianza se encuentran: BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (India), Thinking Machines (el laboratorio de Mira Murati) y otros. Una tras otra, las empresas de software empresarial se están sumando a esta tendencia, integrando el diseño de referencia NeMo Claw y el kit de herramientas de IA para agentes de NVIDIA en sus productos.

IA física y robótica

Los agentes digitales actúan en el mundo digital —escribiendo código, analizando datos—; mientras que la IA física se refiere a agentes con forma física, es decir, robots.

En esta GTC se presentaron 110 robots, lo que abarca prácticamente a todas las empresas de desarrollo de robots del mundo. NVIDIA proporciona tres equipos informáticos (equipos de entrenamiento, equipos de simulación y equipos de a bordo), así como un conjunto completo de software y modelos de IA.

En lo que respecta a la conducción autónoma, ha llegado el «momento ChatGPT» para este sector. Hoy anunciamos la incorporación de cuatro nuevos socios a la plataforma RoboTaxi Ready de NVIDIA: BYD, Hyundai, Nissan y Geely, con una producción anual total de 18 millones de vehículos. Además de socios anteriores como Mercedes-Benz, Toyota y General Motors, la gama se ha ampliado aún más. También hemos anunciado una importante colaboración con Uber para implantar e integrar vehículos «RoboTaxi Ready» en varias ciudades.

En el ámbito de la robótica industrial, numerosas empresas, como ABB, Universal Robotics y KUKA, colaboran con nosotros para combinar modelos físicos de inteligencia artificial con sistemas de simulación, lo que fomenta la implantación de robots en las líneas de producción de todo el mundo.

En el sector de las telecomunicaciones, Caterpillar y T-Mobile también se encuentran entre ellas. En el futuro, las estaciones base inalámbricas dejarán de ser meros nodos de comunicación para convertirse en NVIDIA Aerial AI RAN, una plataforma inteligente de computación periférica capaz de percibir el tráfico en tiempo real y ajustar la formación de haces, con el fin de lograr un ahorro energético y una mayor eficiencia.

Sección especial: Apariencia del robot Olaf

(Reproducir el vídeo de demostración del robot Olaf de Disney)

Jensen Huang: ¡Ya está aquí el muñeco de nieve! ¡Newton funciona perfectamente! ¡Omniverse también funciona perfectamente! Olaf, ¿qué tal estás?

Olaf: Me alegro mucho de verte.

Jensen Huang: Sí, porque te regalé un ordenador, ¡Jetson!

Olaf: ¿Qué es eso?

Jensen Huang: Está justo dentro de tu barriga.

Olaf: ¡Es increíble!

Jensen Huang: Aprendiste a caminar en Omniverse.

Olaf: Me encanta caminar. Es mucho mejor que montar en un reno y contemplar el hermoso cielo.

Jensen Huang: Esto se debe a la simulación física: el solucionador Newton, que se ejecuta en NVIDIA Warp y ha sido desarrollado en colaboración con Disney y DeepMind, permite adaptarse al mundo físico real.

Olaf: Justo iba a decir eso.

Jensen Huang: Eso es lo que te hace tan inteligente. Soy un muñeco de nieve, no un bola de nieve.

Jensen Huang: ¿Te lo puedes imaginar? El futuro de Disneylandia: todos esos personajes robóticos paseando libremente por el parque. Pero, sinceramente, pensaba que serías más alto. Nunca había visto un muñeco de nieve tan bajito.

Olaf: (sin comprometerse)

Jensen Huang: ¿Me puedes ayudar a terminar el discurso de hoy?

Olaf: ¡Eso sería genial!

Resumen de la ponencia principal

Jensen Huang: Hoy hemos abordado juntos los siguientes temas fundamentales:

  1. La llegada del punto de inflexión en el razonamiento: el razonamiento se ha convertido en la tarea principal de la IA, los tokens son la nueva materia prima y el rendimiento de la inferencia determina directamente los ingresos.

  2. La era de las fábricas de IA: los centros de datos han pasado de ser simples instalaciones de almacenamiento de archivos a convertirse en fábricas de producción de tokens, y en el futuro, todas las empresas medirán su competitividad en función de la «eficiencia de la fábrica de IA».

  3. La revolución del agente OpenClaw: OpenClaw ha marcado el inicio de la era de la informática basada en agentes, y las TI empresariales están pasando de la era de las herramientas a la era de los agentes; todas las empresas deben elaborar una estrategia de OpenClaw.

  4. IA física y robótica: La inteligencia incorporada está cobrando cada vez más importancia, y la conducción autónoma, los robots industriales y los robots humanoides constituyen, en su conjunto, la próxima gran oportunidad para la IA física.

¡Gracias a todos y que disfrutéis de la GTC!

También te puede interesar

Informe matutino | Strategy invirtió 1.570 millones de dólares la semana pasada para aumentar sus tenencias en 22.337 bitcoins; Abra planea salir a bolsa mediante una fusión con una SPAC; Metaplanet pretende recaudar aproximadamente 765 millones de dólare

Resumen de los eventos importantes del mercado el 16 de marzo.

El BTC registra ocho velas verdes y alcanza los 76 000 dólares: ¿qué lógica hay detrás de su mejor rendimiento que el del oro en plena tormenta?

La guerra se calma, el petróleo retrocede, el mercado bursátil se recupera: ¿Hacia dónde se dirige el bitcoin esta vez?

CB Insights: Nueve predicciones para el sector fintech en 2026, con la tokenización de activos ya en auge

Los agentes de IA inician operaciones autónomas y los gigantes de las criptomonedas desafían directamente a los bancos tradicionales: un artículo que revela nueve predicciones disruptivas que redefinirán el panorama financiero en 2026.

Dune stablecoin Research: El flujo y la demanda de un mercado de 300.000 millones de dólares

En el conjunto de datos, las transferencias en long no se clasifican simplemente como “volumen de transacción” puro, sino como actividades on-chain diferentes. Esta es la diferencia entre "solo saber que 100 billones de dólares fueron transferencias" y "entender por qué fueron transferencias".

Opera con oro, plata y petróleo en WEEX: 300 000 $ en recompensas y 0 % de comisiones

WEEX ha lanzado una campaña a gran escala para el trading de oro, plata y petróleo que ofrece comisiones del 0 %, un fondo de recompensas de 300 000 dólares y oportunidades de «Trade-to-Earn», lo que permite a los traders depositar, operar con materias primas tokenizadas como PAXG y XAUT, y competir en las clasificaciones, todo ello en WEEX.

Carta anual de rayas: La nueva densidad cognitiva es extremadamente alta, especialmente el modelo de 5 niveles de “IA + Pagos”

Todas las tendencias afectan la supervivencia futura de todos.

Monedas populares

Últimas noticias sobre criptomonedas

Leer más