NVIDIA – Q2 2024 Transcripción de la llamada de Beneficios 2023
23 de Agosto de 2023
Participantes de la empresa
Simona Jankowski – VP, IR
Colette Kress – EVP y CFO
Jensen Huang – Cofundador, CEO y Presidente
Participantes de la llamada de conferencia
Matt Ramsay – Cowen
Vivek Arya – Bank of America
Stacy Rasgon – Bernstein Research
Mark Lipacis – Jefferies
Atif Malik – Citi
Joseph Moore – Morgan Stanley
Toshiya Hari – Goldman Sachs
Timothy Arcuri – UBS
Operador
Buenas tardes. Mi nombre es David, y seré su operador de conferencia hoy. En este momento, me gustaría dar la bienvenida a todos a la llamada de ganancias del segundo trimestre de NVIDIA. La conferencia de hoy está siendo grabada. Todas las líneas han sido puestas en silencio para evitar cualquier ruido de fondo. Después de los comentarios de los oradores, habrá una sesión de preguntas y respuestas. [Instrucciones del operador]
Gracias. Simona Jankowski, puede comenzar su conferencia.
Simona Jankowski
Gracias. Buenas tardes a todos y bienvenidos a la conferencia telefónica de NVIDIA para el segundo trimestre del año fiscal 2024. Conmigo hoy desde NVIDIA están Jensen Huang, Presidente y Director Ejecutivo; y Colette Kress, Vicepresidenta Ejecutiva y Directora Financiera. Me gustaría recordarles que nuestra llamada está siendo transmitida en vivo en el sitio web de Relaciones con Inversionistas de NVIDIA. La transmisión estará disponible para reproducir hasta la conferencia telefónica para discutir nuestros resultados financieros para el tercer trimestre del año fiscal 2024. El contenido de la llamada de hoy es propiedad de NVIDIA. No puede ser reproducido o transcrito sin nuestro consentimiento previo por escrito.
Durante esta llamada, podemos hacer declaraciones prospectivas basadas en expectativas actuales. Estas están sujetas a un número significativo de riesgos e incertidumbres, y nuestros resultados reales pueden diferir materialmente. Para una discusión de los factores que podrían afectar nuestros futuros resultados financieros y negocios, consulte la divulgación en el comunicado de ganancias de hoy, nuestros Formularios 10-K y 10-Q más recientes y los informes que podríamos presentar en el Formulario 8-K ante la Comisión de Bolsa y Valores. Todas nuestras declaraciones se hacen a partir de hoy, 23 de agosto de 2023, con base en la información disponible actualmente para nosotros. Excepto según lo requerido por la ley, no asumimos ninguna obligación de actualizar dichas declaraciones.
Durante esta llamada, discutiremos medidas financieras no GAAP. Puede encontrar una reconciliación de estas medidas financieras no GAAP con las medidas financieras GAAP en nuestro comentario del CFO, que se publica en nuestro sitio web.
Y con eso, permítanme pasar la llamada a Colette.
Colette Kress
Gracias, Simona. Tuvimos un trimestre excepcional. Los ingresos récord del segundo trimestre de $13.51 mil millones aumentaron un 88% secuencialmente y un 101% interanual, y superaron nuestra perspectiva de $11 mil millones.
Comencemos con Data Center. Los ingresos récord de $10.32 mil millones aumentaron un 141% secuencialmente y un 171% interanual. Los ingresos de computación en el centro de datos casi se triplicaron interanualmente, impulsados principalmente por la creciente demanda de proveedores de servicios en la nube y grandes empresas de internet para la plataforma HGX, el motor de la IA generativa y los modelos de lenguaje grandes.
Grandes empresas, incluidas AWS, Google Cloud, Meta, Microsoft Azure y Oracle Cloud, así como un número creciente de proveedores de nube GPU, están implementando, en volumen, sistemas HGX basados en nuestras GPU Tensor Core de arquitectura Hopper y Ampere. Los ingresos de redes casi se duplicaron interanualmente, impulsados por nuestra plataforma de redes InfiniBand de extremo a extremo, el estándar de oro para la IA.
Hay una enorme demanda de cómputo acelerado y plataformas de IA de NVIDIA. Nuestros socios de suministro han sido excepcionales en la rampa de capacidad para satisfacer nuestras necesidades. Nuestra cadena de suministro del centro de datos, que incluye HGX con 35,000 partes y redes altamente complejas, se ha construido en la última década. También hemos desarrollado y calificado capacidad y proveedores adicionales para pasos clave en el proceso de fabricación como el envasado.
Esperamos que el suministro aumente cada trimestre hasta el próximo año. Por geografía, el crecimiento del centro de datos fue más fuerte en los EE. UU. ya que los clientes dirigen sus inversiones de capital a la IA y el cómputo acelerado. La demanda china estuvo dentro del rango histórico del 20% al 25% de nuestros ingresos del centro de datos, incluidas las soluciones de cómputo y redes.
En este momento, permítanme tomar un momento para abordar los informes recientes sobre el potencial de mayores regulaciones sobre nuestras exportaciones a China. Creemos que la regulación actual está logrando los resultados previstos. Dada la fortaleza de la demanda de nuestros productos en todo el mundo, no anticipamos que las restricciones adicionales a la exportación de nuestras GPU del centro de datos, si se adoptan, tendrán un impacto financiero inmediato.
Sin embargo, a largo plazo, las restricciones que prohíben la venta de nuestras GPU del centro de datos a China, si se implementan, resultarán en una pérdida permanente y una oportunidad para que la industria estadounidense compita y lidere en uno de los mercados más grandes del mundo.
Nuestros proveedores de servicios en la nube impulsaron una demanda excepcionalmente fuerte de sistemas HGX en el trimestre, ya que emprenden una transición generacional para actualizar su infraestructura de centro de datos para la nueva era del cómputo acelerado y la IA. La plataforma NVIDIA HGX es la culminación de casi dos décadas de innovación de pila completa en silicio, sistemas, interconexiones, redes, software y algoritmos.
Las instancias alimentadas por las GPU Tensor Core H100 de NVIDIA ya están disponibles en AWS, Microsoft Azure y varios proveedores de nube GPU, y otros están en camino en breve. Las empresas de internet también impulsaron la demanda muy fuerte. Sus inversiones en infraestructura de centro de datos construida para la IA ya están generando retornos significativos. Por ejemplo, Meta destacó recientemente que desde el lanzamiento de Reels, las recomendaciones de IA han impulsado un aumento del más del 24% en el tiempo que se pasa en Instagram.
Las empresas también compiten por implementar IA generativa, impulsando un fuerte consumo de instancias con NVIDIA en la nube, así como la demanda de infraestructura local. Ya sea que sirvamos a los clientes en la nube o en las instalaciones a través de socios o directamente, sus aplicaciones pueden ejecutarse sin problemas en el software empresarial de IA de NVIDIA con acceso a nuestras bibliotecas de aceleración, modelos preentrenados y API.
Anunciamos una asociación con Snowflake para proporcionar a las empresas un camino acelerado para crear aplicaciones personalizadas de IA generativa utilizando sus propios datos patentados, todo de manera segura dentro de Snowflake Data Cloud. Con la plataforma NVIDIA NeMo para desarrollar grandes modelos de lenguaje, las empresas podrán crear LLM personalizados para servicios avanzados de IA, como chatbot, búsqueda y resumen, directamente desde Snowflake Data Cloud.
Prácticamente todas las industrias pueden beneficiarse de la IA generativa. Por ejemplo, los copilotos de IA, como los recién anunciados por Microsoft, pueden aumentar la productividad de más de 1,000 millones de trabajadores de oficina y decenas de millones de ingenieros de software. Miles de millones de profesionales en servicios legales, ventas, atención al cliente y educación podrán aprovechar sistemas de IA capacitados en su campo. Los copilotos y asistentes de IA están configurados para crear nuevas oportunidades de mercado de varios cientos de miles de millones de dólares para nuestros clientes.
Estamos viendo algunas de las primeras aplicaciones de IA generativa en marketing, medios y entretenimiento. WPP, la organización de servicios de marketing y comunicación más grande del mundo, está desarrollando un motor de contenido utilizando NVIDIA Omniverse para permitir que artistas y diseñadores integren la IA generativa en la creación de contenido 3D. Los diseñadores de WPP pueden crear imágenes a partir de indicaciones de texto mientras que las herramientas de IA generativa y el contenido entrenado de socios de NVIDIA como Adobe y Getty Images utilizando NVIDIA Picasso, una fundición de modelos de IA generativa personalizados para diseño visual.
El proveedor de contenido visual Shutterstock también está utilizando NVIDIA Picasso para construir herramientas y servicios que permiten a los usuarios crear fondos de escena 3D con la ayuda de la IA generativa. Nos hemos asociado con ServiceNow y Accenture para lanzar el programa AI Lighthouse, acelerando el desarrollo de capacidades de IA empresarial. AI Lighthouse une la plataforma y el motor de automatización empresarial de ServiceNow con la informática acelerada de NVIDIA y con los servicios de consultoría y implementación de Accenture.
También estamos colaborando con Hugging Face para simplificar la creación de nuevos modelos de IA personalizados para empresas. Hugging Face ofrecerá un nuevo servicio para empresas para capacitar y ajustar modelos avanzados de IA con NVIDIA HGX Cloud. Y ayer mismo, VMware y NVIDIA anunciaron una importante nueva oferta empresarial llamada VMware Private AI Foundation with NVIDIA, una plataforma completamente integrada que presenta software de IA y computación acelerada de NVIDIA con software multi-nube para empresas que ejecutan VMware.
Los cientos de miles de clientes empresariales de VMware tendrán acceso a la infraestructura, la IA y el software de gestión de la nube necesarios para personalizar modelos y ejecutar aplicaciones de IA generativa como chatbots, asistentes, búsqueda y resumen. También anunciamos nuevos servidores listos para la empresa de IA de NVIDIA con la nueva GPU NVIDIA L40S construida para el ecosistema de servidores de centro de datos estándar de la industria y el procesador de infraestructura de centro de datos BlueField-3 DPU.
L40S no está limitado por la oferta y está enviándose a los principales fabricantes de sistemas de servidor del mundo. L40S es un procesador universal de centro de datos diseñado para acelerar las aplicaciones más intensivas en cómputo, incluido el entrenamiento y la invención de IA, la visualización, el procesamiento de video y la digitalización industrial de NVIDIA Omniverse.
Los servidores listos para la empresa de IA de NVIDIA están completamente optimizados para VMware, Cloud Foundation y Private AI Foundation. Pronto estarán disponibles casi 100 configuraciones de servidores listos para la empresa de IA de NVIDIA de las principales empresas de computación de TI empresarial del mundo, incluidas Dell, HP y Lenovo. El superchip GH200 Grace Hopper, que combina nuestra CPU Grace basada en ARM con la GPU Hopper, entró en producción completa y estará disponible este trimestre en servidores OEM. También se está enviando a varios clientes de supercomputación, incluidos Atmos, National Labs y el Swiss National Computing Center.
Y NVIDIA y SoftBank están colaborando en una plataforma basada en GH200 para aplicaciones de IA generativa y 5G/6G. La versión de segunda generación de nuestro superchip Grace Hopper con la última memoria HBM3e estará disponible en el segundo trimestre del calendario 2024. Anunciamos el DGX GH200, una nueva clase de supercomputadora de IA con gran memoria para modelos de lenguaje de IA gigantes, sistemas recomendados y análisis de datos. Esta es la primera vez que se utiliza el nuevo sistema de conmutación NVIDIA en la DGX GH200, lo que permite que sus 256 superchips Grace Hopper trabajen juntos como uno solo, un gran salto en comparación con nuestra generación anterior que conectaba solo ocho GPU sobre [indiscernible]. Se espera que los sistemas DGX GH200 estén disponibles a finales de año, con Google Cloud, Meta y Microsoft entre los primeros en tener acceso.
El fuerte crecimiento de la red se impulsó principalmente por la infraestructura InfiniBand para conectar sistemas HGX GPU. Gracias a su optimización de extremo a extremo y capacidades de cómputo en la red, InfiniBand ofrece más del doble de rendimiento que Ethernet tradicional para la IA. Para infraestructuras de IA de miles de millones de dólares, el valor del aumento del rendimiento de InfiniBand vale cientos de [indiscernible] y paga la red. Además, solo InfiniBand puede escalar a cientos de miles de GPUs. Es la red elegida por los principales practicantes de IA.
Para los centros de datos en la nube basados en Ethernet que buscan optimizar su rendimiento de IA, anunciamos NVIDIA Spectrum-X, una plataforma de red acelerada diseñada para optimizar Ethernet para cargas de trabajo de IA. Spectrum-X combina el conmutador Spectrum o Ethernet con la unidad de procesamiento de datos BlueField-3, logrando un rendimiento y eficiencia energética AI general 1.5x mejor que Ethernet tradicional. BlueField-3 DPU es un gran éxito. Se está calificando con importantes OEM y se está implementando en múltiples CSP y empresas de Internet de consumo.
Ahora pasando a los juegos. Los ingresos por juegos de $ 2.49 mil millones aumentaron un 11% secuencialmente y un 22% interanual. El crecimiento fue impulsado por las GPU GeForce RTX de la serie 40 para computadoras portátiles y de escritorio. La demanda del cliente final fue sólida y coherente con la estacionalidad. Creemos que la demanda global final ha vuelto al crecimiento después de la desaceleración del año pasado. Tenemos una gran oportunidad de actualización por delante. Solo el 47% de nuestra base instalada ha actualizado a RTX y aproximadamente el 20% de la GPU con un rendimiento RTX 3060 o superior.
Las GPU para portátiles registraron un fuerte crecimiento en la temporada clave de regreso a la escuela, liderado por las GPU RTX 4060. Las computadoras portátiles con GPU de NVIDIA han ganado popularidad y sus envíos ahora superan a las GPU de escritorio de varias regiones de todo el mundo. Es probable que esto cambie un poco la realidad de nuestros ingresos totales por juegos, con el segundo y tercer trimestre como los trimestres más fuertes del año, reflejando los horarios de construcción de portátiles para el regreso a la escuela y las vacaciones.
En el escritorio, lanzamos las GPU GeForce RTX 4060 y GeForce RTX 4060 TI, llevando la arquitectura Ada Lovelace a puntos de precios tan bajos como $299. El ecosistema de juegos RTX y DLSS continúa expandiéndose. Se agregaron 35 nuevos juegos a la compatibilidad con DLSS, incluidos éxitos de taquilla como Diablo IV y Baldur’s Gate 3.
Ahora hay más de 330 juegos y aplicaciones acelerados por RTX. Estamos llevando la IA generativa a los juegos. En COMPUTEX, anunciamos el Motor de Nube de Avatar NVIDIA o ACE para juegos, un servicio de fundición de modelos de IA personalizados. Los desarrolladores pueden usar este servicio para dotar de inteligencia a los personajes no jugables. Y aprovecha una serie de tecnologías NVIDIA Omniverse y AI, incluidas NeMo, Riva y Audio2Face.
Ahora pasando a la Visualización Profesional. Los ingresos de $375 millones aumentaron un 28% secuencialmente y disminuyeron un 24% interanual. La rampa de la arquitectura Ada impulsó un fuerte crecimiento en el segundo trimestre, implementándose inicialmente en estaciones de trabajo portátiles con una actualización de las estaciones de trabajo de escritorio que llegará en el tercer trimestre. Estas incluirán nuevos y potentes sistemas RTX de NVIDIA con hasta 4 GPU NVIDIA RTX 6000, que ofrecen más de 5.800 teraflops de rendimiento de IA y 192 gigabytes de memoria de GPU. Pueden configurarse con NVIDIA AI Enterprise o NVIDIA Omniverse en su interior.
También anunciamos tres nuevas GPU de estación de trabajo de escritorio basadas en la generación Ada. Las NVIDIA RTX 5000, 4500 y 4000 ofrecen hasta 2 veces más capacidad de núcleo RT y hasta 2 veces más rendimiento de entrenamiento de IA en comparación con la generación anterior. Además de las cargas de trabajo tradicionales como el diseño 3D y la creación de contenido, nuevas cargas de trabajo en IA generativa, desarrollo de modelos de lenguaje grande y ciencia de datos están ampliando las oportunidades en la visualización profesional para nuestra tecnología RTX.
Uno de los temas clave en la presentación principal de Jensen [indistinguible] a principios de este mes fue la convergencia de gráficos e IA. Aquí es donde se posiciona NVIDIA Omniverse. Omniverse es la plataforma nativa de OpenUSD. OpenUSD es un intercambio universal que se está convirtiendo rápidamente en el estándar para el mundo 3D, al igual que HTML es el lenguaje universal para el [indistinguible] 2D. Juntos, Adobe, Apple, Autodesk, Pixar y NVIDIA forman la Alianza para OpenUSD. Nuestra misión es acelerar el desarrollo y la adopción de OpenUSD. Anunciamos nuevas y próximas API de nube de Omniverse, incluidas RunUSD y ChatUSD, para llevar la IA generativa a la carga de trabajo de OpenUSD.
Pasando a automoción. Los ingresos fueron de $253 millones, una disminución del 15% secuencialmente y un aumento del 15% interanual. El sólido crecimiento interanual se debió a la implementación de plataformas autónomas basadas en [indistinguible] o asociadas con una serie de nuevos fabricantes de vehículos de energía. La disminución secuencial refleja una menor demanda automotriz en general, especialmente en China. Anunciamos una asociación con MediaTek para ofrecer a los conductores y pasajeros nuevas experiencias dentro del automóvil. MediaTek desarrollará SoC automotrices e integrará una nueva línea de productos de chiplet de GPU de NVIDIA. La asociación cubre una amplia gama de segmentos de vehículos, desde el lujo hasta el nivel de entrada.
Pasando al resto de la cuenta de resultados. Los márgenes brutos GAAP se expandieron al 70,1% y el margen bruto no GAAP al 71,2%, impulsados por mayores ventas de centros de datos. Nuestros productos de centro de datos incluyen una cantidad significativa de software y complejidad, lo que también está ayudando a impulsar nuestro margen bruto. Los gastos operativos GAAP secuenciales aumentaron un 6% y los gastos operativos no GAAP aumentaron un 5%, reflejando principalmente un aumento en la compensación y los beneficios. Devolvimos aproximadamente $3,4 mil millones a los accionistas en forma de recompras de acciones y dividendos en efectivo. Nuestra Junta Directiva acaba de aprobar una recompra adicional de acciones por $25 mil millones para sumarse a nuestra autorización restante de $4 mil millones al final del segundo trimestre.
Pasando al panorama para el tercer trimestre del año fiscal 2024. La demanda de nuestra plataforma de centro de datos, donde la IA es tremendamente amplia y diversa en todas las industrias y clientes. Nuestra visibilidad de la demanda se extiende hasta el próximo año. Nuestro suministro durante los próximos varios trimestres seguirá aumentando a medida que reducimos los tiempos de ciclo y trabajamos con nuestros socios de suministro para agregar capacidad. Además, la nueva GPU L40S ayudará a abordar la creciente demanda de muchos tipos de cargas de trabajo, desde la nube hasta la empresa.
Para el tercer trimestre, se espera que los ingresos totales sean de $16 mil millones, más o menos un 2%. Esperamos que el crecimiento secuencial se impulse en gran medida por el centro de datos, con los juegos y ProViz también contribuyendo. Se espera que los márgenes brutos GAAP y no GAAP sean del 71,5% y el 72,5%, respectivamente, más o menos 50 puntos básicos. Los gastos operativos GAAP y no GAAP serán de aproximadamente $2,95 mil millones y $2 mil millones, respectivamente.
Se espera que los ingresos y gastos no GAAP y GAAP de otros sean de aproximadamente $ 100 millones, excluyendo ganancias y pérdidas de inversiones no afiliadas. Se espera que las tasas fiscales no GAAP y GAAP sean del 14,5%, más o menos 1%, excluyendo cualquier elemento discreto. Se incluyen más detalles financieros en el comentario del director financiero y otra información disponible en nuestro sitio web de relaciones con inversores.
Para finalizar, permítanme destacar algunos eventos próximos para la comunidad financiera. Asistiremos a la Cumbre de Tecnología de Jefferies el 30 de agosto en Chicago, la Conferencia de Goldman Sachs el 5 de septiembre en San Francisco, la Conferencia de Semiconductores de Evercore el 6 de septiembre y la Conferencia de Tecnología de Citi el 7 de septiembre, ambas en Nueva York. Y la Conferencia AI Virtual de BofA el 11 de septiembre. Nuestra llamada de ganancias para discutir los resultados de nuestro tercer trimestre del año fiscal 2024 está programada para el martes 21 de noviembre.
Operador, abriremos la llamada para preguntas. ¿Podría por favor hacer una encuesta de preguntas para nosotros? Gracias.
Sesión de preguntas y respuestas
Operador Gracias. [Instrucciones del operador] Tomaremos nuestra primera pregunta de Matt Ramsay con TD Cowen. Su línea está ahora abierta.
Matt Ramsay
Sí. Muchas gracias. Buenas tardes. Obviamente, resultados notables. Jensen, quería hacerte una pregunta sobre la aplicación emergente de inferencia de modelos grandes. Creo que la mayoría de los inversores entienden muy bien que ustedes tienen un gran control en el mercado de entrenamiento. Mucho de los trabajos de inferencia de modelos más pequeños se han hecho en ASIC o CPUs en el pasado.
Y con muchos de estos modelos grandes como GPT, hay una nueva carga de trabajo que se está acelerando muy rápidamente en inferencia de modelos grandes. Y creo que sus productos Grace Hopper Superchip y otros están bastante alineados para eso. ¿Podría hablarnos sobre cómo está viendo el segmento de mercado de inferencia entre inferencia de modelos pequeños e inferencia de modelos grandes y cómo está posicionado su portafolio de productos para eso? Gracias.
Jensen Huang
Sí. Muchas gracias. Así que demos un paso atrás. Estos grandes modelos de lenguaje son bastante fenomenales. Hacen varias cosas, por supuesto. Tiene la capacidad de entender el lenguaje no estructurado. Pero en su núcleo, lo que ha aprendido es la estructura del lenguaje humano. Y ha codificado o comprimido dentro de él una gran cantidad de conocimiento humano que ha aprendido mediante los corpus que ha estudiado. Lo que sucede es que creas estos grandes modelos de lenguaje y creas los más grandes que puedas, y luego derivas de ellos versiones más pequeñas del modelo, esencialmente modelos de maestro-estudiante. Es un proceso llamado destilación.
Y así cuando ves estos modelos más pequeños, es muy probable que hayan sido derivados o destilados de modelos más grandes, así como tienes profesores y maestros y estudiantes, etc. Y lo verás en el futuro. Y así comienzas desde un modelo muy grande y tiene una gran cantidad de generalidad y generalización y lo que se llama capacidad de cero disparo. Y así para muchas aplicaciones y preguntas o habilidades en las que no lo has entrenado específicamente, estos grandes modelos de lenguaje tienen milagrosamente la capacidad de realizarlas. Eso es lo que lo hace tan mágico.
Por otro lado, te gustaría tener estas capacidades en todo tipo de dispositivos informáticos, y por eso los destilas. Estos modelos más pequeños pueden tener excelentes capacidades en una habilidad en particular, pero no generalizan tan bien. No tienen lo que se llama buenas capacidades de cero disparo. Y así todos tienen sus propias capacidades únicas, pero comienzas desde modelos muy grandes.
Operador
Bien. A continuación, pasamos a Vivek Arya de BofA Securities. Su línea está abierta.
Vivek Arya
Gracias. Solo tenía una rápida aclaración y una pregunta. Colette, ¿podría aclarar cuánta oferta incremental espera que esté disponible en el próximo año? ¿Cree que aumentará un 20%, un 30%, un 40%, un 50%? Entonces, solo cualquier idea de cuánta oferta, porque dijo que está creciendo cada trimestre.
Y luego, Jensen, la pregunta para usted es, cuando miramos el gasto general de los hiperscaladores, no está creciendo mucho. Entonces, ¿qué le da la confianza de que pueden seguir tallando más de esa tarta para la IA generativa? Solo danos una idea de cuán sostenible es esta demanda a medida que miramos hacia el próximo uno a dos años. Entonces, si tomo su perspectiva implícita del tercer trimestre para el centro de datos, $12 mil millones, $13 mil millones, ¿qué dice eso acerca de cuántos servidores ya están acelerados por IA? ¿A dónde va eso? Así que solo den algo de confianza de que el crecimiento que están viendo es sostenible en el próximo uno a dos años.
Colette Kress
Gracias por la pregunta sobre nuestro suministro. Sí, esperamos seguir aumentando nuestro suministro en los próximos trimestres, así como en el próximo año fiscal. En cuanto al porcentaje, no es algo que tengamos aquí. Es un trabajo que involucra a muchos proveedores diferentes, muchas partes de la construcción de un HGX y muchos de nuestros otros nuevos productos que están llegando al mercado. Pero estamos muy contentos con el apoyo que tenemos de nuestros proveedores y el tiempo que hemos pasado con ellos mejorando su suministro.
Jensen Huang
El mundo tiene alrededor de $1 billón en centros de datos instalados, en la nube, en empresas y en otros lugares. Y esos $1 billón de centros de datos están en proceso de transición hacia la informática acelerada y la IA generativa. Estamos viendo dos cambios de plataforma simultáneos al mismo tiempo. Uno es la informática acelerada. Y la razón de esto es porque es la forma más rentable, más eficiente en energía y la más efectiva para hacer computación ahora.
Entonces, lo que estás viendo, y de repente, habilitado por la IA generativa, habilitado por la computación acelerada y la IA generativa, llegó. Y esta increíble aplicación ahora les da a todos dos razones para hacer una transición de cambio de plataforma desde la computación de propósito general, la forma clásica de hacer computación, a esta nueva forma de hacer computación, la informática acelerada. Se trata de alrededor de $1 billón en centros de datos, llamémoslo, $0,25 billones de gasto de capital cada año.
Estamos viendo que los centros de datos de todo el mundo están tomando ese gasto de capital y enfocándolo en las dos tendencias más importantes de la computación hoy en día: la informática acelerada y la IA generativa. Y creo que esto no es algo a corto plazo. Esta es una transición de la industria a largo plazo y estamos viendo estos dos cambios de plataforma sucediendo al mismo tiempo.
Operador
A continuación, hablamos con Stacy Rasgon de Bernstein Research. Su línea está abierta.
Stacy Rasgon
Hola, chicos. Gracias por atender mi pregunta. Me preguntaba, Colette, si podrías decirme cuánto de los Centros de Datos en el trimestre, tal vez incluso en la guía, son sistemas versus GPU, como DGX versus solo el H100. Lo que realmente intento averiguar es cuánto es el precio o el contenido o cómo quieras definir eso [indiscernible] versus las unidades que impulsan el crecimiento. ¿Puedes darnos algún color al respecto?
Colette Kress
Claro, Stacy. Déjame ayudarte. Dentro del trimestre, nuestros sistemas HGX fueron una parte muy significativa de nuestro Centro de Datos, así como del crecimiento que habíamos visto. Esos sistemas incluyen nuestro HGX de nuestra arquitectura Hopper, pero también nuestra arquitectura Ampere. Sí, todavía estamos vendiendo ambas arquitecturas en el mercado. Ahora, cuando piensas en eso, ¿qué significa desde el punto de vista de que tanto los sistemas como unidad, por supuesto, están creciendo bastante sustancialmente, y eso está impulsando en términos de los aumentos de ingresos. Así que ambas cosas son los impulsores de los ingresos dentro del Centro de Datos.
Nuestros DGX siempre son una porción de sistemas adicionales que venderemos. Esas son excelentes oportunidades para clientes empresariales y muchos otros tipos de clientes que estamos viendo incluso en nuestras compañías de Internet de consumo. La importancia allí también se está uniendo con el software que vendemos con nuestros DGX, pero esa es una parte de las ventas que estamos haciendo. El resto de las GPU, tenemos nuevas GPU que llegan al mercado que hablamos sobre el L40S, y agregarán un crecimiento continuo en el futuro. Pero nuevamente, el mayor impulsor de nuestros ingresos dentro de este último trimestre fue definitivamente el sistema HGX.
Jensen Huang
Y Stacy, si me permites agregar algo. Dices que es H100 y sé que sabes la imagen mental que tienes en tu mente. Pero el H100 tiene 35,000 partes, pesa 70 libras, casi 1 billón de transistores en combinación. Se necesita un robot para construirlo, bueno, muchos robots para construirlo porque pesa 70 libras. Y se necesita una supercomputadora para probar una supercomputadora. Y por lo tanto, estas cosas son maravillas tecnológicas, y la fabricación de ellas es realmente intensiva. Y así lo llamamos H100 como si fuera un chip que sale de una fábrica, pero los H100 en realidad salen como HGX enviados a los hiperscalers del mundo y son componentes de sistemas realmente grandes, si se quiere.
Operador
A continuación, pasamos a Mark Lipacis con Jefferies. Su línea está abierta.
Mark Lipacis
Hola. Gracias por responder mi pregunta y felicitaciones por el éxito. Jensen, parece que una parte clave del éxito en el mercado es entregar el ecosistema de software junto con el chip y la plataforma de hardware. Tenía una pregunta de dos partes sobre esto. Me preguntaba si podrías ayudarnos a entender la evolución de tu ecosistema de software, los elementos críticos. ¿Y hay alguna forma de cuantificar su liderazgo en esta dimensión, como cuántos años-persona has invertido en construirlo? Y luego, en la segunda parte, me preguntaba si te importaría compartir con nosotros tu opinión sobre qué porcentaje del valor de la plataforma NVIDIA es la diferenciación de hardware versus la diferenciación de software. Gracias.
Sí, Mark, realmente aprecio la pregunta. Veamos si puedo utilizar algunas métricas. Tenemos un tiempo de ejecución llamado AI Enterprise, que es una parte de nuestra pila de software. Este es el tiempo de ejecución que casi todas las empresas utilizan para el aprendizaje automático, desde el procesamiento de datos, la formación de modelos y la implementación, hasta la escalabilidad en un centro de datos. Se puede hacer esto en cualquiera de nuestras GPUs, desde una configuración de una sola GPU hasta múltiples GPU por computadora o múltiples nodos.
También tiene múltiples sesiones o múltiples instancias de computación por GPU. Este tiempo de ejecución tiene alrededor de 4.500 paquetes de software y bibliotecas de software, y tiene alrededor de 10.000 dependencias entre ellas. Este tiempo de ejecución se actualiza y optimiza continuamente para nuestra base de instalación.
La flexibilidad, versatilidad y rendimiento de nuestra arquitectura hacen posible que entreguemos el costo de propiedad más bajo. La segunda característica de nuestra empresa es la base de instalación. Las empresas de software vienen a nuestra plataforma porque buscan una gran base de instalación para llegar al mayor número de usuarios finales. Y la tercera característica es el alcance. Estamos en la nube para la nube pública y empresarial.
Ayer tuvimos un anuncio muy grande. Realmente vale la pena echarle un vistazo. VMware es el sistema operativo de la empresa mundial. Hemos estado trabajando juntos durante varios años y vamos a unirnos para llevar la inteligencia artificial generativa a las empresas del mundo, hasta el límite. Y así, la extensión es otra razón. Y debido a la extensión, todos los fabricantes de sistemas del mundo están ansiosos por poner la plataforma de NVIDIA en sus sistemas. Y así, tenemos una distribución muy amplia de todos los OEM y ODM y demás del mundo debido a nuestra extensión.
Y por último, debido a nuestra escala y velocidad, pudimos mantener esta pila realmente compleja de software y hardware, redes y computación y en todos estos diferentes modelos de uso y entornos informáticos diferentes. Y podemos hacer todo esto mientras aceleramos la velocidad de nuestra ingeniería. Parece que estamos presentando una nueva arquitectura cada dos años. Ahora estamos presentando una nueva arquitectura, un nuevo producto casi cada seis meses. Y así, estas propiedades hacen posible que el ecosistema construya su empresa y su negocio sobre nosotros. Y así, en combinación, nos hace especiales.
Operador
A continuación, vamos a Atif Malik con Citi. Su línea está abierta.
Atif Malik
Hola. Gracias por tomar mi pregunta. Excelente trabajo en los resultados y perspectivas. Colette, tengo una pregunta sobre el núcleo L40S del que hablaron. ¿Tienen alguna idea de cuánto de la escasez de suministro puede ayudar L40S? ¿Y si pueden hablar sobre la rentabilidad incremental o la contribución al margen bruto de este producto? Gracias.
Jensen Huang
Sí, Atif. Déjame que me encargue de eso. El L40S está diseñado para un tipo de aplicación diferente. El H100 está diseñado para modelos de lenguaje a gran escala y procesamiento de modelos muy grandes y una gran cantidad de datos. Y por lo tanto, ese no es el enfoque del L40S. El enfoque del L40S es poder ajustar modelos, ajustar modelos preentrenados, y lo hará increíblemente bien. Tiene un motor de transformación. Tiene un alto rendimiento. Puedes tener varias GPU en un servidor. Está diseñado para escalar de manera hiperscale, lo que significa que es fácil instalar servidores L40S en los centros de datos hiperscale del mundo. Viene en un rack estándar, un servidor estándar, y todo al respecto es estándar, por lo que es fácil de instalar.
El L40S también está con la pila de software que lo rodea y junto con BlueField-3 y todo el trabajo que hicimos con VMware y el trabajo que hicimos con Snowflakes y ServiceNow y muchos otros socios empresariales. El L40S está diseñado para los sistemas de TI empresariales del mundo. Y esa es la razón por la cual HPE, Dell, Lenovo y unos 20 fabricantes de sistemas más que construyen alrededor de 100 configuraciones diferentes de servidores empresariales van a trabajar con nosotros para llevar la IA generativa a la empresa mundial. Y por lo tanto, el L40S está diseñado para un tipo diferente de escala, por así decirlo. Por supuesto, son modelos de lenguaje grandes. Por supuesto, es IA generativa, pero es un caso de uso diferente. Y por lo tanto, el L40S está teniendo un gran comienzo y las empresas hiperscalers del mundo están realmente ansiosas por implementar el L40S.
Operador
A continuación, pasaremos a Joe Moore con Morgan Stanley. Su línea está abierta.
Joseph Moore
Genial. Gracias. Supongo que lo sorprendente de estos números es la cantidad de demanda que sigue sin satisfacerse, hablando con algunos de sus clientes. Por buenos que sean estos números, más que triplicó sus ingresos en un par de trimestres. En algunos casos, hay una demanda por múltiplos de lo que la gente está obteniendo. ¿Puede hablar sobre eso? ¿Cuánta demanda insatisfecha cree que hay? Y hablaste de la visibilidad que se extiende hasta el próximo año. ¿Tiene línea de visión para cuándo llegará al equilibrio entre la oferta y la demanda?
Jensen Huang
Sí. Tenemos una excelente visibilidad durante todo el año y hasta el próximo año. Y ya estamos planeando la infraestructura de próxima generación con los principales CSP y constructores de centros de datos. La demanda – la forma más fácil de pensar en la demanda es que el mundo está haciendo la transición de la informática de propósito general a la informática acelerada. Esa es la forma más fácil de pensar en la demanda. La mejor manera para que las empresas aumenten su rendimiento, mejoren su eficiencia energética, y mejoren su eficiencia de costos es desviar su presupuesto de capital a la informática acelerada e IA generativa. Porque al hacerlo, vas a descargar tanta carga de trabajo de las CPUs, pero las CPUs disponibles en tu centro de datos se verán impulsadas.
Y por lo tanto, lo que estás viendo ahora es que las empresas reconocen este punto de inflexión, reconocen el comienzo de esta transición y están desviando su inversión de capital a la informática acelerada e IA generativa. Y por lo tanto, esa es probablemente la forma más fácil de pensar en la oportunidad que tenemos por delante. Esto no es una aplicación singular que está impulsando la demanda, sino que se trata de una nueva plataforma informática, por así decirlo, una nueva transición informática que está sucediendo. Y los centros de datos de todo el mundo están respondiendo a esto y cambiando de manera amplia.
Operador
A continuación, vamos con Toshiya Hari de Goldman Sachs. Su línea ya está abierta.
Toshiya Hari
Hola. Gracias por atender la pregunta. Tenía una pregunta rápida de aclaración para Colette y otra para Jensen. Colette, creo que el trimestre pasado dijiste que los CSP representaban alrededor del 40% de tus ingresos en centros de datos, el internet de consumo el 30% y la empresa el 30%. Según tus comentarios, parecía que los CSP y el internet de consumo podrían haber sido un porcentaje mayor de tu negocio. Si pudieras aclararlo o confirmarlo, sería de gran ayuda.
Y luego, Jensen, una pregunta para ti. Dado tu posición como el principal facilitador de IA, la amplitud de los compromisos y la visibilidad que tienes en los proyectos de los clientes, me pregunto qué tan seguro estás de que habrá suficientes aplicaciones o casos de uso para que tus clientes generen un retorno razonable de su inversión. Supongo que hago la pregunta porque hay una preocupación de que podría haber una pausa en tu perfil de demanda en los próximos años. ¿Te gustaría saber si hay suficiente amplitud y profundidad para respaldar un aumento sostenido en tu negocio de centros de datos en el futuro? Gracias.
Colette Kress
Bien. Así que gracias, Toshiya, por la pregunta sobre los tipos de clientes que tenemos en nuestro negocio de centros de datos. Y lo vemos en términos de combinar nuestros recursos informáticos y de red juntos. Nuestros CSPs, nuestros grandes CSPs, están contribuyendo un poco más del 50% de nuestros ingresos en el segundo trimestre. Y la siguiente categoría más grande serán nuestras empresas de internet de consumo. Y luego la última parte de eso serán nuestras empresas y computación de alto rendimiento.
Jensen Huang
Toshi, soy reticente a adivinar sobre el futuro, así que responderé la pregunta desde el principio de la perspectiva de la ciencia de la computación. Se reconoce desde hace algún tiempo que la informática de propósito general no es suficiente y que la fuerza bruta de la informática de propósito general no es la mejor manera de avanzar a gran escala. Es demasiado costoso en términos de energía, demasiado caro y el rendimiento de las aplicaciones es demasiado lento.
Por último, el mundo tiene una nueva forma de hacerlo. Se llama informática acelerada y lo que la impulsó al turbo es la IA generativa. Pero la informática acelerada podría utilizarse para todo tipo de aplicaciones diferentes que ya están en el centro de datos. Y al utilizarla, se descargan las CPUs. Se ahorra una cantidad enorme de dinero en términos de costo y energía y el rendimiento es mayor, y es a eso a lo que realmente está respondiendo la industria.
En el futuro, la mejor manera de invertir en el centro de datos es desviar la inversión de capital de la informática de propósito general y centrarse en la IA generativa y la informática acelerada. La IA generativa proporciona una nueva forma de generar productividad, una nueva forma de generar nuevos servicios para ofrecer a sus clientes, y la informática acelerada le ayuda a ahorrar dinero y energía. Y la cantidad de aplicaciones es enorme. Hay muchos desarrolladores, muchas aplicaciones, muchas bibliotecas. Está listo para ser implementado.
Y así creo que los centros de datos de todo el mundo reconocen esto, que esta es la mejor manera de implementar recursos, invertir capital y avanzar en los centros de datos. Esto es cierto para las nubes del mundo y estamos viendo un conjunto completo de nuevos proveedores de servicios en la nube especializados en GPU. Uno de los más famosos es CoreWeave y les está yendo increíblemente bien. Pero ahora estamos viendo proveedores de servicios especializados en GPU regionales en todo el mundo. Y es porque todos reconocen lo mismo, que la mejor manera de invertir su capital en el futuro es ponerlo en la informática acelerada y la IA generativa.
También estamos viendo que las empresas quieren hacerlo. Pero para que las empresas lo hagan, tienes que apoyar el sistema de gestión, el sistema operativo, la seguridad y el enfoque del centro de datos definido por software de las empresas, y eso es todo VMware. Y hemos estado trabajando varios años con VMware para hacer posible que VMware admita no solo la virtualización de CPUs, sino también la virtualización de GPUs, así como las capacidades de cómputo distribuido de GPUs, admitiendo la red de alto rendimiento de NVIDIA BlueField.
Y todas las bibliotecas de IA generativa en las que hemos estado trabajando ahora se ofrecerán como un SKU especial por el equipo de ventas de VMware, que, como todos sabemos, es bastante grande porque llegan a varios cientos de miles de clientes de VMware en todo el mundo. Y este nuevo SKU se llamará VMware Private AI Foundation. Y este será un nuevo SKU que hará posible que las empresas, en combinación con las nuevas ofertas de servidores de HP, Dell y Lenovo basadas en L40S, tengan un centro de datos de IA de última generación y puedan participar en la IA generativa.
Y así creo que la respuesta a esa pregunta es difícil de predecir exactamente lo que va a suceder trimestre a trimestre. Pero creo que la tendencia es muy, muy clara ahora que estamos viendo un cambio de plataforma.
Operador
A continuación, pasaremos a Timothy Arcuri de UBS. Su línea ahora está abierta.
Timothy Arcuri
Muchas gracias. ¿Podría hablar sobre la tasa de conexión de sus soluciones de redes con los sistemas de cómputo que están enviando? En otras palabras, ¿es la mitad de los sistemas que envían compatibles con sus soluciones de redes, más de la mitad o menos de la mitad? ¿Y esto es algo que tal vez puedan utilizar para priorizar la asignación de las GPU? Gracias.
Jensen Huang
Bueno, trabajando hacia atrás, no utilizamos eso para priorizar la asignación de nuestras GPU. Permite a los clientes decidir qué redes les gustaría utilizar. Y para los clientes que están construyendo infraestructuras muy grandes, InfiniBand es, no me gusta decirlo, una opción obvia. Y la razón de ello es que la eficiencia de InfiniBand es tan significativa, un 10%, un 15%, un 20% más de rendimiento por una infraestructura de $1 mil millones se traduce en enormes ahorros. Básicamente, la red es gratuita.
Y así, si tiene una sola aplicación, si lo desea, la infraestructura está dedicada en gran parte a modelos de lenguaje grandes o sistemas de inteligencia artificial grandes, InfiniBand es realmente una opción excelente. Sin embargo, si está alojando a muchos usuarios diferentes y Ethernet es realmente fundamental para la forma en que administra su centro de datos, tenemos una excelente solución allí que acabamos de anunciar recientemente y se llama Spectrum-X. Bueno, vamos a llevar las capacidades, si lo desea, no todas, pero algunas de las capacidades de InfiniBand a Ethernet para que también podamos, dentro del entorno de Ethernet, permitirle – habilitarle para obtener excelentes capacidades de inteligencia artificial generativa.
Así que Spectrum-X está empezando ahora mismo. Requiere BlueField-3 y admite tanto nuestros conmutadores Ethernet Spectrum-2 como Spectrum-3. Y el rendimiento adicional es realmente espectacular. BlueField-3 lo hace posible y un montón de software que lo acompaña. BlueField, como todos ustedes saben, es un proyecto realmente querido para mí, y está teniendo un comienzo tremendo. Creo que es un jonrón. Este es el concepto de computación en red y poner mucho software en la tela de cómputo que se está realizando con BlueField-3, y va a ser un jonrón.
Operador
Nuestra última pregunta proviene de la línea de Ben Reitzes con Melius. Su línea ahora está abierta.
Benjamin Reitzes
Hola. Buenas tardes. Buenas noches. Gracias por la pregunta y por incluirme. Mi pregunta se refiere a DGX Cloud. ¿Pueden hablar sobre la recepción que están viendo y cómo va el impulso? Y luego, Colette, ¿puedes hablar sobre su negocio de software? ¿Cuál es la tasa de ejecución en este momento y la importancia de ese negocio? Y parece que ya está ayudando un poco a los márgenes. Muchas gracias.
Jensen Huang
Comencemos con la estrategia de DGX Cloud. La estrategia de DGX Cloud es lograr varias cosas: en primer lugar, permitir una asociación muy estrecha entre nosotros y los CSP líderes en el mundo. Reconocemos que trabajamos con alrededor de 30,000 empresas en todo el mundo. 15,000 de ellas son startups. Miles de ellas son compañías de IA generativa y el segmento de más rápido crecimiento, por supuesto, es la IA generativa. Estamos trabajando con todas las startups de IA del mundo. Y en última instancia, les gustaría poder aterrizar en una de las principales nubes del mundo. Y así construimos DGX Cloud como una huella dentro de las principales nubes del mundo para que pudiéramos trabajar simultáneamente con todos nuestros socios de IA y ayudar a mezclarlos fácilmente en uno de nuestros socios de nube.
El segundo beneficio es que nos permite a nosotros y a nuestros CSP trabajar muy de cerca juntos para mejorar el rendimiento de las nubes hiperscale, que históricamente están diseñadas para la multi-tenencia y no están diseñadas para la informática distribuida de alto rendimiento como la IA generativa. Y así poder trabajar de cerca arquitectónicamente para que nuestros ingenieros trabajen mano a mano para mejorar el rendimiento de la red y el rendimiento informático ha sido realmente poderoso, realmente genial.
Y en tercer lugar, por supuesto, NVIDIA utiliza infraestructuras muy grandes nosotros mismos. Y nuestro equipo de conducción autónoma, nuestro equipo de investigación de NVIDIA, nuestro equipo de IA generativa, nuestro equipo de modelos de lenguaje, la cantidad de infraestructura que necesitamos es bastante significativa. Ninguno de nuestros compiladores optimizadores es posible sin nuestros sistemas DGX. Incluso los compiladores hoy en día requieren IA, y el software de infraestructura de optimización requiere IA incluso para desarrollarse. Ha sido bien publicado que nuestro equipo de ingeniería utiliza IA para diseñar nuestros chips.
Y así el consumo interno nuestro de IA, nuestro equipo de robótica, etc., todo necesita IA. Y así nuestro consumo interno también es bastante grande, y aterrizamos eso en DGX Cloud. Y así DGX Cloud tiene múltiples casos de uso, múltiples impulsores, y ha sido un éxito enorme. Y a nuestros CSP les encanta, a los desarrolladores les encanta y nuestros propios ingenieros internos están clamando por tener más de eso. Y es una excelente manera para nosotros de involucrarnos y trabajar estrechamente con todo el ecosistema de IA en todo el mundo.
Colette Kress
Y veamos si puedo responder a su pregunta sobre nuestros ingresos de software. En parte de nuestras observaciones de apertura que hicimos también, recuerde que el software es parte de casi todos nuestros productos, ya sean nuestros productos de centro de datos, sistemas GPU o cualquiera de nuestros productos dentro de los juegos y nuestros futuros productos automotrices. Tiene razón, también lo estamos vendiendo como un negocio independiente. Y ese software independiente continúa creciendo donde estamos proporcionando tanto los servicios de software como las actualizaciones en todos los aspectos.
Ahora estamos viendo, en este momento, probablemente cientos de millones de dólares anuales para nuestro negocio de software, y estamos viendo que NVIDIA AI Enterprise se incluirá con muchos de los productos que estamos vendiendo, como nuestro DGX, como nuestras versiones PCIe de nuestro H100. Y creo que veremos más disponibilidad incluso con nuestros mercados CSP. Así que estamos teniendo un gran comienzo, y creo que veremos que esto continúa creciendo en el futuro.
Operador
Y esto concluye la sesión de preguntas y respuestas de hoy. Devolveré la llamada a Jensen Huang para cualquier comentario adicional o de cierre.
Jensen Huang
Ha comenzado una nueva era informática. La industria está simultáneamente atravesando dos transiciones de plataforma, la computación acelerada y la IA generativa. Los centros de datos están haciendo una transición de plataforma desde la computación general a la computación acelerada. Los $1 billón de centros de datos globales se trasladarán a la computación acelerada para lograr un rendimiento, eficiencia energética y costos mejorados en un orden de magnitud. La computación acelerada habilitada para la IA generativa, que ahora está impulsando una transición de plataforma en el software y habilitando aplicaciones nuevas y nunca antes posibles. Juntas, la computación acelerada y la IA generativa están impulsando una transición de plataforma en toda la industria informática.
Nuestra demanda es tremenda. Estamos ampliando significativamente nuestra capacidad de producción. El suministro aumentará sustancialmente durante el resto de este año y el próximo. NVIDIA se ha estado preparando para esto durante más de dos décadas y ha creado una nueva plataforma informática en la que las industrias del mundo pueden construir. Lo que hace que NVIDIA sea especial son: uno, la arquitectura. NVIDIA acelera todo, desde el procesamiento de datos, el entrenamiento, la inferencia, todos los modelos de IA, el habla en tiempo real hasta la visión por computadora y los recomendadores gigantes para bases de datos vectoriales. El rendimiento y la versatilidad de nuestra arquitectura se traducen en el TCO más bajo del centro de datos y la mejor eficiencia energética.
Dos, base instalada. NVIDIA tiene cientos de millones de GPUs compatibles con CUDA en todo el mundo. Los desarrolladores necesitan una gran base instalada para llegar a los usuarios finales y hacer crecer su negocio. NVIDIA es la plataforma preferida de los desarrolladores. Cuantos más desarrolladores crean más aplicaciones, más valiosa se vuelve NVIDIA para los clientes. Tres, alcance. NVIDIA está en nubes, centros de datos empresariales, borde industrial, PC, estaciones de trabajo, instrumentos y robótica. Cada uno tiene modelos de computación y ecosistemas fundamentalmente únicos. Los proveedores de sistemas como los OEM, los OEM de computadoras pueden invertir con confianza en NVIDIA porque ofrecemos una demanda de mercado y un alcance significativos. Escala y velocidad. NVIDIA ha logrado una escala significativa y está 100% invertida en computación acelerada e IA generativa. Nuestros socios de ecosistema pueden confiar en que tenemos la experiencia, el enfoque y la escala para ofrecer un sólido mapa de ruta y alcance para ayudarlos a crecer.
Estamos acelerando debido a los resultados adicionales de estas capacidades. Estamos actualizando y agregando nuevos productos aproximadamente cada seis meses en lugar de cada dos años para abordar el universo en expansión de la IA generativa. Mientras aumentamos la producción de H100 para el entrenamiento e inferencia de modelos de lenguaje grandes, estamos aumentando nuestra nueva GPU universal L40S para escalabilidad, para escala en la nube y servidores empresariales. Spectrum-X, que consiste en nuestro conmutador Ethernet, BlueField-3 Super NIC y software ayuda a los clientes que desean el mejor rendimiento de IA posible en infraestructuras Ethernet. Los clientes ya están trabajando en la computación acelerada y la IA generativa de próxima generación con nuestra Grace Hopper.
Estamos extendiendo la IA de NVIDIA a las empresas del mundo que demandan IA generativa pero con privacidad, seguridad y soberanía de modelos. Junto con las principales empresas de TI empresarial del mundo, Accenture, Adobe, Getty, Hugging Face, Snowflake, ServiceNow, VMware y WPP y nuestros socios de sistemas empresariales, Dell, HPE y Lenovo, estamos llevando la IA generativa a las empresas del mundo. Estamos construyendo NVIDIA Omniverse para digitalizar y permitir que las industrias pesadas de varios billones de dólares del mundo usen la IA generativa para automatizar cómo construyen y operan activos físicos y lograr una mayor productividad. La IA generativa comienza en la nube, pero las oportunidades más significativas están en las industrias más grandes del mundo, donde las empresas pueden obtener ganancias de productividad en billones de dólares. Es un momento emocionante para NVIDIA, nuestros clientes, socios y todo el ecosistema para impulsar esta transición generacional en la informática. Esperamos actualizarle sobre nuestro progreso el próximo trimestre.
Operador
Esto concluye la conferencia telefónica de hoy. Puede desconectarse ahora.