PUNTOS IMPORTANTES:
- Nvidia ha lanzado una nueva generación de chips de IA, Blackwell, y un software innovador, NIM, marcando un avance significativo en la tecnología de inteligencia artificial.
- La arquitectura Blackwell proporciona un rendimiento de IA de 20 petaflops, superando significativamente al anterior H100, lo que permite entrenar modelos de IA más grandes y complejos.
- NIM, el nuevo servicio de microservicios de inferencia de Nvidia, facilita el uso de GPUs Nvidia antiguas para la inferencia, permitiendo a las empresas maximizar su inversión en hardware existente.
Nvidia, el reconocido fabricante de chips, anunció el lunes su nueva generación de chips de inteligencia artificial y software para ejecutar modelos de IA. Este anuncio se realizó durante la conferencia de desarrolladores de Nvidia en San José, marcando un esfuerzo significativo por parte de la compañía para consolidar su posición como el proveedor principal para empresas de IA.
Desde finales de 2022, cuando el auge de la IA comenzó con el ChatGPT de OpenAI, el precio de las acciones de Nvidia ha aumentado cinco veces y las ventas totales se han más que triplicado. Las GPU de servidor de alta gama de Nvidia son esenciales para entrenar y desplegar grandes modelos de IA, con compañías como Microsoft y Meta invirtiendo miles de millones de dólares en estos chips.
Conoce Blackwell, el sucesor de Hopper
La nueva generación de procesadores gráficos de IA se llama Blackwell, y el primer chip de esta serie es el GB200, que se enviará a finales de este año. Nvidia está atrayendo a sus clientes con chips más potentes para impulsar nuevos pedidos, mientras que las empresas y los creadores de software aún buscan adquirir la generación actual de chips Hopper H100 y similares.
Jensen Huang, CEO de Nvidia, destacó en la conferencia de desarrolladores de la compañía en California la necesidad de GPUs más grandes, a pesar de la eficacia de la serie Hopper. Las acciones de Nvidia experimentaron una caída de más del 1% en el trading extendido del lunes.
La empresa también presentó un software generador de ingresos llamado NIM, diseñado para facilitar la implementación de IA, brindando a los clientes una razón más para preferir los chips de Nvidia frente a una creciente competencia. Los ejecutivos de Nvidia expresaron que la compañía está evolucionando de ser un proveedor de chips a un proveedor de plataformas, en una línea similar a Microsoft o Apple, sobre la cual otras compañías pueden construir software.
Impulso a la innovación con Blackwell
Cada dos años, Nvidia actualiza su arquitectura de GPU, lo que permite un significativo aumento en el rendimiento. La arquitectura Hopper, utilizada en chips como el H100 anunciado en 2022, ha sido fundamental para entrenar muchos de los modelos de IA lanzados durante el último año.
Los procesadores basados en Blackwell, como el GB200, prometen un gran salto en rendimiento para las empresas de IA, ofreciendo 20 petaflops de rendimiento en IA en comparación con los 4 petaflops del H100. Esta potencia de procesamiento adicional permitirá a las empresas de IA entrenar modelos más grandes y complejos.
El chip incluye un «motor de transformadores» específicamente diseñado para ejecutar IA basada en transformadores, una de las tecnologías clave detrás de ChatGPT.
El GPU Blackwell es de gran tamaño y combina dos dados fabricados por separado en un chip producido por TSMC. También estará disponible como un servidor completo, el GB200 NVLink 2, que integra 72 GPUs Blackwell y otros componentes de Nvidia diseñados para entrenar modelos de IA.
Empresas como Amazon, Google, Microsoft y Oracle ofrecerán acceso al GB200 a través de servicios en la nube. El sistema GB200 empareja dos GPUs Blackwell B200 con un CPU basado en Arm Grace. Nvidia anunció que Amazon Web Services construirá un clúster de servidores con 20,000 chips GB200.
Introduciendo NIM: Servicio Innovador de Nvidia
Nvidia también ha introducido un nuevo producto llamado NIM, que significa Nvidia Inference Microservice, a su suscripción de software empresarial Nvidia. Este innovador servicio está diseñado para facilitar la utilización de GPUs Nvidia más antiguas para la inferencia, es decir, el proceso de ejecución de software de IA, permitiendo a las empresas aprovechar los cientos de millones de GPUs Nvidia que ya poseen.
La inferencia requiere menos potencia computacional que el entrenamiento inicial de un nuevo modelo de IA. NIM permite a las empresas ejecutar sus propios modelos de IA, en lugar de comprar acceso a resultados de IA como servicio de empresas como OpenAI.
La estrategia de Nvidia es conseguir que los clientes que compran servidores basados en Nvidia se suscriban a Nvidia Enterprise, que tiene un costo de 4.500 USD por GPU al año por licencia.
Nvidia colaborará con compañías de IA como Microsoft o Hugging Face para asegurar que sus modelos de IA estén optimizados para ejecutarse en todos los chips Nvidia compatibles. Luego, utilizando un NIM, los desarrolladores pueden ejecutar eficientemente el modelo en sus propios servidores o en servidores basados en la nube de Nvidia sin un proceso de configuración prolongado.
Nvidia afirma que el software también facilitará la ejecución de IA en laptops equipadas con GPU, en lugar de en servidores en la nube, ampliando así el acceso y la flexibilidad para los desarrolladores y empresas.