PUNTOS IMPORTANTES:
- Intel anunció Gaudi3, un chip de IA para competir con Nvidia y AMD, destinado a software de IA generativa.
- El chip Core Ultra de Intel, diseñado para laptops y PCs con Windows, se enfoca en tareas de IA más pequeñas y ofrece mejor eficiencia energética.
- Los nuevos procesadores Xeon de Intel están orientados a servidores y son eficientes para el inferencing en aplicaciones de IA.
Intel ha desvelado el jueves nuevos chips de computadora, incluyendo Gaudi3, un chip de inteligencia artificial para software de IA generativa. Gaudi3 se lanzará el próximo año y competirá con chips rivales de Nvidia y AMD, que alimentan modelos de IA grandes y de alto consumo de energía.
Los modelos de IA más destacados, como ChatGPT de OpenAI, funcionan en GPUs de Nvidia en la nube. Es una de las razones por las que las acciones de Nvidia han subido casi un 230% en lo que va de año, mientras que las de Intel han aumentado un 68%. Y es por eso que compañías como AMD y, ahora Intel, han anunciado chips que esperan atraer a las empresas de IA lejos de la posición dominante de Nvidia en el mercado.
Las acciones de Intel subieron un 1% el jueves.
Competencia en el mercado de chips de IA
Aunque la empresa no proporcionó muchos detalles, Gaudi3 competirá con el H100 de Nvidia, la elección principal entre las empresas que construyen enormes granjas de estos chips para alimentar aplicaciones de IA, y con el próximo MI300X de AMD, cuando comience a enviarse a los clientes en 2024.
Intel ha estado construyendo chips Gaudi desde 2019, cuando compró un desarrollador de chips llamado Habana Labs.
“Estamos viendo la emoción con la IA generativa, la estrella del espectáculo para 2023”, dijo el CEO de Intel, Pat Gelsinger, en un evento de lanzamiento en Nueva York donde anunció Gaudi3 junto con otros chips enfocados en aplicaciones de IA.
“Creemos que el PC de IA será la estrella del espectáculo para el próximo año”, añadió Gelsinger. Y ahí es donde entran en juego los nuevos procesadores Core Ultra de Intel, también anunciados el jueves.
Intel Core Ultra y nuevos chips Xeon
Intel también anunció chips Core Ultra, diseñados para laptops y PCs con Windows, y nuevos chips Xeon de quinta generación para servidores. Ambos incluyen una parte especializada de IA llamada NPU que puede usarse para ejecutar programas de IA más rápidamente.
Es la última señal de que los fabricantes tradicionales de procesadores, incluyendo a los rivales de Intel, AMD y Qualcomm, están reorientando sus líneas de productos en torno a la IA y alertando a los inversionistas sobre la posibilidad de que los modelos de IA lleven a una demanda creciente de sus chips.
El Core Ultra no proporcionará el mismo tipo de potencia para ejecutar un chatbot como ChatGPT sin una conexión a Internet, pero puede manejar tareas más pequeñas. Por ejemplo, Intel dijo que Zoom ejecuta su función de desenfoque de fondo en sus chips. Están construidos utilizando el proceso de 7 nanómetros de la compañía, que es más eficiente en términos de energía que los chips anteriores.
Estrategia y futuro de Intel en el mercado de IA
Pero, lo que es importante, los chips de 7 nanómetros muestran que la estrategia de Gelsinger para alcanzar a Taiwan Semiconductor Manufacturing Co. en términos de habilidades de fabricación de chips para 2026 no se ha quedado atrás.
Los chips Core Ultra también incluyen capacidades de juego más potentes y la mayor potencia gráfica puede ayudar a que programas como Adobe Premier se ejecuten más del 40% más rápido. La línea se lanzó en laptops que llegaron a las tiendas el jueves.
Finalmente, los procesadores Xeon de quinta generación de Intel alimentan servidores desplegados por grandes organizaciones como empresas de la nube. Intel no compartió los precios, pero el Xeon anterior costaba miles de dólares. Los procesadores Xeon de Intel suelen emparejarse con GPUs de Nvidia en los sistemas que se utilizan para entrenar y desplegar IA generativa. En algunos sistemas, ocho GPUs se emparejan con uno o dos CPUs Xeon.
Intel dijo que el último procesador Xeon será particularmente bueno para el inferencing, o el proceso de despliegue de un modelo de IA, que consume menos energía que el proceso de entrenamiento.