Procesadores

La guerra de los chips en la era de la IA

Los procesadores se han vuelto protagonistas indirectos de la batalla por reinar la Inteligencia Artificial

A factory technician at Intel’s Penang Assembly Test facility inspects a tray of Intel Core Ultra processors before they are shipped from the factory in Penang, Malaysia. On Dec. 14, 2023, Intel introduced the Intel Core Ultra mobile processor family. Powered by Intel’s 3D performance hybrid architecture and built on the Intel 4 process, new H- and U-Series processors deliver a balance of performance and power efficiency, immersive experiences, and AI acceleration. (Credit: Intel Corporation)
A factory technician at Intel’s Penang Assembly Test facility inspects a tray of Intel Core Ultra processors before they are shipped from the factory in Penang, Malaysia. On Dec. 14, 2023, Intel introduced the Intel Core Ultra mobile processor family. Powered by Intel’s 3D performance hybrid architecture and built on the Intel 4 process, new H- and U-Series processors deliver a balance of performance and power efficiency, immersive experiences, and AI acceleration. (Credit: Intel Corporation)Intel Corporation

En la carrera por liderar la informática en la nube y el desarrollo de la inteligencia artificial (especialmente la aplicada a los negocios), subyace otra guerra más allá de la de tener el modelo de lenguaje (LLM) que sustente la IA del futuro: la de tener los procesadores más preparados y optimizados para hacer frente a las enormes cargas de trabajo que el tratamiento y generación de todos estos datos conlleva.

No en vano, para que la IA (también la generativa) pueda procesar y gestionar todos estos datos y algoritmos, necesita habitar en grandes máquinas de hardware en la que los procesadores deben no solo ser rápidos, sino estar especialmente preparados para estas cargas de trabajo.

Por eso, los procesadores se han vuelto protagonistas indirectos de esta batalla por reinar la Inteligencia Artificial. A primera vista, una compañía parece haber tomado la delantera. Una compañía que, además, no sería la primera en acudir a la mente cuando pensamos en procesadores (o CPU, unidad de procesamiento central). Se trata de nVidia, una compañía, tradicionalmente asociada con el mundo de las tarjetas gráficas y que está viviendo una segunda juventud gracias a la IA. No en vano, nVidia ha sido siempre una de las principales compañías en liderar el mercado de las GPU (unidad de procesamiento gráfico), que son un procesador especializado que se diseñó originalmente para manipular los gráficos de un ordenador. Su estructura paralela los convierte en ideales para los algoritmos que procesan grandes bloques de datos que suelen encontrarse en las cargas de trabajo de IA.

De hecho, sus acciones no dejan de subir en bolsa (muy por encima de la media de otros valores) y su valorización no deja de multiplicarse. El 19 de enero de este año, sin ir más lejos, tocaba su máximo histórico (594,91 dólares por acción), superando los 1469 millones de dólares de cotización), superando a otras tecnológicas como Meta (propietaria de Facebook) o Tesla.

Para entender bien la trascendencia que están adquiriendo los procesadores en la era de la IA, podemos mirar cómo funciona ChatGPT. Esta herramienta requiere enormes cantidades de potencia de procesamiento para poder responder, y a esa velocidad, a las peticiones de los usuarios. ChatGPT trabaja con GPT-4, la cuarta versión del modelo multimodal grande desarrollador por OpenAI. GPT-4 ha sido entrenado con 170.000 millones de parámetros, lo que hace que sus respuestas suenen aún más genuinas y humanas que la versión anterior. Aunque OpenAI no cotiza en bolsa por lo que la información no siempre es pública, el banco UBS calcula que ChatGPT utiliza 10.000 unidades de procesamiento gráfico (GPU) de nVidia para funcionar y que estaría preparado para admitir miles más a medida que el modelo se vuelva más sofisticado y crezca el número de usuarios activos.

OpenAI no es la única compañía que está confiando en nVidia para dar energía a sus modelos de IA, algo que hará que, muy probablemente, Intel (una de las principales compañías de procesadores del mundo, con cerca de un 70% de cuota de mercado en ordenadores y portátiles y otro tanto en servidores) pierda su trono en Estados Unidos como la firma de procesadores que más factura (a nivel mundial ya se vio superada por TSMC hace años).

Es decir, que nVidia se ha convertido en el rey de un sector adyacente al de los procesadores centrales, dominado por Intel. Los chips gráficos de nVidia, utilizados para acelerar las aplicaciones de IA, han reavivado el mercado de los centros de datos con una nueva dinámica.

Con los datos en la mano, Intel sigue dominando el mercado mundial de procesadores para servidores con su familia Xeon. Hace cinco años, AMD (principal competencia de Intel en chips para PC) decidió volver a entrar en este lucrativo y creciente mercado de servidores tras varios años de ausencia. En este corto periodo de tiempo, la compañía ha logrado capturar el 23% del mercado (casi uno de cada cuatro servidores), según los datos de Mercury Research.

Y, aunque a menor escala, los procesadores Arm (que tradicionalmente han tenido su principal mercado en dispositivos móviles, como smartphones y tablets), también demostraron su utilidad para algunas cargas de trabajo y ya tienen más del 8% del mercado.

Hoy en día, sin embargo, la historia de los centros de datos gira en torno a las unidades de procesamiento gráfico (GPU), y las de nVidia se han convertido en las favoritas para las aplicaciones de IA. Tanto que las ventas de GPU crecen a un ritmo mucho mayor que el de los chips de CPU para servidores.

Procesadores propios

Todo esto está conllevando que los grandes hiperescalares (los grandes proveedores de nube, capaz de ofrecer servicios como informática o almacenamiento a gran escala) están empezando a desarrollar sus propios procesadores para sus cargas de trabajo.

Microsoft anunciaba recientemente dos chips diseñados a medida: el acelerador de IA Microsoft Azure Maia y la CPU Microsoft Azure Cobalt, un procesador basado en Arm diseñado para ejecutar cargas de trabajo de computación de propósito general en la nube de Microsoft. Los chips comenzarán a desplegarse a principios del próximo año en los centros de datos de Microsoft, alimentando inicialmente servicios de la compañía como Microsoft Copilot o Azure OpenAI Service.

Fuentes de Microsoft aseguran a La Razón que, además de apoyarse en partners «clave en la industria» (como AMD, Intel o nVidia), «desarrollamos nuestros propios procesadores, atendiendo a las particularidades de nuestra infraestructura», «optimizando cada capa del conjunto de hardware y software para maximizar el rendimiento y la eficiencia». El objetivo de esta estrategia es, según estas mismas fuentes, «maximizar el rendimiento, diversificar el riesgo de la cadena de suministro y brindar a los clientes multitud de opciones de infraestructura que den respuesta a sus necesidades. Al trabajar de esta manera, buscamos ofrecer las funcionalidades de la IA y de la nube a nuestros clientes en las mejores condiciones posibles».

«Con las últimas generaciones de procesadores, construidos con aceleración de IA en cada núcleo, conseguimos dar un salto significativo en rendimiento y eficiencia para las cargas de trabajo críticas de IA, redes, seguridad, almacenamiento y computación de alto rendimiento en el centro de datos y en la nube».

Mientras, en Google defienden que «las formas tradicionales de diseñar y construir infraestructuras informáticas ya no son adecuadas para las demandas exponencialmente crecientes de cargas de trabajo como la IA generativa y los LLM». Por eso, recientemente anunciaban dos novedades: Cloud TPU v5p, el acelerador de IA «más potente, escalable y flexible hasta la fecha» que habían desarrollado, así como AI Hypercomputer de Google Cloud, una arquitectura de superordenador que emplea un sistema integrado de hardware de rendimiento optimizado, software abierto, marcos de ML y modelos de consumo flexibles. Google defiende el uso de TPU frente a GPU. La primera es un circuito integrado (ASIC) específico de una aplicación diseñado por Google para las redes neuronales y cuentan con características especializadas, como la multiplicación de la matriz (MXU) y la topología de interconexión propia, lo que las convierte en ideales para agilizar el entrenamiento y la inferencia de la IA. Estas TPU han sido durante mucho tiempo la base para el entrenamiento y el servicio de productos basados en IA como YouTube, Gmail, Google Maps, Google Play y Android.

AWS y nVidia

El tercer proveedor cloud en discordia, AWS, también tienen en nVidia uno de sus principales aliados. De hecho, durante la celebración de re:Invent en Las Vegas a finales de noviembre, los responsables de AWS se vanagloriaban de haber sido los primeros en percatarse de la potencia de nVidia para estos menesteres.

«Llevamos más de 13 años colaborando con nVidia para llevar la GPU a la nube, creando instancias de cálculo que importan una amplia gama de casos de uso, incluidos los gráficos y los juegos, el aprendizaje automático de HPC y, ahora, por supuesto, las cargas de trabajo de IA generativa», aseguraba el máximo responsable de AWS, Adam Selipsky.

Según su visión, gracias a esta alianza con nVidia «estamos entrenando cuatro veces más rápido y un 40% menos caro que el resto». Ahora bien, «tener los mejores chips es estupendo y necesario, pero para alcanzar el siguiente nivel de rendimiento no basta con tener a los mejores, también se necesitan clústeres de servidores de alto rendimiento que ejecuten nuestras GPU».

Jen-Hsun Huang, fundador y director ejecutivo de NVIDIA, hablaba en este mismo escenario de la alianza que tienen con AWS («fueron los primeros en darse cuenta de la importancia de las tarjetas para la IA») y hablaba de un proyecto por el que van a conectar 16.384 GPU a un superordenador gigante de IA con lo que se espera «reducir el tiempo de entrenamiento de los modelos de lenguaje más grande de la próxima generación a la mitad del tiempo», con la consiguiente reducción del coste.

Intel se reivindica

En esta carrera por la IA, Intel se reivindica también a sí misma, asegurando que sus procesadores intervienen en muchas de las fases previas del entrenamiento de la IA y con una eficiencia energética mejor.

Además, cree que vamos a un mundo heterogéneo en el que convivirán varias arquitecturas (como x86, que lidera). «La estrategia de Intel de fabricar para terceros es una respuesta a este mundo al que nos movemos», asegura Norberto Mateos, director general de Intel en España.

«El mercado va a tener diferentes arquitecturas y cada una de ellas su aplicación. Tenemos que intentar ofrecer una propuesta de valor que sea suficientemente interesante para los para nuestros usuarios».