Entrevista

"Los hiperescalares desarrollan sus propios chips para anclar a los clientes a su nube"

Norberto Mateos, director general de Intel, explica en esta entrevista el papel de su compañía en el procesamiento de datos para desarrollar la Inteligencia Artificial

Norberto Mateos, Intel
Norberto Mateos, IntelIntel

Nvidia se ha situado como el gran fabricante de procesadores para inteligencia artificial. ¿Cómo se posiciona Intel?

La inteligencia artificial es una carga de trabajo que intercepta prácticamente todas las aplicaciones empresariales, lo cual es un paso más dentro de una evolución del uso Business Analytics o del Business Intelligence. Es importante poner eso en perspectiva desde el punto de vista de la infraestructura para inteligencia artificial. Nosotros llevamos, dentro de la familia de procesadores Xeon para servidores, muchos años desarrollando áreas específicas, que llamamos aceleradores de inteligencia artificial, que crean, dentro de la CPU, áreas específicas que son multiplicadores de matrices, que aceleran las cargas de trabajo con la arquitectura x86. Somos bastante competitivos desde el punto de vista de entrenamiento e inferencia de redes neuronales, cuando los modelos son de un determinado tamaño y cuando el tiempo la latencia para la ejecución de los de los entornos es menos crítico.

Estamos trabajando con un cliente un LLM (Language Learning Model) para realizar un bot de asistencia técnica dentro de una empresa. Con Nvidia, esa empresa estaba obteniendo un resultado de 20 segundos y con Xeon es de 30 segundos. No es crítico porque es un chat que te da una resolución a una incidencia de IT, pero la respuesta de Intel es cinco veces más barato que nuestra competencia. Con Xeon somos capaces de ofrecer en determinados modelos, tanto para entrenamiento como para inferencia, una respuesta adecuada en este tipo de tamaño de redes neuronales.

En las grandes redes neuronales, que obtienen ahora mismo toda la visibilidad, hay muy pocos modelos generales y hemos desarrollado un chip específico, Gaudi, que está diseñado desde cero para entrenar o hacer inferencia de redes neuronales. Este chip es competitivo y comparable con Nvidia en cualquier en su en sus productos, siendo somos enormemente más eficientes desde el punto de vista de consumo energético. Gaudi está en el mercado y en determinados hiper escalares.

Precisamente los hiper escalares están personalizando sus propios chips para la ejecución de inteligencia artificial. ¿A qué se debe este movimiento? ¿Cuál es el papel de Intel?

Una de las razones fundamentales que está llevando a estos hiperescalares a desarrollar sus propios chips es la diferenciación, que ha sido uno de los mayores valores cuando una empresa optaba por moverse a la nube. Estas empresas no están particularmente satisfechas con la posibilidad de un cliente moviéndose de una a otra nube. Buscan que se queden anclados a su propuesta, con lo cual, para diferenciarse, están dando servicios y lo están haciendo sobre su propio chip, con el objetivo de que no te puedas llevar esa carga de trabajo a otro proveedor. Una parte importante de los esfuerzos de estas empresas en tener sus propios chips es diferenciarse respecto de la competencia con la arquitectura x86.

Otra de las razones es porque están yendo hacia una estrategia de verticalización de todas sus soluciones. La ventaja principal de x86 es la compatibilidad de todas las aplicaciones. Cuando tú tienes un servicio lo puedes aplicar en cualquier x86. De nuevo, lo que buscan es diferenciación, para que si se desarrolla algo sobre su servicio, no sea movible al de la competencia.

Desarrollar un chip tiene un coste, un tiempo, un impacto. Si tú eres el dueño absoluto de la solución, puedes optimizarlo. El problema es cuál es la compatibilidad respecto del resto de aplicaciones.

Creo que estos chips de los diferentes hiper escalares tendrán una aplicación determinada en determinados servicios o entornos. La tasa de éxito está por ver. La promesa de x86, de compatibilidad, de movilidad, de seguridad, de apertura, etcétera les dará siempre otra propuesta de valor.

¿Intel cree que se acabarán imponiendo estos entornos heterogéneos?

Venimos de un entorno donde todo era x86 y vamos a un entorno donde diferentes cosas van a convivir. También la estrategia de Intel de fabricar para terceros es una respuesta a este mundo al que nos movemos. Va a haber arquitecturas diferentes que van a tener uso, aplicación y sentido en determinadas cargas de trabajo y a lo mejor no son x86. Negarlo es negar la realidad del mercado. Tenemos que ser suficientemente claros y estratégicamente dirigirnos hacia los entornos que tienen sentido. ¿El mercado va a ser 100% x86 en el futuro? No, el mercado va a tener diferentes arquitecturas como existen FPGA, como existe, existirá ARM o u otras, y cada una de ellas puede tener su aplicación. Tenemos que intentar ofrecer una propuesta de valor que sea suficientemente interesante para los para nuestros usuarios.

¿No es descartable entonces que Intel acabe fabricando alguno de estos procesadores propios?

Hemos sido muy claros respecto del interés de fabricar cualquier chip que no sea Intel. Eso a la vez va a dar una transparencia y una tranquilidad a cualquier otro fabricante de que compite en igualdad de condiciones con Intel.

¿Está Intel fabricando ya esos procesadores de IA para para terceros?

Nosotros tenemos un modelo de fabricación ahora mismo muy pequeña para terceros. En el último trimestre fiscal fueron 200 millones de facturación y nuestro objetivo es alcanzar los 20 millones. Tenemos mucho que crecer. Nuestro punto de nuestro punto de inflexión es la tecnología 18. Ahí es donde vamos. Creemos que vamos a tener liderazgo en la tecnología, en el nodo de fabricación. Hemos firmado tres empresas, una de las cuales es pública (Ericsson), cuyos chips de 5G van a estar fabricados en 18.

¿Qué posición tiene ahora Intel y qué posición aspira a tener en el futuro?

La mayor parte del ciclo de un desarrollo de un modelo de inteligencia artificial es previo al entrenamiento y previo a la inferencia. Consiste en preparar los datos, limpiar los datos, hacer los tagging de los datos, preparar los modelos, desarrollar los modelos y cuando ya tienes datos y modelos preparados, entras en entrenamiento y luego entras en inferencia y hay una cierta proceso de mejora y fin, tuning y demás. Una parte muy importante de todo eso se hace sobre Intel. Un porcentaje relevante de nuestras ventas de Xeon se utilizan a día de hoy para cargas de trabajo relacionadas con inteligencia artificial.

En el training es donde tenemos mucho que ganar, donde estamos más atrás y donde estamos. Creemos que Gaudí es una propuesta enormemente válida y algunos clientes ya lo están optando y tenemos algunos casos de éxito interesantes. Y en la inferencia yo te diría que la mayor parte de la inferencia ocurre sobre Intel. Aunque el hype son los modelos generalistas de chat, GPT y compañía que se están llevando todas las noticias, son muy pocos. Cada vez hay más open, cada vez hay más modelos medianos que pueden correr perfectamente donde sean. Es perfectamente válido y ahí es donde vamos a ganar cada vez más con Gaudi y las nuevas arquitecturas.