Inteligencia artificial

Nvidia presenta un nuevo 'superchip' para IA con hasta 40 petaFLOPS de potencia

La cuarta compañía más valiosa del mundo es el principal fabricante de los procesadores que ejecutan los modelos de inteligencia artificial

Nvidia no es un nombre que resulte muy familiar al consumidor promedio, pero lleva camino de convertirse en uno tan importante como el de Apple o Google. De hecho, recientemente superó en capitalización bursátil a Google y Amazon y se convirtió en la cuarta empresa más valiosa del mundo por detrás de Microsoft, Apple y Saudi Aramco. ¿Y qué fabrica Nvidia para haber experimentado este rápido ascenso en los últimos meses? Los procesadores necesarios para ejecutar los modelos de inteligencia artificial y de los que ayer presentó un nuevo modelo que mejora con mucho las prestaciones de los exitosos H100.

La compañía estadounidense ha anunciado en su conferencia anual de desarrolladores la GPU B200 y el superchip GB200, ambos basados en la nueva arquitectura Blackwell y que ofrecen importantes mejoras en rendimiento y consumo frente a las GPU H100 que compañías como Meta, Microsoft, Google y X han comprado por cientos de miles para usar con sus modelos de inteligencia artificial.

La medida del salto generacional la dan el número de transistores que Nvidia ha logrado integrar en cada procesador. Los 80.000 millones de la H100, lanzada en 2022, suben hasta 208.000 millones de transistores en B200. Y con ellos la potencia de cálculo en operaciones FP4 alcanza los 18 petaFLOPS si la GPU está refrigerada por aire y 20 si la refrigeración es líquida.

La GPU tiene un ancho de banda de 8 TB/s y Nvidia ofrece configuraciones con hasta 192 GB de memoria VRAM. Pero tan importante para las grandes empresas que compran este tipo de tecnología es la potencia como el consumo, que Nvidia ha reducido en hasta 25 veces en comparación con el H100, lo que supone un importante ahorro en los centros de datos que las emplean.

Por otro lado, el 'superchip' GB 200 anunciado por Jensen Huang, CEO de Nvidia, integra dos GPU B200 con una CPU Grace de 72 núcleos. Esta combinación permite alcanzar un rendimiento máximo de 40 petaFLOPS en operaciones FP4 y admite hasta 384 GB de memoria HBM3.

¿Qué suponen estos números en la práctica? Para entrenar un modelo de 1,8 billones de parámetros se habrían necesitado anteriormente 8.000 GPU H100 y 15 megavatios de potencia. Huang ha asegurado que puede hacerse con 2.000 GPU B200 y consumiendo sólo cuatro megavatios.

La nueva arquitectura Blackwell que emplean las B200 y GB200 no se quedará solo en los chips para inteligencia artificial, sino que también será trasladada a la próxima generación de tarjetas gráficas para el consumidor final.

Nvidia ha sido una compañía líder en este campo, cuyos principales compradores son los aficionados a los videojuegos, durante tres décadas. Pero este éxito se queda corto frente al crecimiento que está experimentado la compañía gracias a producir el hardware necesario para la inteligencia artificial. En enero de 2023, sus acciones estaban a 176 dólares. Poco más de un año después, a 857 dólares y sin visos de que haya encontrado su techo.