
Informática
El microchip de Nvidia rompe las leyes de Moore
De acuerdo con el director de la compañía, el rendimiento de su IA avanza más rápido que la conocida ley del avance informático.

En 1965, uno de los fundadores de Intel postuló una ley que, desde entonces, se ha confirmado de forma empírica: cada 18 meses el número de transistores en un microchip se duplica. Hasta ahora esta era una guía en lo que respecta al avance tecnológico. Pero la llegada de la inteligencia artificial tenía todas las bazas para modificar esto. Y, de acuerdo con Jensen Huang, el CEO de Nvidia, esto ya ha ocurrido.
En una reciente presentación en el marco del CES 2025, Huang ha afirmado que el rendimiento de los chips de IA de su compañía está avanzando más rápido que las tasas históricas establecidas por la Ley de Moore.
Huang afirma que los chips de IA de Nvidia se están moviendo a un ritmo acelerado propio; la compañía dice que su último superchip para centros de datos es más de 30 veces más rápido para ejecutar cargas de trabajo de inferencia de IA que su generación anterior.
A esto hay que sumarle que Huang rechaza la idea de que el progreso de la IA se esté desacelerando. En cambio, afirma que ahora hay tres leyes de escalamiento de la IA activas: preentrenamiento, la fase de entrenamiento inicial donde los modelos de IA aprenden patrones a partir de grandes cantidades de datos; postentrenamiento, que afina las respuestas de un modelo de IA utilizando métodos como la retroalimentación humana; y computación en tiempo de prueba, que ocurre durante la fase de inferencia y le da al modelo de IA más tiempo para "pensar" después de cada pregunta.
“Podemos construir la arquitectura, el chip, el sistema, las bibliotecas y los algoritmos, todo al mismo tiempo - añade Huang -. Si haces eso, puedes avanzar más rápido que la Ley de Moore, porque puedes innovar en todo el conjunto”.
La audaz afirmación del CEO de Nvidia llega en un momento en el que muchos se preguntan si el progreso de la IA se ha estancado. Los principales laboratorios de IA, como Google, OpenAI y Anthropic, utilizan los chips de IA de Nvidia para entrenar y ejecutar sus modelos de IA, y los avances en estos chips probablemente se traducirían en un mayor progreso en las capacidades de los modelos de IA.
Las declaraciones de Huang llegan junto a la presentación de su nueva supercomputadora tamaño mini y con IA incorporada, un avance enorme… o una muy inteligente estrategia de marketing.
El último superchip para centros de datos de Nvidia, el GB200 NVL72 es entre 30 y 40 veces más rápido en la ejecución de cargas de trabajo de inferencia de IA que el chip más vendido de Nvidia hasta ahora, el H100. A este avance en la potencia, hay que sumarle que también han caído los precios de los modelos de IA y esta es una tendencia que continuará según los expertos.
En términos más generales, Huang afirmó que sus chips de IA actuales son 1000 veces mejores que los que fabricaba hace 10 años. Ese es un ritmo mucho más rápido que el estándar establecido por la ley de Moore, un ritmo que, según Huang, no se detendrá en el futuro próximo.
✕
Accede a tu cuenta para comentar