
Inteligencia Artificial
China ha descubierto el gran secreto que escondía EE.UU. para entrenar las mejores IAs del mercado
La empresa china DeepSeek ha liberado R1, un modelo capaz de igualar al sucesor de GPT-4o por casi 30 veces menos coste para el usuario
Hace unos años era más sencillo hablar sobre la inteligencia artificial. Por rápido que avanzara, los actores eran menos, con conocer un puñado de siglas podíamos escribir e interpretar titulares relativamente precisos. Ahora, el frenético ritmo al que se suceden los acontecimientos hace imposible tal cosa. Porque ni China ni EE.UU. como tal tienen todavía una gran apuesta gubernamental para el desarrollo de la IA, pero es un titular que transmite mejor la situación de estos días que su versión totalmente rigurosa: “DeepSeek ha descubierto la clave tras los potentísimos modelos razonadores de Open AI y comparte el secreto en código abierto con su modelo razonador R1, equiparable al o3 de la empresa americana”. Si lo has entendido, quédate, porque todavía hay detalles en el tintero y, si no lo has entendido, quédate también, porque podemos razonarlo juntos paso a paso.
Con ChatGPT los modelos de lenguaje comenzaron a popularizarse entre el público general y pronto nos dimos cuenta de que el truco para obtener las mejores respuestas posibles era hacer las mejores preguntas posibles. Fue entonces cuando la mayoría de nosotros conoció la ingeniería de prompts, que buscaba cómo exponer nuestras necesidades de manera que optimizáramos la respuesta de la IA. Por ejemplo: sugerirle un rol como podía ser el de periodista si buscábamos que nos sugiriera titulares o, quizás, solicitarle que razonara paso a paso antes de darnos una respuesta. Y, precisamente, este último consejo ha sido clave para el desarrollo de modelos razonadores, el último gran salto en los modelos de lenguaje, capaces de superar con creces los resultados de GPT-4o, el GPT más puntero del mercado.
IAs que “razonan”
Open AI, la empresa que hay tras ChatGPT y GPT-4o, presentó en septiembre de 2024 su primer modelo de lenguaje razonador: o1 preview. Desde entonces han podido mejorarlo, por lo que ahora mismo cuentan con o1 pro y, según ha revelado la propia empresa, están cerca de presentar o3. Estos modelos razonadores dedican un tiempo extra a “razonar” (valga la redundancia) los pasos que separan nuestra consulta de su respuesta, pero hasta ahora no sabíamos exactamente cómo lo habían implementado en Open AI para alcanzar los resultados tan sorprendentes que ofrecía o1. La empresa estadounidense se había desmarcado de la competencia con este producto y no le interesaba publicar el truco del éxito para que la competencia acortara su ventaja.
Ahora bien, DeepSeek ha hincado los codos y no solo ha descubierto cómo funciona o1, sino que ha hecho su propio modelo razonador (R1) y lo ha publicado para que todo el mundo conozca el truco. Así pues, ha compartido un artículo científico donde detalla el funcionamiento de esta nueva tecnología y, por si fuera poco, ha liberado el código para que cualquiera pueda descargárselo y utilizarlo gratuitamente en su ordenador (siempre que tenga un ordenador capaz de correrlo, cosa altamente improbable). Simplificándolo casi hasta lo insultante, podríamos decir que la clave está en el aprendizaje por refuerzo, que permite a R1 entrenarse a sí mismo para desarrollar las cadenas de razonamiento más eficientes posibles. Así es como, poco a poco, la IA razonadora de DeepSeek ha ido alargando sus cadenas antes de emitir una respuesta y ha llegado a etiquetar en palabras momentos clave del razonamiento como “aha moments” o lo que aquí conocemos como “momentos eureka”. Y es que, comparado con o1, DeepSeek R1 es casi 30 veces más barato.
Presión en el mercado
No es la primera vez que una empresa libera modelos de IA ejerciendo presión sobre las grandes compañías. De hecho, DeepSeek publicó su V3 hace apenas dos meses, el modelo equivalente a GPT-4º. La diferencia, en este caso, está en que han hecho público uno de los secretos mejor guardados del sector. ¿Y qué puede significar eso para Open AI? Desde luego, el golpe se ha hecho notar, pero no ha sido una estocada mortal.
Que una empresa pequeña como DeepSeek logre resultados equiparables a los de una empresa con inversiones multimillonarias no significa que esas inversiones sean innecesarias. La clave para seguir mejorando los modelos pasa por tener una gran capacidad de procesamiento. O, dicho de otro modo: ordenadores muy potentes como los que posee Open AI gracias a esas inversiones. La competencia en el presente es feroz, pero esto es una carrera a largo plazo.
QUE NO TE LA CUELEN:
- A pesar de algunas afirmaciones vertidas en las redes sociales, DeepSeek R1, por el momento, no parece mucho más “censurada” que sus homólogos estadounidenses. Este tipo de modelos de lenguaje suelen limitar la forma y el contenido de sus respuestas para evitar determinadas cuestiones polémicas, especialmente relacionadas con política, religión o la salud mental. DeepSeek R1 parece limitarse algo más a la hora de abordar cuestiones políticas directamente relacionadas con el gobierno chino. Por ejemplo: el presidente Xi Jinping o la represión en la Plaza de Tiananmen suelen derivar en respuestas evasivas, como "Lo siento, eso está más allá de mi alcance actual. Vamos a hablar de otra cosa". Por lo tanto, existe una diferencia, pero no es tan grande como podríamos creer.
REFERENCIAS (MLA):
- DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning." arXiv, 22 Jan. 2025, arxiv.org/abs/2501.12948.
✕
Accede a tu cuenta para comentar