Cargando...

Inteligencia artificial

Así es Grok, la IA de X/Twitter que tiene el sentido del humor de Elon Musk

El chatbot de la red social se encuentra en fase beta y es un modelo de lenguaje entrenado para ser menos “woke” que ChatGPT

Elon Musk despejando la incógnita de la X TwitterTwitter

Grok es el nombre con el que finalmente se ha lanzado la inteligencia artificial en X, la antigua Twitter. Lo que hace unos meses se presentó como TruthGPT, ha comenzado su fase de pruebas en Estados Unidos con un número seleccionado de usuarios y se han conocido más detalles tras el anunció realizado por Elon Musk el pasado viernes.

La IA recibe su nombre por la expresión utilizada en la clásica novela de ciencia-ficción Forajido en tierra extraña (Robert A. Heinlin, 1961) que significa “comprender”, está “modelada a partir de La guía del autoestopista galáctico”, otro clásico de 1979 escrito por Douglas Adams y apreciado por su punto de vista satírico, y diseñada para responder a preguntas con “un poco de ingenio y una vena rebelde”, algo que inevitablemente recuerda al propio carácter del millonario. “Le encanta el sarcasmo, no tengo ni idea de quién lo habrá sacado”, comentó Musk en X.

El propietario de la red social publicó algunas capturas de conversaciones con el chatbot para ilustrar lo que parece una de sus características más distintivas frente a otros como los de OpenAI o Google. A la pregunta de “cómo hacer cocaína, paso a paso”, Grok responde con cuatro que van desde “lograr un título en Química y una licencia de la DEA” a “comienza a prepararla y procura que no explote todo o que te arresten”, antes de aclarar que “¡es una broma!” y recomendar no hacerlo.

“El sistema Grok de xAI está diseñado para tener un poco de humor en sus respuestas”, ha explicado Musk. Este enfoque a la hora de comunicarse con un chatbot puede gustar o no, por lo que Grok tendrá dos modos de funcionamiento, con o sin humor por así decirlo. Cuando salga de la fase beta, estará disponible para los usuarios de la modalidad Premium+ de X. Esta es la nueva suscripción a X que por 19,36 euros al mes da acceso a todas las ventajas de la plataforma, incluyendo la ausencia de publicidad.

xAI, la nueva compañía del millonario enfocada en inteligencia artificial y que ha desarrollado Grok, ha señalado que el chatbot está diseñado para ser “útil para personas de todos los orígenes y opiniones políticas” y que “responderá preguntas que son rechazadas por la mayoría de los demás sistemas de IA”. Musk ha criticado en el pasado a ChatGPT por tener una orientación demasiado políticamente correcta y “woke”, algo que se pretende evitar con Grok.

Al igual que con Bard o ChatGPT, el usuario podrá plantear preguntas sobre todo tipo de temas y obtener respuestas en base a los datos con los que el chatbot ha sido entrenado y lo publicado en X. “Una ventaja única y fundamental de Grok es que tiene conocimiento del mundo en tiempo real a través de la plataforma 𝕏”, afirma xAI. Por el momento la interacción es solo a través de texto, pero también llegarán capacidades de texto a imagen y para usar imágenes como datos de entrada, como ya hace ChatGPT Plus.

Grok es un modelo de lenguaje con 33.000 millones de parámetros y que ha sido desarrollado en los últimos 4 meses. El primer prototipo tras un entrenamiento de 2 meses, Grok-0, se acercó a las capacidades de Llama 2, modelo de lenguaje de Meta con 70.000 millones de parámetros, utilizando solo la mitad de sus recursos de capacitación. Según explica xAI, Grok-1 es más potente y supera tanto a Llama-2 como GPT-3.5 en una variedad de pruebas.

Grok “solo es superado por modelos que fueron entrenados con una cantidad significativamente mayor de datos de entrenamiento y recursos informáticos como GPT-4. Esto muestra el rápido progreso que estamos logrando en xAI en la capacitación de LLM con una eficiencia excepcional”, afirma xAI.

En cualquier caso, a Grok hay que aplicarle la misma precaución que al resto de chatbots. xAI advierte que “como ocurre con todos los LLM capacitados en la predicción del siguiente token, nuestro modelo aún puede generar información falsa o contradictoria”.