Inteligencia artificial
OpenAI lanza GPT-4o, un modelo “mucho más rápido” que GPT-4, para todos los usuarios de ChatGPT
El nuevo GPT-4o es multimodal de forma nativa y puede entender y generar texto, audio e imágenes
OpenAI ha anunciado una nueva iteración de su modelo de lenguaje GPT-4 en un corto evento retransmitido en streaming esta tarde. GPT-4o, así se llama esta versión, es “mucho más rápido” que aquel y es multimodal de forma nativa. Es decir, puede entender y generar texto, imágenes y audio, según ha explicado la CTO de OpenAI, Mira Muratyi, algo de lo que se han visto varios ejemplos durante la presentación.
Sorprendentemente, el nuevo modelo de lenguaje no quedará reservado para los usuarios de la versión de pago, sino que llega a todos los de ChatGPT, también de la versión gratuita. De lo que sí podrán disfrutar los de ChatGPT Plus es de “hasta cinco veces los límites de capacidad” de los que disponen los de ChatGPT y mantendrán la exclusiva sobre las capacidades de voz del nuevo modelo. Mientras que el modo actual de voz trabaja solo con lo que puede escuchar, GPT-4o puede observar lo que hay alrededor a través de la cámara y hablar sobre ello; y sus respuestas serán más ágiles también. En este caso, la latencia se ha reducido de los 5,4 segundos de GPT-4 y 2,8 de GPT 3.5 a 320 milisegundos, similar al tiempo de respuesta en una conversación entre humanos.
OpenAI ha mostrado algunas de las capacidades del nuevo modelo con las conversaciones habladas que, inevitablemente, recuerda al asistente IA de la película Her protagonizada por Joaquin Phoenix. El de OpenAI parece dialogar de forma natural, interpretar las emociones del usuario y adaptar su estilo a lo que le piden, además de incorporar efectos de sonido como risas a la conversación.
La compañía ha señalado, en una publicación en su blog, que las capacidades de GPT-4o "se implementarán de manera iterativa (con acceso extendido al equipo rojo a partir de hoy)", pero sus capacidades de texto e imagen comienzan a llegar hoy a ChatGPT.
La nueva versión de ChatGPT reduce la latencia, lo que permitirá respuestas más rápidas y está optimizada para más de 50 idiomas. Según ha indicado Sam Altman, CEO de OpenAI, en X, los desarrolladores tendrán acceso a su API para sus propias implementaciones y podrán hacerlo a mitad de precio que con GPT-4 Turbo, la, ahora, penúltima versión del modelo de lenguaje que está disponible para los usuarios de ChatGPT Plus; en el ChatGPT gratuito se usa GPT 3.5. Altman también ha señalado que GPT-4o "es nuestro mejor modelo hasta la fecha".
in the API, GPT-4o is half the price AND twice as fast as GPT-4-turbo. and 5x rate limits. pic.twitter.com/vqV8XwNcYp
— Sam Altman (@sama) May 13, 2024
El anuncio de OpenAI había despertado muchas conjeturas en los últimos días, tantas que Altman tuvo que salir al paso y asegurar que no se trataría ni de GPT-5 ni de un buscador con IA.
Una nueva iteración de GPT-4 no es lo que muchos esperaban, pero el movimiento de llevarlo a todos sus usuarios sí es una novedad en cuanto al modelo de negocio de ChatGPT. Muratyi también ha avanzado el lanzamiento de una app para escritorio de ChatGPT, por el momento para Mac, y una actualización de la interfaz de usuario de la versión web de ChatGPT.
✕
Accede a tu cuenta para comentar