
Evento
Google I/O 2025 en directo: todas las novedades de IA anunciadas hoy
Sigue con nosotros en directo todos los anuncios de Google en su I/O 2025, el evento para desarrolladores más importante del año

Como cada mes de mayo, Google vuelve a celebrar su evento para desarrolladores más importante del año. Hoy, martes 20 de mayo, el Google I/O 2025 abre sus puertas con la Google Keynote, una conferencia liderada por Sundar Pichai, CEO de Alphabet (compañía matriz de Google), donde se anunciarán las principales novedades que están destinadas a aterrizar en las plataformas más importantes de la compañía estadounidense: Android, Search, Gemini, Maps, Fotos y mucho más.
La Inteligencia Artificial, por supuesto, volverá a ser la gran protagonista un año más. Tanto, que Google incluso decidió celebrar un evento aparte hace ya una semana, en el que aprovechó para quitarse de enmedio el grueso de los cambios que le esperan a su sistema operativo principal con la llegada de Android 16.
Ahora, vamos a descubrir qué otras novedades, revolucionarias o no, nos tiene preparada la compañía con sede en Mountain View.
Muestran ahora una impresionante demostración de Google Maps en Android XR, que permitirá teletransportarse a cualquier lugar del mundo de manera virtual.
Llega uno de los momentos más esperados, el de Android XR. El sistema operativo de Google centrado en cascos y gafas inteligentes llegará este mismo año de la mano del Proyecto Moohan de Google, así como otras gafas de varias firmas.
Android XR recibirá aplicaciones de Google y otros desarrolladores, además de contar con Gemini integrado desde el día 1.

Muestran ahora las capacidades del editor de Flow, el generador de vídeos cinemático que estará disponible próximamente.

Hablan ahora de los avances llevados a cabo en SynthID, la "marca de agua invisible" para aquellos contenidos creados con IA. La compañía ha creado un "detector" que permite a cualquier usuario subir cualquier tipo de archivo y comprobar si cuenta con esta marca de agua.
Y eso no es todo. Google también ha anunciado un nuevo plan de suscripción de Google One, llamado AI Ultra. Cuesta 249,99 dólares al mes, y esto es todo lo que incluye:
30 TB de almacenamiento para Gmail, Google Drive y Google Fotos
La mejor versión de la app Gemini, la cual incluye límites de uso más altos en investigación profunda, generación de video avanzada con Veo 2 y acceso anticipado al nuevo modelo Veo 3. Asimismo, dentro de unas semanas, los usuarios de este nuevo plan también tendrán acceso a Deep Think en 2.5 Pro, el nuevo modo mejorado de razonamiento de Google
La integración de Gemini en Gmail, Google Docs y Google Chrome
Acceso a los límites más altos de uso y a las capacidades mejoradas de NotebookLM
Acceso a "Proyect Mariner", una nueva tecnología de investigación basada en los agentes de IA que permite que estos realicen hasta 10 tareas de manera simultánea como, por ejemplo, buscar información, comprar cosas y hacer reservas al mismo tiempo
Acceso a Flow, una nueva herramienta de creación cinematográfica con IA que te permitirá "crear clips, escenas y narrativas cinematográficas con indicaciones intuitivas", generar videos en 1080p, disfrutar de unos controles avanzados de cámara y disfrutar anticipadamente de Veo3
Acceso a Whisk Animate, una funcionalidad de IA que "convierte tus imágenes en vívidos videos de ocho segundos" gracias a la generación de vídeo avanzada de Veo 2
Una suscripción individual a YouTube Premium para que puedas disfrutar de tus vídeos favoritos sin anuncios, con la pantalla apagada y en cualquier lugar
Seguimos hablando de vídeo, ya que Google presenta Flow, una nueva herramienta de generación de vídeo de nivel profesional, que se basa en los últimos modelos creativos de la compañía.
Una apreciación personal: en el pasado, Google ha sido criticada por anunciar novedades que tardan demasiado tiempo en llegar a los consumidores. Este año, sin embargo, sacan pecho de que muchas de las novedades presentadas están disponibles desde hoy. Un avance en el buen camino, sin duda.
En el apartado del vídeo, Veo 3 llega con una mayor calidad de imagen, además de ser diez veces más rápido que el modelo anterior. Y, por si eso no fuera suficiente, ahora es capaz de generar audio junto al vídeo, incluyendo efectos de sonido, diálogos y más.
En el caso de Imagen 4, llama la atención la capacidad del modelo a la hora de integrar texto en el interior de las imágenes de manera legible, coherente y precisa.

Y como no podía ser de otro modo, los últimos modelos de Google llegan a la app de Google: Imagen 4 para generar imágenes, y Veo 3 para generar vídeo.
En total, hay 5 novedades para la app de Gemini:
👉 Ya es posible compartir el contenido de la pantalla y de la cámara en iOS y Android en Gemini Live
👉 Conexión de Gemini Live con servicios de Google como Maps, Calendar o Keep
👉 Deep Research permitirá subir archivos propios
👉 Canvas, el espacio colaborativo de Gemini, ahora permite generar código, documentos y más
👉 Google Gemini se integra en el navegador Google Chrome
Para conseguir crear un asistente más personal, la empresa anuncia la llegada de "Personal Context", una función que tendrá en cuenta anteriores peticiones o los datos compartidos con otros servicios de Google, de modo que el asistente podrá generar respuestas mejor adaptadas.
En el apartado de la proactividad, Google quiere conseguir que Gemini sea capaz de mostrar al usuario notificaciones y recordatorios sobre temas relevantes. Por ejemplo, "tests" de una asignatura antes de un examen.
En cuanto a la parte de potencia, Google demuestra las capacidades del asistente gracias a la llegada de los últimos modelos de IA de la empresa.
Le toca el turno a las novedades de la app de Gemini, que Google quiere transformar en el asistente más personal, proactivo y potente.
Gracias al "agente de IA" integrado en Search, en caso de que un producto de la lista de seguimiento baje de precio, el usuario recibirá una notificación que permitirá comprarlo teniendo en cuenta la talla y las preferencias del usuario.

La experiencia de compra de productos en Google Search también está a punto de evolucionar gracias a AI Mode.
Permitirá llevar a cabo consultas concretas a Search sobre cualquier tipo de producto, y Search ofrecerá respuestas personalizadas. Incluso se añadirá un "probador virtual" de ropa, que tiene en cuenta tanto el tipo de cuerpo del usuario y sus dimensiones, como el tejido de la prenda en cuestión, y mucho más.

Siguen hablando de AI Mode. Cuentan que, próximamente, Project Astra estará en AI Mode, permitiendo usar la cámara de los dispositivos para realizar búsquedas en vivo.
"Es como estar en una videollamada con Google Search", explican.
Entre el aluvión de anuncios del Google I/O 2025, tenemos una sorpresa: Google ha liberado Androiud 16 QPR1 Beta 1, la versión que introduce el rediseño Material 3 Expressive.
Ya se puede descargar en los dispositivos Pixel compatibles.

Otra novedad es Deep Search. Llegará este verano, y permitirá llevar a cabo búsquedas mucho más profundas sobre temas específicos.
Google está convencida de que el futuro de los resultados de búsqueda es dinámico. Con AI Mode, cada consulta genera una página de resultados completamente diferente, con una interfaz que se adapta para ofrecer justo lo que el usuario necesita en cada momento.
Por supuesto, los resultados serán más "personales", ya que se tendrá en cuenta el contexto del usuario obtenido a través del resto de servicios de Google.
AI Mode llegará a lo largo de este próximo verano a más usuarios.

Pasando a hablar de Google Search, se ha integrado una nueva pestaña de AI Mode en el buscador, que permite obtener respuestas generadas por IA más "profundas".
Pero antes de entrar en las novedades centradas en la búsqueda, repasemos los anuncios llevados a cabo hasta ahora:
- Project Astra se vuelve real: la IA más avanzada de Google se integra en Gemini
- Google Gemini mejora: las novedades anunciadas en el I/O 2025
- Google lanza Beam, su servicio de videollamadas en 3D
- Google anuncia Flow, su nueva herramienta de IA para generar vídeo de nivel profesional
- Google revela más detalles sobre Android XR: nuevas gafas, Gemini integrado, subtítulos del "mundo real" y más
Vuelve Sundar Pichai al escenario para pasar a la siguiente sección: Google Search.
Toca ponerse emotivos. Google muestra un vídeo sobre Project Astra, y cómo los avances han permitido al artista estadounidense con ceguera Dorsey a mejorar su día a día durante las giras.
Muestran ahora un vídeo de Project Astra en Google Gemini Live, que cuenta cómo la herramienta es capaz de ayudar a un usuario a arreglar su bici.
Llama la atención cómo Gemini Live es capaz de ignorar conversaciones externas y centrarse solo en las peticiones que el usuario lleva a cabo al asistente.
Google mejora todos sus modelos: Veo, el modelo de generación de vídeo de Google, también ha mejorado. Del mismo modo, el modelo optimizado para ser integrado en robots, es ahora más preciso.
Vuelve Hassabis al escenario para hablar del "futuro de Gemini". Comienza anunciando la llegada de un nuevo modelo, Gemini 2.5 Pro Deep Think.
Este modelo utiliza nuevas técnicas de razonamiento para generar resaultados más precisos, al considerar múltiples hipótesis antes de responder.
Jules es otro de los grandes protagonistas de hoy. Se trata del agente de código de Google que se integra cn GitHub y es capaz de llevar a cabo operaciones por sí mismo.
Jules está disponible desde hoy en fase beta, y cualquiera puede apuntarse a través de su web oficial.

Demuestran ahora cómo Gemini es capaz de transformar un boceto en código, construyendo un prototipo perfectamente funcional de una aplicación. Una verdadera locura lo que es capaz de hacer en cuestión de minuitos.
Google también ha mejorado la eficiencia de Gemini 2.5 Flash, su modelo más eficiente hasta la fecha. Para ello, se han integrado "presupuestos de pensamiento", que permiten al modelo asignar mejor los recursos de manera inteligente.
Toca ahora hablar de novedades dirigidas a desarrolladores.
Todos aquellos que ya usan Gemini para crear aplicaciones y experiencias, se beneficiarán ahora de nuevas funcionalidades, incluyendo la salida de audio nativa.

Salta al escenario Demis Hassabis, líder de la división Google Deepmind, para contar los avances de Gemini 2.5, el modelo más avanzado de la compañía hasta la fecha.

Este nuevo agente de IA también será capaz de integrarse en los servicios y las aplicaciones de Google, para poder aprovechar todo tu contexto personal y llevar a cabo aún más acciones por ti.
Google lo tiene claro: la IA agéntica es el futuro.
Esto va rápido. Pasamos con otro de los servicios de IA de Google, Project Mariner, el agente de IA que hace cosas por ti.
La compañía sigue avanzando en el desarrollo de esta tecnología, con el objetivo de convertirlo en un agente mucho más "proactivo" y capaz de llevar a cabo más acciones en Internet sin necesidad de interacción por parte del usuario.

Nos hablan ahora de Astra, la iniciativa del asistente multimodal de Google. Pichai explica que muchos de los avances de Project Astra ya están integrados en Gemini Live gracias a la función de compartir pantalla e imagen de cámara, que desde hoy estará disponible para todos los usuarios de iOS y Android.

Google muestra ahora una nueva función de Google Meet que permite traducir las palabras del interlocutor en tiempo real, manteniendo su tono de voz, patrones y hasta las expresiones.

Esta función estará disponible en Meet desde hoy mismo para algunos usuarios, pudiendo traducir de inglés a español y viceversa.
Y tal como habíamos anticipado, Google ha anunciado la continuación de Proyect Starline, su iniciativa para acercar las videollamadas tridimensionales al mundo. Su nombre, a partir de ahora, será Google Beam.
Este sistema requerirá de equipamiento especializado para "mapear" el rostro, los movimientos y las expresiones de los usuarios. Los primeros dispositivos compatibles con Google Beam llegarán este mismo año gracias a una colaboración con HP.

Además, explican que Google Search, gracias la integración de IA, es el servicio que acerca la inteligencia artificial al mayor número de usuarios del mundo. Más que ChatGPT.
Un dato interesante: la app de Gemini ya tiene más de 400 millones de usuarios activos mensuales. Un 45% de ellos están utilizando el modelo 2.5 Pro.
Y ahí tenemos al mandamás de la compañía, Sundar Pichai, quien nos hace un pequeño repaso de lo que estamos a punto de ver, así como de los avances logrados en el terreno de la IA a lo largo de los últimos meses.
Explica que Gemini 2.5 Pro es el modelo de IA líder en la gran mayoría de benchmar

Google sigue demostrando las capacidades de Veo, su modelo de generación de vídeo. Nada mal lo que puede hacer este modelo en cuanto a consistencia y calidad de imagen.

El evento arranca con un clip de vídeo generado por Veo, el modelo de generación de vídeo de Google. Muy conveniente...
Allá vamos. La Keynote principal del Google I/O está a unos pocos segundos de dar comienzo. El primero en saltar al escenario será Sundar Pichai, CEO de Google.
Ojo, porque "el equipo de Android tiene algunas cosas interesantes que compartir". Y no lo digo yo, sino el propio Sameer Samat, Presidente de Android y Ecosistema en Google, quien ha compartido una publicación en su perfil de X a falta de unos pocos minutos para que arranque la Keynote.
Pese a ser el evento más importante para la mayoría de mortales, la Keynote principal del Google I/O 2025 no es la única conferencia que se llevará a cabo esta tarde.
Poco después, a las 22:30 hora española, arrancará la Keynote para desarrolladores, donde Google se centrará en los aspectos más técnicos de las novedades anunciadas en el día de hoy. Y sí, por supuesto, también se podrá seguir en directo:
Apple, ¿intentando aguarle la fiesta a Google?
Cuando falta menos de una hora para que arranque la Keynote del Google I/O 2025, la empresa de Cupertino ha comenzado a enviar las invitaciones a su WWDC 2025, su propia conferencia para desarrolladores. Algo así como el "I/O de Apple".
Por si no lo recuerdas, este año se celebrará entre el 9 y el 13 de junio (y, por supuesto, ahí estaremos para cubrirlo en directo).

Otra iniciativa que Google podría retomar en esta edición del I/O es Project Starline. Por si no lo recuerdas, se trata de un servicio con el que la compañía pretende hacer realidad las videollamadas en formato 3D.
El año pasado, vimos nuevos avances en este sentido, y puede que Google, al fin, tenga una tecnología lo suficientemente madura como para mostrárnosla en el día de hoy.
Falta poco más de una hora para que arranque el evento, y una vez más, recordamos que la keynote principal se podrá seguir en directo y en vídeo a través de la web del Google I/O, donde la compañía también ha habilitado una agenda con las sesiones más importantes que van a llevarse a cabo entre hoy y mañana.
Por primera vez en muchos años, Android no será la plataforma protagonista de la keynote principal del Google I/O. Y es que la compañía decidió celebrar un evento independiente la semana pasada, donde reveló los cambios que van a llegar a Android 16. Vamos a repasarlos:
👉 Nuevo diseño: Android 16 introduce Material 3 Expressive, la mayor renovación en el lenguaje de diseño del sistema, con mejores animaciones, nuevos elementos estéticos, más color y, en general, más "expresividad".
👉 Gemini en WearOS y Android Auto: el asistente de IA de Google se expande a más formatos, incluyendo coches y relojes.
👉 Más seguridad en la plataforma: Google ha renovado su herramienta de localización de dispositivos con nuevas funciones, incluyendo la posibilidad de localizar dispositivos vía satélite y colaboración con aerolíneas.
Estas son solo algunas de las muchas novedades que van a llegar a la plataforma en los próximos meses.
Por si quedaba alguna duda de que hoy veremos novedades de Gemini... aquí está la propia compañía para confirmarlo. A través de una publicación en X, nos animan a permanecer atentos y a predecir qué novedades de Gemini se anunciarán en la Keynote de esta tarde.
Cuando solo falta una hora para que arranque el Google I/O 2025, repasamos las redes sociales de los principales responsables de la compañía.
Aquí, vemos al propio CEO de Google, Sundar Pichai, junto con el principal responsable de IA de la compañía, Demis Hassabis. La publicación lleva el texto: "Pensando profundamente..."
¿Dónde se celebra el Google I/O 2025?
Aunque el evento se retransmite online a todo el mundo, este año, Google ha retomado su tradición de llevar a cabo un evento presencial, al que ha invitado a desarrolladores y expertos de varios países.
Dicho evento se celebra en el Anfiteatro Shoreline de Mountain View, la ciudad donde se encuentra la sede de la compañía.
Además de las novedades de Gemini, todo parece indicar que Google podría aprovechar esta edición del I/O para contarnos sus últimos avances relacionados con Project Astra.
Para quien no lo sepa, Astra es la idea de Google de un Asistente de IA multimodal, capaz de interactuar con el entorno de un modo que ni Gemini, ni Microsoft Copilot ni ningún otro han conseguido hasta ahora.
En el pasado Google I/O, la compañía ya nos mostró un primer avance de esta tecnología, que podría acabar llegando a los usuarios después de esta nueva edición de la feria para desarrolladores.
Quien no va a faltar a su cita con el I/O, por supuesto, será Demis Hassabis, responsable de Google DeepMind y, por tanto, principal líder del negocio de inteligencia artificial de la compañía.
Será él quien vaya a introducir el grueso de las novedades de IA que Google ha preparado para esta edición del I/O.
Aunque si lo que estás esperando son nuevos dispositivos Pixel o Nest, me temo que este no es tu evento. Aunque, en algunas ocasiones, Google ha aprovechado el I/O para presentar nuevos productos, es muy probable que en esta ocasión no se vaya a presentar nuevo hardware. Las novedades de producto quedarán reservadas, muy probablemente, para el evento Made by Google que debería celebrarse a finales de verano.
Pero ojo, la inteligencia artificial no será la única protagonista de esta conferencia. Todo parece indicar que Google dedicará parte de su tiempo a hablar de sus avances en el terreno de la realidad mixta con Android XR.
Ya en el evento Android Show celebrado la semana pasada, Sameer Samat hablaba de algunas de las novedades que están por llegar, y es muy probable que hoy podamos conocer más detalles al respecto.

¿Qué novedades esperamos de esta edición del Google I/O? Por supuesto, la Inteligencia Artificial será la gran protagonista como ya lo fue el año pasado y el anterior.
Se espera que Google vaya a anunciar grandes novedades de Gemini, su modelo de IA de referencia. También es posible que veamos cambios en NotebookLM, su herramienta destinada a tomar notas y subir archivos, para posteriormente procesarlos con la ayuda de la IA. Una herramienta que, por cierto, ahora tiene su propia app para móviles.
Este será el evento principal del primer día del Google I/O, donde Sundar Pichai, Sameer Samat y el resto de mandamases de Google anunciarán las principales novedades que llegarán a las plataformas de la compañía.
Por supuesto, el evento se podrá seguir en directo a través del streaming habilitado por la compañía en su canal de YouTube.
Antes de comenzar, vamos con un repaso a la agenda. A las 10:00 AM (Pacific Time) arranca la keynote principal del Google I/O. O, lo que es lo mismo, las 19:00 hora española.
Google I/O 2025, en directo
👋 ¡Buenas tardes a todos! Por fin ha llegado el día que muchos entusiastas de la tecnología llevaban esperando durante meses. Hoy se celebra el Google I/O 2025, el evento para desarrolladores celebrado por Google más importante del año.
A lo largo de las próximas horas, conoceremos muchas de las novedades de Android, Gemini, Search y mucho más que van a ir llegando a lo largo de los próximos meses.
✕
Accede a tu cuenta para comentar