Evento

Google I/O 2025 en directo: todas las novedades de IA anunciadas hoy

Sigue con nosotros en directo todos los anuncios de Google en su I/O 2025, el evento para desarrolladores más importante del año

Google I/O 2025 en directo
El Google I/O 2025 es el evento de Google más importante del año en lo que respecta al softwarePropia

Como cada mes de mayo, Google vuelve a celebrar su evento para desarrolladores más importante del año. Hoy, martes 20 de mayo, el Google I/O 2025 abre sus puertas con la Google Keynote, una conferencia liderada por Sundar Pichai, CEO de Alphabet (compañía matriz de Google), donde se anunciarán las principales novedades que están destinadas a aterrizar en las plataformas más importantes de la compañía estadounidense: Android, Search, Gemini, Maps, Fotos y mucho más.

La Inteligencia Artificial, por supuesto, volverá a ser la gran protagonista un año más. Tanto, que Google incluso decidió celebrar un evento aparte hace ya una semana, en el que aprovechó para quitarse de enmedio el grueso de los cambios que le esperan a su sistema operativo principal con la llegada de Android 16.

Ahora, vamos a descubrir qué otras novedades, revolucionarias o no, nos tiene preparada la compañía con sede en Mountain View.

Actualizado a las

Muestran ahora una impresionante demostración de Google Maps en Android XR, que permitirá teletransportarse a cualquier lugar del mundo de manera virtual.

Llega uno de los momentos más esperados, el de Android XR. El sistema operativo de Google centrado en cascos y gafas inteligentes llegará este mismo año de la mano del Proyecto Moohan de Google, así como otras gafas de varias firmas.

Android XR recibirá aplicaciones de Google y otros desarrolladores, además de contar con Gemini integrado desde el día 1.

Android XR con Google Gemini
Android XR con Google GeminiGoogle

Muestran ahora las capacidades del editor de Flow, el generador de vídeos cinemático que estará disponible próximamente.

Editor de Flow
Editor de FlowGoogle

Hablan ahora de los avances llevados a cabo en SynthID, la "marca de agua invisible" para aquellos contenidos creados con IA. La compañía ha creado un "detector" que permite a cualquier usuario subir cualquier tipo de archivo y comprobar si cuenta con esta marca de agua.

Y eso no es todo. Google también ha anunciado un nuevo plan de suscripción de Google One, llamado AI Ultra. Cuesta 249,99 dólares al mes, y esto es todo lo que incluye:

  • 30 TB de almacenamiento para Gmail, Google Drive y Google Fotos

  • La mejor versión de la app Gemini, la cual incluye límites de uso más altos en investigación profunda, generación de video avanzada con Veo 2 y acceso anticipado al nuevo modelo Veo 3. Asimismo, dentro de unas semanas, los usuarios de este nuevo plan también tendrán acceso a Deep Think en 2.5 Pro, el nuevo modo mejorado de razonamiento de Google

  • La integración de Gemini en Gmail, Google Docs y Google Chrome

  • Acceso a los límites más altos de uso y a las capacidades mejoradas de NotebookLM

  • Acceso a "Proyect Mariner", una nueva tecnología de investigación basada en los agentes de IA que permite que estos realicen hasta 10 tareas de manera simultánea como, por ejemplo, buscar información, comprar cosas y hacer reservas al mismo tiempo

  • Acceso a Flow, una nueva herramienta de creación cinematográfica con IA que te permitirá "crear clips, escenas y narrativas cinematográficas con indicaciones intuitivas", generar videos en 1080p, disfrutar de unos controles avanzados de cámara y disfrutar anticipadamente de Veo3

  • Acceso a Whisk Animate, una funcionalidad de IA que "convierte tus imágenes en vívidos videos de ocho segundos" gracias a la generación de vídeo avanzada de Veo 2

  • Una suscripción individual a YouTube Premium para que puedas disfrutar de tus vídeos favoritos sin anuncios, con la pantalla apagada y en cualquier lugar

Seguimos hablando de vídeo, ya que Google presenta Flow, una nueva herramienta de generación de vídeo de nivel profesional, que se basa en los últimos modelos creativos de la compañía.

Una apreciación personal: en el pasado, Google ha sido criticada por anunciar novedades que tardan demasiado tiempo en llegar a los consumidores. Este año, sin embargo, sacan pecho de que muchas de las novedades presentadas están disponibles desde hoy. Un avance en el buen camino, sin duda.

En el apartado del vídeo, Veo 3 llega con una mayor calidad de imagen, además de ser diez veces más rápido que el modelo anterior. Y, por si eso no fuera suficiente, ahora es capaz de generar audio junto al vídeo, incluyendo efectos de sonido, diálogos y más.

En el caso de Imagen 4, llama la atención la capacidad del modelo a la hora de integrar texto en el interior de las imágenes de manera legible, coherente y precisa.

Ejemplo de imagen generada por Imagen 4
Ejemplo de imagen generada por Imagen 4Google

Y como no podía ser de otro modo, los últimos modelos de Google llegan a la app de Google: Imagen 4 para generar imágenes, y Veo 3 para generar vídeo.

En total, hay 5 novedades para la app de Gemini:

👉 Ya es posible compartir el contenido de la pantalla y de la cámara en iOS y Android en Gemini Live

👉 Conexión de Gemini Live con servicios de Google como Maps, Calendar o Keep

👉 Deep Research permitirá subir archivos propios

👉 Canvas, el espacio colaborativo de Gemini, ahora permite generar código, documentos y más

👉 Google Gemini se integra en el navegador Google Chrome

Para conseguir crear un asistente más personal, la empresa anuncia la llegada de "Personal Context", una función que tendrá en cuenta anteriores peticiones o los datos compartidos con otros servicios de Google, de modo que el asistente podrá generar respuestas mejor adaptadas.

En el apartado de la proactividad, Google quiere conseguir que Gemini sea capaz de mostrar al usuario notificaciones y recordatorios sobre temas relevantes. Por ejemplo, "tests" de una asignatura antes de un examen.

En cuanto a la parte de potencia, Google demuestra las capacidades del asistente gracias a la llegada de los últimos modelos de IA de la empresa.

Le toca el turno a las novedades de la app de Gemini, que Google quiere transformar en el asistente más personal, proactivo y potente.

Gracias al "agente de IA" integrado en Search, en caso de que un producto de la lista de seguimiento baje de precio, el usuario recibirá una notificación que permitirá comprarlo teniendo en cuenta la talla y las preferencias del usuario.

AI Mode en compras
AI Mode en comprasGoogle

La experiencia de compra de productos en Google Search también está a punto de evolucionar gracias a AI Mode.

Permitirá llevar a cabo consultas concretas a Search sobre cualquier tipo de producto, y Search ofrecerá respuestas personalizadas. Incluso se añadirá un "probador virtual" de ropa, que tiene en cuenta tanto el tipo de cuerpo del usuario y sus dimensiones, como el tejido de la prenda en cuestión, y mucho más.

Probador virtual de ropa de Google AI Mode
Probador virtual de ropa de Google AI ModeGoogle

Siguen hablando de AI Mode. Cuentan que, próximamente, Project Astra estará en AI Mode, permitiendo usar la cámara de los dispositivos para realizar búsquedas en vivo.

"Es como estar en una videollamada con Google Search", explican.

Entre el aluvión de anuncios del Google I/O 2025, tenemos una sorpresa: Google ha liberado Androiud 16 QPR1 Beta 1, la versión que introduce el rediseño Material 3 Expressive.

Ya se puede descargar en los dispositivos Pixel compatibles.

Así luce el nuevo diseño de Android, llamado Material 3 Expressive
Así luce el nuevo diseño de Android, llamado Material 3 ExpressiveGoogle

Otra novedad es Deep Search. Llegará este verano, y permitirá llevar a cabo búsquedas mucho más profundas sobre temas específicos.

Google está convencida de que el futuro de los resultados de búsqueda es dinámico. Con AI Mode, cada consulta genera una página de resultados completamente diferente, con una interfaz que se adapta para ofrecer justo lo que el usuario necesita en cada momento.

Por supuesto, los resultados serán más "personales", ya que se tendrá en cuenta el contexto del usuario obtenido a través del resto de servicios de Google.

AI Mode llegará a lo largo de este próximo verano a más usuarios.

AI Mode en Google Search
AI Mode en Google SearchGoogle

Pasando a hablar de Google Search, se ha integrado una nueva pestaña de AI Mode en el buscador, que permite obtener respuestas generadas por IA más "profundas".

Vuelve Sundar Pichai al escenario para pasar a la siguiente sección: Google Search.

Toca ponerse emotivos. Google muestra un vídeo sobre Project Astra, y cómo los avances han permitido al artista estadounidense con ceguera Dorsey a mejorar su día a día durante las giras.

Muestran ahora un vídeo de Project Astra en Google Gemini Live, que cuenta cómo la herramienta es capaz de ayudar a un usuario a arreglar su bici.

Llama la atención cómo Gemini Live es capaz de ignorar conversaciones externas y centrarse solo en las peticiones que el usuario lleva a cabo al asistente.

Google mejora todos sus modelos: Veo, el modelo de generación de vídeo de Google, también ha mejorado. Del mismo modo, el modelo optimizado para ser integrado en robots, es ahora más preciso.

Vuelve Hassabis al escenario para hablar del "futuro de Gemini". Comienza anunciando la llegada de un nuevo modelo, Gemini 2.5 Pro Deep Think.

Este modelo utiliza nuevas técnicas de razonamiento para generar resaultados más precisos, al considerar múltiples hipótesis antes de responder.

Jules es otro de los grandes protagonistas de hoy. Se trata del agente de código de Google que se integra cn GitHub y es capaz de llevar a cabo operaciones por sí mismo.

Jules está disponible desde hoy en fase beta, y cualquiera puede apuntarse a través de su web oficial.

Agente Google Jules
Agente Google JulesGoogle

Demuestran ahora cómo Gemini es capaz de transformar un boceto en código, construyendo un prototipo perfectamente funcional de una aplicación. Una verdadera locura lo que es capaz de hacer en cuestión de minuitos.

Google también ha mejorado la eficiencia de Gemini 2.5 Flash, su modelo más eficiente hasta la fecha. Para ello, se han integrado "presupuestos de pensamiento", que permiten al modelo asignar mejor los recursos de manera inteligente.

Toca ahora hablar de novedades dirigidas a desarrolladores.

Todos aquellos que ya usan Gemini para crear aplicaciones y experiencias, se beneficiarán ahora de nuevas funcionalidades, incluyendo la salida de audio nativa.

Salida de audio en Gemini
Salida de audio en GeminiGoogle

Salta al escenario Demis Hassabis, líder de la división Google Deepmind, para contar los avances de Gemini 2.5, el modelo más avanzado de la compañía hasta la fecha.

Demis Hassabis
Demis HassabisGoogle

Este nuevo agente de IA también será capaz de integrarse en los servicios y las aplicaciones de Google, para poder aprovechar todo tu contexto personal y llevar a cabo aún más acciones por ti.

Google lo tiene claro: la IA agéntica es el futuro.

Esto va rápido. Pasamos con otro de los servicios de IA de Google, Project Mariner, el agente de IA que hace cosas por ti.

La compañía sigue avanzando en el desarrollo de esta tecnología, con el objetivo de convertirlo en un agente mucho más "proactivo" y capaz de llevar a cabo más acciones en Internet sin necesidad de interacción por parte del usuario.

Project Mariner
Project MarinerGoogle

Nos hablan ahora de Astra, la iniciativa del asistente multimodal de Google. Pichai explica que muchos de los avances de Project Astra ya están integrados en Gemini Live gracias a la función de compartir pantalla e imagen de cámara, que desde hoy estará disponible para todos los usuarios de iOS y Android.

Gemini Live
Gemini LiveGoogle

Google muestra ahora una nueva función de Google Meet que permite traducir las palabras del interlocutor en tiempo real, manteniendo su tono de voz, patrones y hasta las expresiones.

Función de traducción en tiempo real en Google Meet
Función de traducción en tiempo real en Google MeetGoogle

Esta función estará disponible en Meet desde hoy mismo para algunos usuarios, pudiendo traducir de inglés a español y viceversa.

Y tal como habíamos anticipado, Google ha anunciado la continuación de Proyect Starline, su iniciativa para acercar las videollamadas tridimensionales al mundo. Su nombre, a partir de ahora, será Google Beam.

Este sistema requerirá de equipamiento especializado para "mapear" el rostro, los movimientos y las expresiones de los usuarios. Los primeros dispositivos compatibles con Google Beam llegarán este mismo año gracias a una colaboración con HP.

Google Beam en I/O 2025
Google Beam en I/O 2025Google

Además, explican que Google Search, gracias la integración de IA, es el servicio que acerca la inteligencia artificial al mayor número de usuarios del mundo. Más que ChatGPT.

Un dato interesante: la app de Gemini ya tiene más de 400 millones de usuarios activos mensuales. Un 45% de ellos están utilizando el modelo 2.5 Pro.

Y ahí tenemos al mandamás de la compañía, Sundar Pichai, quien nos hace un pequeño repaso de lo que estamos a punto de ver, así como de los avances logrados en el terreno de la IA a lo largo de los últimos meses.

Explica que Gemini 2.5 Pro es el modelo de IA líder en la gran mayoría de benchmar

Gemini está en el primer lugar de la mayoría de benchmarks de IA
Gemini está en el primer lugar de la mayoría de benchmarks de IAGoogle
ks.

Google sigue demostrando las capacidades de Veo, su modelo de generación de vídeo. Nada mal lo que puede hacer este modelo en cuanto a consistencia y calidad de imagen.

Captura de vídeo generado por Veo
Captura de vídeo generado por VeoGoogle Veo

El evento arranca con un clip de vídeo generado por Veo, el modelo de generación de vídeo de Google. Muy conveniente...

Allá vamos. La Keynote principal del Google I/O está a unos pocos segundos de dar comienzo. El primero en saltar al escenario será Sundar Pichai, CEO de Google.

Ojo, porque "el equipo de Android tiene algunas cosas interesantes que compartir". Y no lo digo yo, sino el propio Sameer Samat, Presidente de Android y Ecosistema en Google, quien ha compartido una publicación en su perfil de X a falta de unos pocos minutos para que arranque la Keynote.

Pese a ser el evento más importante para la mayoría de mortales, la Keynote principal del Google I/O 2025 no es la única conferencia que se llevará a cabo esta tarde.

Poco después, a las 22:30 hora española, arrancará la Keynote para desarrolladores, donde Google se centrará en los aspectos más técnicos de las novedades anunciadas en el día de hoy. Y sí, por supuesto, también se podrá seguir en directo:

Apple, ¿intentando aguarle la fiesta a Google?

Cuando falta menos de una hora para que arranque la Keynote del Google I/O 2025, la empresa de Cupertino ha comenzado a enviar las invitaciones a su WWDC 2025, su propia conferencia para desarrolladores. Algo así como el "I/O de Apple".

Por si no lo recuerdas, este año se celebrará entre el 9 y el 13 de junio (y, por supuesto, ahí estaremos para cubrirlo en directo).

La invitación del WWDC 2025
La invitación del WWDC 2025Propia

Otra iniciativa que Google podría retomar en esta edición del I/O es Project Starline. Por si no lo recuerdas, se trata de un servicio con el que la compañía pretende hacer realidad las videollamadas en formato 3D.

El año pasado, vimos nuevos avances en este sentido, y puede que Google, al fin, tenga una tecnología lo suficientemente madura como para mostrárnosla en el día de hoy.

Falta poco más de una hora para que arranque el evento, y una vez más, recordamos que la keynote principal se podrá seguir en directo y en vídeo a través de la web del Google I/O, donde la compañía también ha habilitado una agenda con las sesiones más importantes que van a llevarse a cabo entre hoy y mañana.

Por primera vez en muchos años, Android no será la plataforma protagonista de la keynote principal del Google I/O. Y es que la compañía decidió celebrar un evento independiente la semana pasada, donde reveló los cambios que van a llegar a Android 16. Vamos a repasarlos:

👉 Nuevo diseño: Android 16 introduce Material 3 Expressive, la mayor renovación en el lenguaje de diseño del sistema, con mejores animaciones, nuevos elementos estéticos, más color y, en general, más "expresividad".

👉 Gemini en WearOS y Android Auto: el asistente de IA de Google se expande a más formatos, incluyendo coches y relojes.

👉 Más seguridad en la plataforma: Google ha renovado su herramienta de localización de dispositivos con nuevas funciones, incluyendo la posibilidad de localizar dispositivos vía satélite y colaboración con aerolíneas.

Estas son solo algunas de las muchas novedades que van a llegar a la plataforma en los próximos meses.

Por si quedaba alguna duda de que hoy veremos novedades de Gemini... aquí está la propia compañía para confirmarlo. A través de una publicación en X, nos animan a permanecer atentos y a predecir qué novedades de Gemini se anunciarán en la Keynote de esta tarde.

Cuando solo falta una hora para que arranque el Google I/O 2025, repasamos las redes sociales de los principales responsables de la compañía.

Aquí, vemos al propio CEO de Google, Sundar Pichai, junto con el principal responsable de IA de la compañía, Demis Hassabis. La publicación lleva el texto: "Pensando profundamente..."

¿Dónde se celebra el Google I/O 2025?

Aunque el evento se retransmite online a todo el mundo, este año, Google ha retomado su tradición de llevar a cabo un evento presencial, al que ha invitado a desarrolladores y expertos de varios países.

Dicho evento se celebra en el Anfiteatro Shoreline de Mountain View, la ciudad donde se encuentra la sede de la compañía.

Además de las novedades de Gemini, todo parece indicar que Google podría aprovechar esta edición del I/O para contarnos sus últimos avances relacionados con Project Astra.

Para quien no lo sepa, Astra es la idea de Google de un Asistente de IA multimodal, capaz de interactuar con el entorno de un modo que ni Gemini, ni Microsoft Copilot ni ningún otro han conseguido hasta ahora.

En el pasado Google I/O, la compañía ya nos mostró un primer avance de esta tecnología, que podría acabar llegando a los usuarios después de esta nueva edición de la feria para desarrolladores.

Quien no va a faltar a su cita con el I/O, por supuesto, será Demis Hassabis, responsable de Google DeepMind y, por tanto, principal líder del negocio de inteligencia artificial de la compañía.

Será él quien vaya a introducir el grueso de las novedades de IA que Google ha preparado para esta edición del I/O.

Aunque si lo que estás esperando son nuevos dispositivos Pixel o Nest, me temo que este no es tu evento. Aunque, en algunas ocasiones, Google ha aprovechado el I/O para presentar nuevos productos, es muy probable que en esta ocasión no se vaya a presentar nuevo hardware. Las novedades de producto quedarán reservadas, muy probablemente, para el evento Made by Google que debería celebrarse a finales de verano.

Pero ojo, la inteligencia artificial no será la única protagonista de esta conferencia. Todo parece indicar que Google dedicará parte de su tiempo a hablar de sus avances en el terreno de la realidad mixta con Android XR.

Ya en el evento Android Show celebrado la semana pasada, Sameer Samat hablaba de algunas de las novedades que están por llegar, y es muy probable que hoy podamos conocer más detalles al respecto.

Sameer Samat en Android Show
Sameer Samat en Android ShowGoogle

¿Qué novedades esperamos de esta edición del Google I/O? Por supuesto, la Inteligencia Artificial será la gran protagonista como ya lo fue el año pasado y el anterior.

Se espera que Google vaya a anunciar grandes novedades de Gemini, su modelo de IA de referencia. También es posible que veamos cambios en NotebookLM, su herramienta destinada a tomar notas y subir archivos, para posteriormente procesarlos con la ayuda de la IA. Una herramienta que, por cierto, ahora tiene su propia app para móviles.

Este será el evento principal del primer día del Google I/O, donde Sundar Pichai, Sameer Samat y el resto de mandamases de Google anunciarán las principales novedades que llegarán a las plataformas de la compañía.

Por supuesto, el evento se podrá seguir en directo a través del streaming habilitado por la compañía en su canal de YouTube.

Antes de comenzar, vamos con un repaso a la agenda. A las 10:00 AM (Pacific Time) arranca la keynote principal del Google I/O. O, lo que es lo mismo, las 19:00 hora española.

Google I/O 2025, en directo

👋 ¡Buenas tardes a todos! Por fin ha llegado el día que muchos entusiastas de la tecnología llevaban esperando durante meses. Hoy se celebra el Google I/O 2025, el evento para desarrolladores celebrado por Google más importante del año.

A lo largo de las próximas horas, conoceremos muchas de las novedades de Android, Gemini, Search y mucho más que van a ir llegando a lo largo de los próximos meses.