Conferencia

Google I/O 2022: Novedades en Maps, YouTube, Buscador, Asistente, Lens y Traductor

Hoy ha comenzado la conferencia anual para desarrolladores de Google en la que la compañía presenta las novedades que llegarán a sus productos y servicios en los próximos meses

Londres en Inmersive View, la nueva función de Google Maps.
Londres en Inmersive View, la nueva función de Google Maps.La RazónCortesía de Google.

Google I/O, la conferencia anual para desarrolladores de Google, ha regresado este año al formato presencial con un evento en el anfiteatro Shoreline de Mountain View en California (Estados Unidos) que ha sido retransmitido por streaming. La keynote de Google, en la que la compañía ha anunciado un buen puñado de novedades que serán implementadas en los próximos meses en servicios como Maps, YouTube, Buscador, Asistente, Lens y Traductor, ha sido la primera de una larga serie de conferencias que se desarrollarán entre hoy y mañana.

Entre los anuncios destacan la búsqueda múltiple de información local y la presentación digital y detallada de las ciudades en Immersive View que incorporarán Buscador y Maps, respectivamente, junto a un nuevo modelo de lenguaje de conversación natural que permitirá al Asistente comprender las pausas y las autocorrecciones, según recoge Europa Press.

Buscador

Estas novedades tienen que ver con la forma en que la propia compañía usa la inteligencia artificial (IA) para que la gente obtenga la información de forma más eficiente. En este sentido, el Buscador se actualizará a finales de año con la búsqueda múltiple cerca del usuario.

Esta ampliación de la búsqueda múltiple, que aúna la búsqueda mediante imagen y texto, permite al usuario indicar que los resultados sean locales escribiendo “cerca de mí” a partir de una imagen online localizada, por ejemplo, de un plato de comida. Esto le permitirá obtener información sobre restaurantes que lo sirvan, o ese estilo de cocina, en las proximidades.

Esta búsqueda múltiple de información local llegará en unos meses primero en inglés, pero la compañía tiene planes para extenderlo a otros idiomas.

Lens

Google Lens también implementará una nueva función, exploración de escenas, con la que el usuario podrá realizar una búsqueda múltiple a partir de lo que vea a través de la cámara de su móvil. Por ejemplo, si apunta a una estantería donde se muestran chocolatinas, podrá ver información superpuesta a los elementos, así como escribir características (chocolate negro o si tiene frutos secos) para reducir las opciones que se destacan.

Maps

Otro servicio que incorporará novedades es Google Maps, que introducirá las rutas sostenibles en Europa en los próximos meses. También contará con Immersive View, una nueva vista con la que el usuario podrá moverse por una recreación digital y tridimensional de gran detalle de una ciudad e incluso por el interior de algunos establecimiento.

Immersive View realiza el procesamiento en lo servicios en la nube de Google, lo que facilita que pueda acceder cualquier usuario a esta función desde cualquier móvil. Requiere una conexión a Internet para su uso, y estará disponible primero, en Android e iOS, en Los Ángeles, Londres, Nueva York, San Francisco y Tokio.

Los desarrolladores tendrán a su disposición la API Geoespatial de ARCore, con la que podrán utilizar la tecnología de Live View para crear experiencias en aplicaciones de terceros, como buscar un aparcamiento, recorrer localizaciones o jugar a juegos basados en la ubicación (con realidad aumentada).

Asistente

En lo que respecta al Asistente, los trabajos se han dirigido a conseguir conversaciones cada vez más fáciles y naturales. Una de las novedades es "Look and Talk", o mirar y hablar, que activa el asistente con solo mirar el dispositivo, sin necesidad de pronunciar el comando de activación (Hey, Google y Ok, Google).

Esta función utiliza el reconocimiento facial y realiza todo el proceso, tanto de este elemento como del reconocimiento de voz, en el propio equipo, por lo que la compañía ha resaltado la seguridad y la privacidad de este proceso. Llegará esta semana Android y a los dispositivos Nest Hub Max en inglés en Estados Unidos, pero mediados de mayo también estará disponible para iOS.

Por otra parte, las frases rápidas, que permiten que el Asistente ejecute acciones sin el comando de activación, como preguntar por la hora o encender o apagar las luces, están actualmente disponibles para Pixel 6 pero llegarán este verano a Nest Hub Max en inglés en Estados Unidos.

La compañía también ha compartido un nuevo modelo de lenguaje de conversación natural, que implementará a principios del próximo año. La novedad radica en que el Asistente será capaz de comprender mejor elementos como las pausas, las interrupciones y las autocorrecciones, e incluso el sonido "Mmmm" o "hum".

Junto a esta novedad de Asistente, la compañía también ha anunciado la segunda versión de LaMDA, el modelo conversacional que la compañía anunció el año pasado. Este modelo ha avanzado para, a partir de una petición del usuario, ofrecer múltiples subtareas o consejos, como se puede comprobar en la app AI Test Kitchen.

Traductor

Por último, también recibirá una novedades el Traductor. En este servicio se trata de una mejora de la calidad de las traducciones, sobre todo en idiomas de los que hay menos recursos. Con esta idea, Google ha anunciado la incorporación de 24 nuevos idiomas a Traductor, entre los que se encuentran tres lenguas indígenas americanas: quechua, guaraní y aimara.

Con esta incorporación, Traductor cuenta con soporte para 133 idiomas, y las 24 nuevas adiciones dan cobertura a más de 330 millones de personas de todo el mundo.

La compañía también ha explicado un cambio de enfoque en la forma en que incorporan nuevos idiomas en el Traductor. Hasta ahora para entrenar en una nueva lengua había que proveer al modelo de una gran cantidad de ejemplos. El nuevo enfoque adoptado por la compañía es un modelo monolingüe basado en texto en un idioma, sin traducción directa, en lugar de en el contraste de un mismo texto entre dos idiomas.

Otros servicios

Pixel 6 cuenta en un software con mejoras que permiten capturar a las personas con un tono de piel más preciso y realista, en un intento por combatir el sesgo racial. La compañía ha anunciado una escala de tono de piel, desarrollada con el Dr. Ellis Monk, de la Universidad de Harvard (Estados Unidos), que puede probarse desde una web dedicada.

La compañía también incorporará novedades en Fotos y Web para avanzar hacia una mayor inclusividad. Algunas búsquedas de imágenes empezarán a mostrar filtros por tonos de piel, por ejemplo, las referidas a tipos de maquillaje. En Fotos, se introducirá in filtro de tono de piel natural, basado en la escala Monk.

La compañía también ha anunciado un par de novedades para su servicio de vídeo en streaming, la primera, la llegada de los capítulos autogenerados, que se aplicará de forma automática en unos 80 millones de vídeos en el próximo año, y la segunda, la extensión de los subtítulos automáticos a la versión móvil.