Inteligencia artificial

Los beneficios de fumar en niños y otros errores clamorosos de la IA en el Buscador de Google

La capacidad de inventarse respuestas de la IA pone en duda que esté lista para su despliegue global

Los beneficios de fumar en niños y otros errores clamorosos de la IA en el Buscador de Google.
Los beneficios de fumar en niños y otros errores clamorosos de la IA en el Buscador de Google.Google.

Tras un año de pruebas con un número de usuarios limitado, Google lanzó la semana pasada en Estados Unidos los AI Overviews o resúmenes generados por IA que preceden a los tradicionales resultados de búsqueda. Estos resúmenes ya están siendo calificados como un “desastre” por usuarios que denuncian respuestas extrañas de la IA que incluyen aconsejar añadir pegamento a una pizza o promover los beneficios que tiene fumar en niños.

Una captura de pantalla ampliamente compartida muestra la respuesta generada por la IA de Google a la consulta 'queso que no se pega a la pizza'. El buscador respondió enumerando 'algunas cosas que puedes intentar' para evitar el problema. 'Mezclar queso con la salsa ayuda a añadir humedad al queso y secar la salsa', señaló AI Overviews. 'También puedes agregar alrededor de 1/8 de taza de pegamento no tóxico a la salsa para darle más pegajosidad'.

¿De dónde procede semejante respuesta? Algunos usuarios la investigaron y encontraron su origen en una publicación en Reddit de hace 11 años que tenía 8 votos a favor. El pasado mes de febrero, Google llegó a un acuerdo con el popular foro de Internet para entrenar su IA con los datos de la plataforma.

'Los resultados de búsqueda de IA de Google son un desastre. Odio que se esté convirtiendo en un recurso en el que ya no se puede confiar', señaló Tom Warren, editor senior de The Verge, sobre este caso. El consejo sobre la salsa de pizza es solo uno de los numerosos ejemplos del comportamiento extraño de AI Overviews que circulan en las redes sociales.

Una búsqueda sobre qué presidentes de EE.UU. asistieron a la Universidad de Wisconsin-Madison arrojó información igualmente errónea por parte de Google. El buscador afirmó que el expresidente Andrew Johnson, quien murió en 1875, había obtenido 14 títulos de la escuela y se había graduado en 2012 y John Kennedy, asesinado en 1963, en 1993, entre otros errores.

thank you google ai, very cool

[image or embed]

— illumi (@illumi.me) May 22, 2024 at 15:44

Otro ejemplo mostró resultados para la búsqueda 'beneficios para la salud del tabaco para los niños'. La IA de Google respondió declarando que 'el tabaco contiene nicotina, lo que puede causar algunos beneficios a corto plazo, como mayor alerta, euforia y relajación'. También afirmó que los posibles usos del tabaco incluyen 'blanquear los dientes', entre otros.

Un portavoz de Google dijo: 'Los ejemplos que hemos visto son generalmente consultas poco comunes y no son representativos de la mayoría de las experiencias de las personas'.

'La gran mayoría de los resúmenes de IA proporcionan información de alta calidad, con enlaces para profundizar en la web. Nuestros sistemas apuntan a prevenir automáticamente que aparezca contenido que viole las políticas de AI Overviews. Si aparece contenido que viole las políticas, tomaremos las medidas apropiadas', ha señalado un portavoz de Google en un comunicado.

Algunos usuarios también han encontrado que la IA parece confundirse con las búsquedas que piden a Google convertir 1.000 kilómetros en su equivalente con un objeto específico. Por ejemplo, la búsqueda de un usuario de '1.000 km en naranjas' recibió otra respuesta disparatada de Google: 'Una solución al problema de transportar naranjas 1.000 kilómetros es alimentar a un caballo con 2.000 naranjas a la vez, una por cada kilómetro recorrido, y vender las 1.000 naranjas restantes en el mercado'.

En otro ejemplo compartido en redes, Google respondió a la búsqueda 'cómo tratar el dolor de apendicitis en casa', con usar hojas de menta hervidas y una dieta alta en fibra. 'Corríjanme si me equivoco, pero ¿no es que no existe tal cosa como un remedio casero para la apendicitis? La IA de Google sugiere hojas de menta', señaló el usuario.

Google incluye un descargo de responsabilidad en todas sus respuestas de AI Overviews que indica que 'la IA generativa es experimental'. La empresa asegura que ha colocado salvaguardas en el sistema para asegurar que no aparezca contenido dañino en los resultados y no usa AI Overviews en búsquedas de temas potencialmente explícitos o peligrosos. Google tiene planeado que, antes de fin de año, AI Overviews esté disponible para 1.000 millones de usuarios.

Google fue muy criticada el pasado febrero después de que la herramienta de generación de imágenes de la IA Gemini mostrara imágenes inexactas desde el punto de vista histórico, como nazis o papas negros. Google deshabilitó la función y se disculpó, asegurando que lo arreglaría, pero la capacidad aún no ha regresado al chatbot.