Tecnología
Los resúmenes por IA de la Búsqueda de Google ponen en riesgo a los usuarios que realizan consultas médicas, según The Guardian
Una investigación del medio muestra que las advertencias de seguridad sobre la fiabilidad de la información no aparecen hasta que el usuario hace clic en el botón ‘Mostrar más’
La fiabilidad de las respuestas que dan los chatbots de IA ha sido objeto de debate desde la explosión iniciada por ChatGPT a finales de 2022. Todos ellos incluyen advertencias de seguridad indicando que pueden cometer errores, pero se usan como si no existieran por la comodidad que ofrecen. Sin embargo, estos errores pueden resultar críticos cuando se tratan temas importantes como los relacionados con la salud. Según una investigación de The Guardian, los resúmenes generados por IA (AI Overviews, llamados Vistas creadas por IA en España) ocultan las advertencias de seguridad en consultas médicas hasta que el usuario hace clic en el botón de ‘Mostrar más’. Es decir, no aparecen en la respuesta inicial que da Google.
No solo eso, sino que cuando se muestran tras pulsar el botón, aparecen debajo de la información médica y con una tipografía más pequeña, lo que facilita que pasen desapercibidas.
‘Esto es solo para fines informativos. Para consejo médico o un diagnóstico, consulta a un profesional. Las respuestas de la IA pueden incluir errores’, puede leer un usuario tras toda la respuesta de la Búsqueda de Google. Si es que ha llegado hasta ahí.
A preguntas del medio británico, Google explica que ‘es inexacto sugerir que los Resúmenes con IA no animan a la gente a buscar consejo médico profesional’ y que estos ‘informarán a las personas cuando sea importante buscar el consejo de expertos o verificar la información presentada’, ‘animan a la gente a buscar consejo médico profesional’ y que con frecuencia mencionan dentro del propio resumen la conveniencia de buscar atención médica ‘cuando procede’.
Pero ese ‘cuando procede’ puede estar lejos de lo que es necesario, según expertos consultados por el medio. Pat Pataranutaporn, profesor asistente, tecnólogo, investigador en el Instituto Tecnológico de Massachusetts (MIT) y experto de renombre mundial en IA, afirma que ‘la ausencia de advertencias cuando a los usuarios se les sirve inicialmente información médica crea varios peligros críticos. Primero, incluso los modelos de IA más avanzados hoy todavía alucinan desinformación o muestran un comportamiento complaciente, priorizando la satisfacción del usuario por encima de la precisión. En contextos sanitarios, esto puede ser realmente peligroso. Segundo, el problema no es solo las limitaciones de la IA: también está el lado humano de la ecuación. Los usuarios pueden no aportar todo el contexto necesario o pueden hacer las preguntas equivocadas al interpretar mal sus síntomas. Las advertencias actúan como un punto crucial de intervención. Rompen esa confianza automática y empujan a los usuarios a relacionarse de forma más crítica con la información que reciben’.
Por su parte, Gina Neff, profesora de IA responsable en la Queen Mary University of London, señala que el ‘problema de los malos Resúmenes con IA es intencional. Los Resúmenes con IA están diseñados para la velocidad, no para la precisión, y eso conduce a errores en la información sanitaria, lo que puede ser peligroso’.
Esta investigación sigue a otra publicada por The Guardian en enero en la que mostró que los usuarios estaban expuestos a riesgos por recibir información sanitaria falsa y engañosa en las respuestas por IA en la Búsqueda. Sobre estas, Neff argumenta por qué es esencial mantener las advertencias de seguridad visibles para el usuario: ‘Google hace que la gente tenga que hacer clic antes de encontrar cualquier advertencia. Quienes leen deprisa pueden pensar que la información que obtienen de los Resúmenes con IA es mejor de lo que es, pero sabemos que puede cometer errores graves’.
Tras esta información, Google retiró las respuestas generadas por IA para algunas consultas médicas.
Sonali Sharma, investigadora del centro de IA en medicina e imagen de la Universidad de Stanford (AIMI), asegura a The Guardian que ‘el principal problema es que estos Resúmenes con IA de Google aparecen en la parte superior de la página de búsqueda y a menudo ofrecen lo que parece una respuesta completa a la pregunta del usuario en un momento en el que la gente intenta acceder a la información y obtener una respuesta lo más rápido posible. Para muchas personas, como ese único resumen aparece de inmediato, básicamente crea una sensación de tranquilidad que desincentiva seguir buscando, o desplazarse por el resumen completo y hacer clic en ‘Mostrar más’, donde podría aparecer un aviso. Lo que creo que puede causar daño en el mundo real es el hecho de que los Resúmenes con IA a menudo pueden contener información parcialmente correcta y parcialmente incorrecta, y se vuelve muy difícil distinguir qué es exacto y qué no, a menos que ya estés familiarizado con el tema’.
Tom Bishop, responsable de información para pacientes en Anthony Nolan, una organización benéfica contra el cáncer de sangre, enmienda la plana a Google: ‘Sabemos que la desinformación es un problema real, pero cuando se trata de desinformación sanitaria, es potencialmente muy peligrosa. Ese aviso debe ser mucho más visible, solo para hacer que la gente se pare y piense… ‘¿Es esto algo que necesito comprobar con mi equipo médico en lugar de actuar en consecuencia? ¿Puedo aceptar esto tal cual o de verdad necesito investigarlo con más detalle y ver cómo se relaciona con mi situación médica específica?’ Porque esa es la clave aquí. Me gustaría que ese aviso estuviera justo arriba del todo. Me gustaría que fuera lo primero que vieras. Y, idealmente, tendría el mismo tamaño de letra que todo lo demás que estás viendo ahí, no algo pequeño y fácil de pasar por alto’.