Tecnología

La Prensa denuncia a Google por «vampirizar contenidos» con su nueva Inteligencia Artificial

AMI alerta de que el lanzamiento en España de Bard evitará que citen fuentes y paguen por la información

Google
Google WALLACE WOONAgencia EFE

La Prensa española vuelve a la carga contra las intenciones de Google de intentar monopolizar todos los contenidos informativos sin pagar por ello y sin citar las fuentes originarias. La Asociación de Medios de Información (AMI) ha denunciado públicamente que la nueva herramienta del gigante tecnológico, bautizada como Bard y lanzada el pasado jueves en España, realiza «una utilización masiva de los contenidos de los medios de información nacionales, sin citar siquiera sus fuentes de información». Para la patronal, esta actuación supone un «claro aprovechamiento del esfuerzo inversor ajeno, del trabajo masivo de periodistas y editores de información, y pone en riesgo el derecho fundamental a la información que la Constitución reconoce a los ciudadanos en su artículo 20».

En un estudio previo realizado por la patronal han detectado con la realización de distintas preguntas realizadas a su herramienta de inteligencia artificial (IA) sobre temas de actualidad que Bard bebe de los contenidos de los medios de información sin saberse de dónde salen. Al ser preguntado por las fuentes utilizadas para la elaboración de sus respuestas, «Bard se limita a decir que no puede ayudarte con esta pregunta», inciden en AMI. De esta manera, los medios «ni tan siquiera obtienen el crédito debido de ser las fuentes de información sobre las que la herramienta ha elaborado su respuesta». Por ello, la asociación denuncia que, al tiempo que se afecta al «legítimo derecho de los medios de información de hacer suyo el fruto de su trabajo y esfuerzo inversor», Bard realiza una captura masiva de datos personales de los usuarios, que serán utilizados «para monetizar publicitariamente los perfiles de sus usuarios, en una nueva intromisión en el derecho a la intimidad de las personas».

Asimismo, AMI señala que esta herramienta advierte que los resultados que ofrece no son necesariamente fiables, declinando con esta manifestación la «asunción de cualquier tipo de responsabilidad y poniendo con ello en riesgo la fiabilidad de la información que reciben los ciudadanos.

Un comportamiento similar el de Microsoft con ChatGPT».

Ya en la asamblea general de AMI reclamaron a reguladores, desarrolladores e implementadores de Inteligencia Artificial Generativa (IAG) que cualquier contenido solo podría ser utilizado bajo consentimiento expreso, «respetando así el esfuerzo inversor y la responsabilidad asumida por los editores de información». AMI recuerda también que la inteligencia artificial debe respetar que «los consentimientos de los editores de información y agencias de noticias sean prestados de forma granular y sin que ello afecte a la visibilidad de las marcas informativas en el conjunto del ecosistema de Internet del que las grandes plataformas son guardianes de acceso», tal y como ha declarado la Unión Europea. También exigen que los modelos de IAG sean transparentes frente al público y frente a los editores de información en el origen de las fuentes.