Inteligencia Artificial

¿Puede la IA morir con sus propias fake news?

La IA se alimenta de los datos que se le facilitan. Si uno de sus usos es la fabricación y propagación de noticias falsas (uno de los mayores riesgos, según el Foro Económico Mundial), ¿puede acabar la IA consigo misma alimentándose de nuevo de esos mismos datos inciertos generados por ella?

Hombre con traje y un monitor de televisión por cabeza
Hombre con traje y un monitor de televisión por cabezaDreamstime

La popularización de herramientas de inteligencia artificial (IA), para las que ya no se necesitan conocimientos especializados para su uso, ha contribuido a una explosión de la información falsa y de los denominados contenidos «sintéticos» (clonación de voces o páginas web falsificadas). En los próximos dos años, estos contenidos sintéticos manipularán a las personas, dañarán las economías y fracturarán las sociedades de innumerables maneras, según el informe The Global Risk Report 2024 elaborado por el Foro Económico Mundial.

Alimentarse de su propio error

Dado que la IA se alimenta de los datos que se le facilitan, nos preguntamos si es una posibilidad que se acabe matando a sí misma generando datos falsos de los que luego bebe.

«La mayor parte de datos incorrectos que difunden las herramientas de Inteligencia Artificial se deben a que los algoritmos no han sido entrenados con datos de calidad para garantizar que la información que nos brindan estos sistemas, el linaje de datos, la gobernanza y la calidad de los mismos juegan un papel clave», expone Mario Reiter, CCMO de evolutio.

Juan Carlos Sánchez, Regional Vicepresident España y Portugal de Cloudera, cree que el error es de planteamiento. «En vez de llevar los datos a la inteligencia artificial, tenemos que hacer que la inteligencia artificial venga a donde están los datos», expone, argumentando que «la inteligencia artificial generativa, cuando va en soluciones encapsuladas, no son capaces de dar contexto y se entra en esos continuos riesgos que conocemos, como los temas de seguridad, los temas de compliance, los temas de falta de contexto».

James Fisher, CSO de Qlik, añade en este punto que la confianza en la IA Generativa y en los datos que la alimentan es clave para que la tecnología sea aceptada por las empresas. «Con el riesgo que supone la desinformación, el uso de deepfakes y similares, se necesitará mucho trabajo para construir una relación basada en la confianza. Una forma de avanzar positivamente hacia ella es mejorando los datos con los que se entrenan los algoritmos de la IA, ya que la Inteligencia Artificial es tan buena como lo sean sus datos».

Evitar la contaminación

Pero, ¿cómo se logra que la IA no se alimente de estos datos falsos? «Tenemos que concebir los algoritmos como niños pequeños que aprenden a base de repetición y conforme a como son educados», explica el responsable de Evolutio. «Si los datos de los que se alimentan son fundados, veraces y proceden de fuentes legitimas, la información que procesen será correcta; si fuera al contrario, contribuirán a la desinformación. Es por ello que el papel del ser humano cobra un papel fundamental en el funcionamiento de la IA».

Sin embargo, lo cierto es que muchos de los modelos que se están usando han sido entrenados con datos de los que no sabemos su procedencia y, por tanto, su veracidad. Si un modelo ha sido entrenado con datos falsos, su uso puede también dar problemas a las empresas. «Nosotros abogamos por soluciones en las que las empresas puedan disponer de sus propios modelos, aunque sean soluciones de terceros, pero metidos en sus propias organizaciones. Pueden ser soluciones que no se tengan que programar desde el inicio, pero hay muchas plataformas que dan diferentes herramientas para que las empresas puedan entrenar los modelos con datos de valor», expone el responsable de Cloudera. «La inteligencia artificial también aprende de la veracidad de los datos, sobre conjuntos de datos que están validados, que están valorados».

En este punto entra también lo que muchos denominan «human in the loop», o la presencia humana en todo proceso. «Por mucho que la idea de ‘máquinas’ pueda evocar a la eliminación del factor humano, los algoritmos no se crean de la nada. Estos algoritmos son diseñados por personas. Además, los humanos desempeñan un papel importante en la selección y análisis de las fuentes de datos que alimentan a los algoritmos de IA y ML», destaca James Fisher, quien añade que si lo que se busca es sacar el mayor partido de la IA, «una de las mejores armas de una empresa es, precisamente, las personas. La involucración humana a lo largo del desarrollo de la IA puede garantizar que se utilicen datos de confianza y de alta calidad desde el principio, asegurando que lo que alimenta a cualquier algoritmo esté equilibrado para obtener información precisa y evitar sesgos».

Geolocalización contra la desinformación

Ante el avance de la desinformación, algunas agencias de inteligencia internacionales están usando la geolocalización asociada a los datos para abordar este problema con el fin de averiguar el origen de estas fake news.

«El 80% de la información que se genera tiene una componente espacial», asegura Aitor Calero, gerente del Área de Tecnología e Innovación y CTO de Esri España, puesto que «todo ocurre en algún lugar y toda la información se genera en algún lugar». El reto es poder averiguar dónde se ha generado esa información. «En muchos casos, esto es fácil porque conocemos perfectamente la fuente y podemos determinar su trazabilidad. Pero cuando hablamos de las fake news o granjas de bots que se dedican a generar desinformación, esto puede ser más complicado», añade.

Así, el uso de imágenes satélite, junto con imágenes tomadas localmente se pueden combinar para determinar si ciertos sucesos son o no reales. «También hay que tener en cuenta, que los modelos de generación automática de imágenes con IA pueden empezar a colarse en la ecuación y complicar aún más el tema. Aquí, es importante notar la mayoría de las imágenes que se toman con cámaras o teléfonos móviles, incorporan información de localización, mientras que las que se generan con IAs, no lo tienen. Por este motivo, la geolocalización puede ser crucial para determinar su veracidad», expone Calero.

Este experto en geolocalización asegura que todavía no se conocen casos en los que la IA haya falseado los mapas de navegación, pero reconoce que «el riesgo está ya ahí. Los nuevos modelos grandes de lenguaje no se han enfocado en la generación de información geográfica, pero es algo que llegará, y aquí es donde pueden darse casos peligrosos», puesto que combinando diferentes técnicas de hacking, ciberdelincuentes o potencias extranjeras enemigas «podrían tratar de generar información geográfica falsa, para inyectarla en sistemas de navegación y provocar disrupciones en sectores como el transporte, cadenas logísticas o, lo que es más peligroso, la defensa o las emergencias». Algo que tendría unas consecuencias y coste económico o humano «muy significativas».

La información falsa, el mayor riesgo mundial

El riesgo mundial más grave previsto para los próximos dos años es la desinformación y la información falsa, según el informe «The Global Risk Report 2024» elaborado por el Foro Económico Mundial.

Este estudio alerta del riesgo que la información falsa puede suponer, especialmente porque cerca de 3.000 millones de personas están llamadas a las urnas para elegir representantes y gobiernos. «El uso generalizado de la desinformación, así como de las herramientas para difundirlas, puede socavar la legitimidad de los gobiernos recién elegidos. Los disturbios resultantes podrían ir desde protestas violentas y delitos motivados por el odio hasta enfrentamientos civiles y terrorismo», advierte el informe.