Futuro
Google publica un estudio que dice que la IA está arruinando internet
“La mayoría de los avances se implementaron con la intención de influir en la opinión pública, permitir actividades fraudulentas o estafas, o generar ganancias”, señalan los autores.
A esta altura ya ha quedado claro que la inteligencia artificial es un arma de doble filo y que necesita una regulación para que podamos aprovechar su potencial sin que ello nos perjudique a largo plazo. Con esto en mente, un equipo de científicos de Google, liderados por William Isaac, director de Deep Mind, ha publicado un estudio que advierte que la IA generativa está arruinando áreas de Internet con contenido falso.
El estudio, señala que la gran mayoría de los usuarios de IA generativa están aprovechando la tecnología para “difuminar la línea entre autenticidad y engaño” al publicar contenido de IA falso o manipulado, como imágenes o vídeos, en Internet. El equipo de Isaac también analizó estudios previos sobre la IA generativa y alrededor de 200 artículos de noticias que informaban sobre el uso indebido de la IA generativa.
“La manipulación de la imagen humana y la falsificación de pruebas son la base de las tácticas más frecuentes en los casos de uso indebido del mundo real – concluyen los autores -. La mayoría de estos se implementaron con una intención discernible de influir en la opinión pública, permitir actividades fraudulentas o estafas, o generar ganancias”.
Para agravar el problema, los sistemas de IA generativa son cada vez más avanzados y están fácilmente disponibles, de hecho “requieren experiencia técnica mínima”, afirma el estudio, y esta situación está distorsionando la “comprensión colectiva de la realidad sociopolítica o el consenso científico” de la gente.
El problema es que el estudio retrata una cara B de la IA: su funcionamiento fue diseñado para llevar a cabo también este tipo de tareas, está en su ADN. De ese modo no se trata de la tecnología, sino de quienes las han diseñado y con qué objetivos. Y aquí es cuando la propia Google tiene parte de la responsabilidad al permitir que estos contenidos falsos proliferen o incluso ha sido su origen, ya sean imágenes o información falsa.
Según los autores, este dilema también está poniendo a prueba la capacidad de las personas para distinguir lo falso de lo real: “Del mismo modo, la producción masiva de contenido sintético de baja calidad, similar al spam y nefasto, corre el riesgo de aumentar el escepticismo de la gente hacia la información digital y sobrecargar a los usuarios con tareas de verificación”, explican en sus conclusiones.
Tanto es así que en el estudio se hablan de casos en los que “individuos de alto perfil pueden explicar evidencia desfavorable como generada por IA, cambiando la carga de la prueba de maneras costosas e ineficientes”. Y la realidad es que esto recién empieza.
✕
Accede a tu cuenta para comentar