Sección patrocinada por sección patrocinada

Verde

Los riesgos de la IA: del fin del trabajo a la extinción humana

Más del 90% de los deepfakes creados con IA son de carácter sexual, pero estas herramientas abren la puerta a cientos de estafas online, problemas con la propiedad intelectual o la expansión sin control de armas automáticas

Jóvenes con móviles
Jóvenes con móvilesDreamstimeDreamstime

Rosalía, Laura Escanes y ahora las niñas de Badajoz. Las fotos de desnudos no con sentidos son una parte más de los cientos de« fakes» hechos con inteligencia artificial que inundan internet. Un estudio realizado a finales de 2019 por Deeptrace Lab advertía que el 96% de los de deepfakes son de carácter pornográfico. La llamada IA generativa ha abierto la puerta a la creación masiva de «vídeos falsos» a partir de una sola foto real o incluso de una voz sintetizada, de textos con apariencia de noticia real o de identidades falsas con las que cometer estafas económicas.

La clave reside en el término masivo. Por ponerle un inicio, se podría decir que la época de los deepfakes arranca en 2018 con la aparición de un vídeo falso del entonces presidente de los EE UU Barack Obama. Sin embargo, lo que entonces pudo costar meses de trabajo de montaje y conocimientos especializados, ahora se puede hacer en minutos y sin necesidad de grandes conocimientos. La IA se ha democratizado. La herramienta que usaron los menores de Badajoz costaba solo nueve euros. «En noviembre de 2022 la empresa Open AI lanzaba globalmente su modelo masivo de lenguaje ChatGPT. En solo dos meses se han inscrito cien millones de usuarios. Nunca ha habido ninguna implantación tan rápida de una herramienta de software», comenta Vicent Botti, director del Instituto Universitario Valenciano de Inteligencia Artificial de la Universidad Politécnica de Valencia.

Las herramientas de IA Generativa como ChatGPT o Dall-E son muy potentes y pueden ayudar en áreas como la educación, la medicina, la jurisprudencia, etc., pero también plantean muchas cuestiones. Una de ellas tiene que ver con las alucinaciones. «ChatGPT se basa en un modelo estadístico enorme, que ha supuesto millones de dólares y de meses de entrenamiento. El sistema intenta predecir las palabras y genera contenido coherente a partir de los datos con los cuales ha sido entrenado. Sin embargo, hay respuestas que no son ciertas. Hice una prueba poniendo mi nombre para que me dijera quién soy y los resultados parecían coherentes con mi perfil pero no eran todos ciertos. Estas alucinaciones generan preocupación por lo que se están haciendo grandes inversiones para minimizarlas», matiza Richard Benjamins, experto en I A, Chief Responsable AI Office en Telefónica y co-fundador de OdiseIA.

Para un experto en una materia cotejar una «creación» de ChatGPT puede ser sencillo, pero ¿qué pasa si un niño hace un trabajo usando esta herramienta?, ¿sabrá distinguir la verdad de las mentiras? Por otro lado, ¿el texto resultan te es una creación original nueva? Si se usa de forma profesional, ¿alguien tiene derecho a cobrar por los textos? ¿y pagar por los que se usaron de base? Son preguntas que están encima de la mesa. Lo acabamos de ver en la huelga de guionistas de Hollywood que acaba de terminar. El Sindicato WGA afirmaba esta semana que se ha llegado a un acuerdo tras unos 150 días de huelga en el que se establece que la IA no puede escribir o reescribir material literario.Además, el material generado por esta tecnología no será considerado como original. Los guionistas podrán hacer uso de la IA, pero las compañías no pueden exigirles que la usen en su trabajo.

Regulación

Hace unos meses la organización Future of Life Institute (una organización sin fines de lucro) lanzó una petición de moratoria para los desarrollos de IA. La firmaban cientos de investigadores y empresas de todo el mundo. Entre sus valedores, Elon Musk (uno de los primeros inversores de Open AI) ; el cofundador de Apple, Steve Wozniak o Geoffrey Hinton, padre de las redes neuronales. La iniciativa no ha prosperado.

Entonces, ¿es necesario parar los desarrollos o es solo cuestión de regular mejor? La Comisión Europea prepara una regulación sobre IA, que, en el mejor de los casos, entrará en vigor en 2025.« La primera idea que subyace en este texto es que no se regula la inteligencia artificial como tal, al igual que hay legislación sobre la inteligencia natural. No se trata de regular los algoritmos sino lo que se hace con ellos; regular solo los usos de alto riesgo y los malos usos. Esto no significa que hasta que no haya una ley no existe ninguna regla. Los delitos ya están penados; una estafa es una estafa se haga con inteligencia artificial con phishing o recurriendo al timo de la estampita. Además, aparecen leyes específicas según se extiende el uso de esta tecnología. El Código Penal se reformó en 2015 para incluir los medios digitales y los ciberdelitos. Es verdad que con Internet ha habido un boom de delitos; es fácil crear imágenes y distribuirlas, pero lo que hacen los filtros de TikTok ya lo hacían laboratorios fotográficos o Photoshop», dice Borja Adsuara, experto en Derecho Digital. «La IA es una tecnología muy transversal que puede ayudar a mejorar la calidad de vida de las personas mayores, por ejemplo. En medicina podemos encontrar multitud de casos en los que la inteligencia artificial puede ayudar en un diagnóstico a través de imágenes. Puede servir como herramienta para aumentar la creatividad en el trabajo y hay casos sorprendentes como el de una mujer que hace 18 años perdió la capacidad de hablar y la ha podido recuperar gracias a un implante cerebral e inteligencia artificial. Alexa, Siri o GoogleMaps y otros sistemas de recomendación son herramientas que usamos todos los días de forma positiva. No se debe prohibir tal cual», recuerda el profesor de la UPV.

La inteligencia-artificial aplicada de forma masiva presenta retos de lo más variado, desde vulneraciones del derecho al honor, a la intimidad, a la propia imagen, hasta los más preocupantes como el fin de la raza humana que preconizaba Stephen Hawking. En términos de empleo, prácticamente es unánime la opinión de que la IA va a afectar a muchos sectores, lo que no está tan claro es si solo va a trasladar puestos de trabajo de unas especialidades a otras o si va a reducir la necesidad de mano de obra. Lo cierto es que «no hay estudios concluyentes. Lo que sí se está de acuerdo es con el aumento de la productividad; desde los 80 ha crecido, pero los salarios no lo han hecho. Llegará un momento en que no será necesario que todo el mundo trabaje, se recaudarán menos impuestos y más personas necesitarán una ayuda social. Pero este tipo de reflexiones a día de hoy solo se dan en los think tanks y no se dan en los gobiernos. Otro problema que plantea es la concentración de la riqueza en manos de pocos actores, en este caso, las grandes empresas tecnológicas. Hay que distribuir la riqueza y este tema está muy relacionado con el trabajo. También hay un reto con la educación. Es fundamental enseñar desde muy jóvenes para evitar temas como la adicción a la tecnología o la obsesión por la imagen o por la privacidad. Sobre muchos de estos asuntos no se puede regular; solo educar», dice Benjamins.

Eso por no hablar del campo militar. El armamento autónomo controlado por la IA suscita preocupación si de ella se deriva una pérdida de control humano en la toma de decisiones finales. Lo hemos visto en Ucrania, en el uso de reconocimiento facial con Clearview de soldados enemigos fallecidos para avisar a sus familias (Clearview usaba fotos recogidas de perfil es de redes sociales para reconocer a cualquier personas con perfil) o sobre todo en el uso drones dirigidos desde tierra y programados para detectar objetivos. «Debería haber un tratado global sobre el uso en el sector militar por difícil que sea. Y, al mismo tiempo, se debería invertir en aplicar la IA para los ODS o retos como la crisis climática, pero no está pasando porque no genera tantos beneficios. Esta parte la están llevando las fundaciones, ONGs y, en menor medida, los gobiernos. Pero no está tan apoyado por capital privado», opina Benjamins.

Preguntado por otros retos pendientes, el investigador de la UPV comenta: Los sistemas de IA pueden servir para perpetuar prejuicios sociales. Hemos visto que muchos sistemas tienen sesgos a la hora de aprobar seguros o conseguir una contratación laboral. En estos casos, se trata de incorporar la ética desde la fase del diseño, de manera que las aplicaciones sean respetuosas con la privacidad de las personas”. Por último, para el experto en derecho Borja Adsuara: «Hay temas que no se tratan, pero en los que podría tener una aplicación positiva. Por ejemplo, en la gestión de política pública, para evaluar los resultados de las inversiones o diseñar los programas. Donde espero que se aplique también en la Administración de Justicia. Es cierto que cada caso es un mundo, pero hay algunas disputas que son sota, caballo y rey. Sería bueno tener un borrador como el que tiene Hacienda para estos casos sencillos porque un porcentaje de las reclamaciones de pequeñas cuantías se podría resolver de forma automática visto el atasco que hay. Luego lo revisaría un juez».

Rosalia en el Primavera Sound de Madrid. David Jar
Rosalia en el Primavera Sound de Madrid. David JarDavid JarLa Razón

El 96% de los «fake» tienen que ver con el porno. Sin embargo, hay muchos ejemplos de estafas. Solo en Linkedin se han identificado más de 21 millones de cuentas falsas en 2022, eso significa que uno de cada cuatro usuarios era un bot. En algunos casos estos perfiles se crean como señuelo de ofertas de empleo fraudulentas que acaban en estafas económicas

British comedian and actor Stephen Fry poses for photographs with a BAFTA (British Academy of Film and Television Arts) statuette during a photo call to mark the announcement of the BAFTA award nominations in London, Friday, Jan. 9, 2015. Fry will be the host of the ceremony on Feb. 8 at the Royal Opera House in London and announced the nominations Friday with British actor Sam Claflin. (AP Photo/Matt Dunham)
British comedian and actor Stephen Fry poses for photographs with a BAFTA (British Academy of Film and Television Arts) statuette during a photo call to mark the announcement of the BAFTA award nominations in London, Friday, Jan. 9, 2015. Fry will be the host of the ceremony on Feb. 8 at the Royal Opera House in London and announced the nominations Friday with British actor Sam Claflin. (AP Photo/Matt Dunham)Matt DunhamAP Photo

La IA también ha llegado a la voz sintética- El actor Stephen Fry, conocido por ser el narrador de la saga de libros de Harry Potter o por participar en películas como V de Vendetta, denunciaba recientemente que han plagiado su voz para narrar un documental en el que él no participaba.

Una cuestión de geopolítica

Se dice que quien domine el desarrollo de la IA y la tecnología dominará el mundo durante este siglo. Los dos principales actores en esta disputa internacional son China y EE UU. «EE UU todo lo hace contra China para intentar ganarles un poco de terreno, porque China es el país más avanzado en este tema. En IA y en 5G ya son los primeros en la carrera, lo que les da una ventaja comercial, por ejemplo, en la implantación de los coches autónomos. Se puede decir que estos dos países son los jugadores de un partido internacional en el que Europa sirve de árbitro y de terreno de juego. Aquí legislamos mucho, lo cual nos resta ventaja en innovación. Por el contrario, los EE UU tienen un sistema legal de código abierto, donde lo que no está directamente prohibido está permitido», puntualiza Adsuara.