Cargando...

ciencia

Internet ha muerto. La IA está borrando a los humanos de la red

Sam Altman, fundador de OpenAI, sorprendía hace días avivando esta teoría de origen conspirativo, pero lo cierto es el que contenido artificial y las creaciones de bots ya suponen más del 50% de los que circula online

La firma de IA de Google, Deepmind, propone un código ético para que los desarrollos no manipulen a los usuarios en su propio beneficio Dreamstime

Con la IA cada vez más presente en la red, es difícil saber si los comentarios de los lectores que generará este artículo pertenecen de verdad a personas o son bots los que los crearán, si el «me gusta» que recibe nuestro perfil de Instagram es real o incluso si el contenido de nuestras cuentas preferidas en TikTok o X es de origen humano.

Internet parece vivo; cada día se producen millones y millones de interacciones y, sin embargo, la presencia humana resulta cada vez más minoritaria. Tan menguante que ya en torno a 2016 se acuñó la teoría de «la muerte de internet» que postulaba una red dominada por legiones de bots y contenidos creado de forma artificial, replicados y duplicados hasta la saciedad, cada vez más planos, menos auténticos y creativos y, por supuesto, con riesgo de ser manipulados. José Luis Vázquez Poletti, profesor del departamento de Arquitectura de Computadores y Automática de la Universidad Complutense de Madrid detalla que «estas ideas comenzaron a surgir en comunidades como 4chan (caótico y gamberro) o Reddit (más estructurado y regulado). No obstante, fue a principios de 2021 cuando un usuario llamado IlluminatiPirate publicó un post llamado Ágora Road’s Macintosh Café, en el que acuñaba el término, afirmando que la mayoría de la Internet es falsa».

Esta teoría ha vuelto a cobrar fuerza raíz de las declaraciones hace unos días de Sam Altman. fundador de OpenAI, quién comentó en sus redes que la muerte de Internet podría hacerse realidad antes de lo que pensamos. «Hay muchas cuentas de X administradas por Modelos de Lenguaje Natural», decía. Tras las declaraciones de Altman, las opiniones de los usuarios de internet no se han hecho esperar. Entre los más críticos quienes argumentan, no sin razón, que él mismo al frente de su empresa ha contribuido al fenómeno de multiplicación de bots y de contenido «sintético». Por otro lado, están quiénes postulan que este anuncio no es gratuito y vinculan los comentarios a su proyecto World Network, que tiene como objetivo verificar la identidad humana del mundo online.

Pero, detrás de estas críticas y dudas a Altman, ¿hay personas? ¿No serán los bots los que han generado estas opiniones? «El consenso en la mayoría de los estudios sobre la “web visible” (es decir, la accesible a los motores de búsqueda) indica que el contenido generado artificialmente supera el 50%: Según Forbes Australia (junio 2025), el 57% del contenido textual está generado o traducido por IA», detalla el investigador de la UCM. Otro informe, este del Pew Research Center, afirma que el 38% de las web hechos por el hombre de 2014 ya no existen y también apuntan a que uno de cada cinco tuits ya no son visibles públicamente apenas meses después de ser publicados. «En el 60% de estos casos, la cuenta que publicó el tuit desapareció». Esta falta de vitalidad digital «humana» provoca, dicen los estusio, una red cada vez más fragmentada y menos útil al propósito de interconexión global que prometió.

La salida al mercado de ChatGPT en 2022 ha contribuido significativamente al boom de contenido artificial. Según el estudio «Bad bot» de la firma de ciberseguridad americana Imperva, el contenido creado por la IA ha crecido del 42,35% en 2021 al 49,6% en 2023. «Parece que ya hemos llegado a un punto de inflexión, pero mi impresión es que se trata de un fenómeno que todavía está emergiendo. Porque, ¿cuáles son los incentivos que tienen ahora mismo quienes usan bots? Imagínate que uno es un Youtuber poco ético y en lugar de esperar a tener audiencia, para que Youtube comparta los ingresos publicitarios, finge que tiene una audiencia que, en realidad, no tiene. Hay muchos casos así, que lo que buscan es el rédito económico, pero los contenidos en esos casos no tienen por qué ser artificiales, matiza Antonio Ortiz, creador y director de estrategia de medios digitales y analista de IA.

Incendios forestales

Uno de los peligros de los ejércitos de bots que invaden la red y de los contenidos artificiales es la expansión de la desinformación. Los bots no solo crean contenidos sino que saben exactamente cómo difundirlo masivamente. Y cada vez más, lo que empieza como una broma o un rumor que al principio es fácil de obviar y solo produce una sonrisa, al cabo de los meses se ha transformado en una señora teoría que cuenta con cientos de seguidores. ¿Qué ha sucedido? Es lo que ha estudiado un grupo de investigadores de la Universidad de Vermont y el Instituto de Santa Fe (organización sin ánimo de lucro) que ha inventado un modelo matemático para explicar cómo se generan los bulos en internet y cómo se produce el contagio social y lo han comparado con los incendios forestales. Los contenidos virales cambian a medida que se propagan, y ese cambio les ayuda a extenderse. «Los amigos de los usuarios son más influenciables que los propios titulares de la cuenta», dicen.

Proteger la red humana

«¿Qué es ya humano y qué no en la red», se preguntaba ya en 2024 uno de los fundadores de Twitter. Y es que otro de los asuntos que plantea la IA es dónde está la línea que separa el contenido original del artificial. Porque la tendencia señala una mezcla de creaciones que no serán ni un cien por cien producidas por IA ni un 100% humanas. Si uno usa ChatGPT o cualquier otra IA para que le de ideas o el ayude con la estructura de un texto, ¿la creación deja de ser del humano que la firma? Y por otro lado, ¿el contenido que crea la IA se puede considerar original «de la máquina» cuando empresas como Open Ai se enfrenta a múltiples denuncias por violación de los derechos de autor por usar textos para sus entrenamientos?

Para protegernos de los peligros que nos arroja la red como usuarios, los consultados aluden a nuestra capacidad para estar cada vez más vigilantes y «experimentar las cosas por nosotros mismos para confirmar su veracidad. Vamos a un escenario en el que tenemos que autoeducarnos y lo primero que vamos a tener que hacer es mirar quién es el emisor y su reputación y rigurosidad. En el campo de la información van a salir beneficiados precisamente los actores que sean rigurosos», comenta el analista de IA Antonio Ortiz.

Enrique Dans, profesor de Innovación en IE Business School, matiza, sin embargo, que no es tan fácil proteger la red de todos estos bots y sistemas artificiales o cuentas falsas creadas a propósito. Primero porque «hay una guerra constante. Del mismo modo que aparece gente que quiere ganar dinero vendiendo followers o likes de YouTube, las compañías como YouTube, X, etc., intentan controlar ese tipo de fenómenos artificiales, pero, claro, tomar la decisión de cargarse de repente cien mil cuentas, baja la popularidad en la red y, por tanto, afecta la cuenta de resultados. Hasta cierto punto, a las Big Tech les interesa esa inflación de contenido. Segundo, por la autocensura. Imagínate que espero una opinión y aparecen miles de comentarios que afirman que estoy diciendo una barbaridad, que igual ni son genuinas. En realidad estas cosas que suceden son una forma de manipulación porque lo que consigue nes la autocensura de la persona que la próxima vez igual se calla viendo lo que generó su punto de vista».

Singularidad

►Visto que los bots cada vez nos necesitan menos, generan su propio contenido, sus propias cuentas, se dan la réplica entre ellos, ¿puede convertirse internet en el primer ámbito en el que veamos la tan anunciada Singularidad, cuando la IA supere la capacidad de comprensión humana? Para el profesor de la UCM Vázque Poletti, «Internet se erige como heraldo de esta singularidad. Decía John von Neumann, uno de los padres fundadores de la informática que el progreso tecnológico se acerca a un punto más allá de la cual los asuntos humanos dejarán de ser como los conocemos. Y, ciertamente, hoy estamos viendo con claridad algunos de esos efectos en nuestra sociedad. Afortunadamente, todo proceso puede revertirse, y en este caso resulta imprescindible una concienciación colectiva en la que el uso responsable de las tecnologías se imponga como necesario».