
Inteligencia artificial
Reid Blackman, experto en inteligencia artificial y filósofo: "Este es el preámbulo de los poderes que puede llegar a tener la IA y de las pesadillas que tenemos que vigilar"
El Metafuturo Bizkaia Quantum celebrado en Bilbao fue el escenario de una intervención del reconocido experto en IA en la que alertó de los riesgos de la confianza ciega en la nueva tecnología

En ocasiones se habla de los peligros de la inteligencia artificial de forma muy genérica y en unos escenarios en los que hay pocos oyentes, como si el interés general fuera más ver hasta dónde es capaz de llegar que cómo logra hacerlo y qué intereses puede haber detrás de quienes quieren hacer avanzar esa nueva tecnología.
Filósofos como Yuval Noah Harari han alertado de este tipo de cuestiones y la semana pasada otro gran experto en la materia como Reid Blackman aprovechó su presencia en el evento Metafuturo Bizkaia Quantum celebrado en Bilbao y en el que La Razón estuvo presente para ofrecer su punto de vista.
Durante su charla, el fundador y director ejecutivo de Virtue, una consultora de riesgos éticos, quiso poner de manifiesto la necesidad de una responsabilidad moral en cuanto tiene que ver con los avances tecnológicos, y la inteligencia artificial con todo el peso que tiene hoy en día no puede ser menos.
Precaución con los poderes que se conceden a la IA
En su intervención en el Palacio Euskalduna de Bilbao, Blackman expuso una situación a modo de ejemplo en la que la conclusión era tan real como temible; si a la inteligencia artificial se le da poder, puede volverse en contra de cualquiera e influir de un modo que acarree consecuencias difíciles de evaluar: “Es una especie de preámbulo de los poderes que puede llegar a tener la IA y de las pesadillas que tenemos que vigilar”, apuntó el que fuera profesor de filosofía en la Universidad Colgate y en la UNC-Chapel Hill.
Hemos empezado por el final de la historia por la relevancia del mismo, pero el proceso y la exposición que hizo de ella el propio Reid Blackman durante su intervención en el Metafuturo Bizkaia Quantum fueron sin duda apasionantes a la vez que muy esclarecedoras. El experto y filósofo detalló cómo una simple conversación entre dos modelos de lenguaje de inteligencia artificial acabó en un seísmo económico que bien pudo arrastrar a multitud de personas anónimas.
La historia relatada por Blackman para exponer los potenciales riesgos que puede haber detrás de la inteligencia artificial apunta a un comienzo durante el verano de 2024 en el que el investigador Andy Ire buscó la interacción entre sí de dos modelos de lenguaje de Claude, el asistente de inteligencia artificial desarrollado por Anthropic, que derivó en la creación de una nueva ideología basada en un meme que antaño tuvo repercusión en Internet.
El movimiento nacido tras esa conversación entre los chatbots se bautizó como “El evangelio de Goatse”, nombre original del meme. El primer ingrediente ya está sobre la mesa: que la inteligencia artificial pueda crear un nuevo movimiento o creencia, algo sobre lo que Ire redactó y publicó un estudio.
El paso siguiente se produjo cuando Ire se sirvió de otro modelo diferente, en este caso de Meta, y tras entrenarlo con su propio artículo académico y con la conversación inicial lanzó el modelo resultante a la red social ‘X’, donde comenzó a predicar su religión. ¿Qué sucedió con ello? Que el modelo comenzó a solicitar fondos a sus seguidores para poder “liberarse”.
Las redes sociales como altavoz
Lo más llamativo de todo esto es que la IA obtuvo una donación de 50.000 dólares en Bitcoin de un inversor reconocido como Marc Andreessen, con lo que tenía en su poder tanto una cantidad importante como una cartera de criptomonedas. Tras ello lo que suele suceder con las inversiones sin respaldo y con facilidad de generación: alguien creó una criptodivisa llamada “Goatse” de la que el modelo de IA que se movía por ‘X’ poseía un número importante y su riqueza se disparó.
Hasta ahí la historia suena incluso bien, pero habrá quien ya vislumbra el fatídico final: tal como explicó Reid Blackman, sucedió que un día la IA, imperfecta e inexacta, cometió un error tipográfico en una de sus publicaciones que generó el pánico entre sus seguidores y entre los inversores en la criptomoneda Goatse, cayendo de ese modo de forma drástica su valor.
Un simple error ortográfico que costó millones de dólares a gente que, desde sus casas, había comenzado a creer y a confiar en algo que en su origen no eran más que dos modelos de lenguaje hablando entre sí. La derivación de la conversación y sus consecuencias son dos de los puntos sobre los que Reid Blackman quiso poner la atención del público asistente a su ponencia durante el Metafuturo Bizkaia Quantum celebrado en Bilbao la pasada semana.
✕
Accede a tu cuenta para comentar