Diálogo artificial

Yuval Noah Harari, historiador y experto en tecnología, sobre una de las cuestiones que está destruyendo internet: "Debemos eliminar a los bots que fingen ser humanos"

Para el filósofo israelí la importancia de la calidad de la información que recibimos es fundamental como base para un diálogo razonado, algo que se pierde con el contenido artificial

Yuval Noah Harari, nacido en Israel, es un escritor prolífico y un gran tecnólogo
Yuval Noah Harari, nacido en Israel, es un escritor prolífico y un gran tecnólogoDifoosion

Con el auge de la inteligencia artificial y sus aplicaciones, también surgen debates interesantes acerca de hasta dónde se debe dejar llegar su recorrido y las consecuencias que pueden derivar de él. Algo que expertos como Yoshua Bengio, uno de los precursores en el campo de la IA, lleva tiempo denunciando.

Una línea de opinión que comparte otra de las voces más autorizadas a la hora de hablar de inteligencia artificial y evolución como es Yuval Noah Harari. El filósofo y escritor israelí es el autor de la obra Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA y son frecuentes sus reflexiones acerca de las caras ocultas que puede haber tras todo lo que rodea a esa nueva tecnología que es objeto de deseo de grandes corporaciones.

Prohibir a los "humanos falsos" para recuperar el diálogo razonado

En una de sus últimas manifestaciones, Noah Harari señalaba en una publicación recogida por el medio especializado Big Think que, para evitar situaciones que pongan en riesgo la “conversación razonada y democrática” hay una medida que es necesario adoptar cuanto antes: “Para proteger la conversación entre personas, necesitamos prohibir que los bots participen en la conversación. Necesitamos prohibir a los bots que fingen ser humanos”, destaca Yuval Noah Harari en su reflexión.

Una conclusión a la que llega con una base que explica desde la propia evolución humana y la que también llevan a cabo las sociedades democráticas a través del camino de lo que Noah Harari llama “autocorrección”.

El historiador y filósofo israelí equipara el aprendizaje de un niño a la hora de dar sus primeros pasos con el proceso de elecciones y de alternancia política que pueden llevar a cabo los países mediante procesos electorales y señala que ambos son mecanismos de autocorrección.

Lo que sucede es que, en el caso de la política, esa corrección se ve influenciada por los discursos que reciben los electores y que deberían ser la base sobre la que sustentar un diálogo razonado. Sin embargo, para Yuval Noah Harari los asistentes de inteligencia artificial están distorsionando el significado de democracia al “secuestrar” mediante sus algoritmos esa conversación:

“Contamos con la tecnología de la información más sofisticada de la historia y estamos perdiendo la capacidad de hablar entre nosotros para mantener una conversación razonada”

Yuval Noah Harari, en un escrito recogido en Big Think

Ante este escenario, Yuval Noah Harari apunta, ante todo, a una identificación clara y expresa de todo aquel contenido que haya sido generado con inteligencia artificial, tal como se está exigirá hacer en China.

Como medida complementaria, Noah Harari señala que también sería conveniente una “dieta informativa”: “La información es el alimento de la mente. Más información no siempre es buena para ti. En realidad es bueno, de vez en cuando,Tómate tiempo para los ayunos de información”, escribió el filósofo israelí.

Con esa reflexión Yuval Noah Harari quiere poner de manifiesto la imperiosa necesidad de que las personas presten la debida atención al nivel y la calidad de la información que reciben y que la analicen de manera crítica, puesto que es el sustento de la mente y de cuanto debe emanar de ella: “Si alimentamos nuestra mente con toda esta información basura llena de codicia, odio y miedo, tendremos mentes enfermas”, ´concluyó Noah Harari.