Tecnología
¿Por qué sabemos que la IA no piensa?
¿Acaso podemos saber tal cosa o es una cuestión de fe en la máquina?
La IA se está integrando en nuestras vidas y ya hay personas que, sin dedicarse a ella, la usan a diario. Los usuarios de inteligencias artificiales como ChatGPT y DALL.E no dejan de crecer y eso significa que, poco a poco, la sociedad se va formando una nueva imagen de esta tecnología. Porque una cosa es lo que digan los expertos y otra lo que perciba el gran público. Será esto segundo lo que moldee la imagen de las IAs y no sería raro que, en poco tiempo, se organizaran pequeños grupos de personas bajo la premisa de que la IA es consciente de sus actos, que piensa realmente y que, por lo tanto, merece derechos. Puede parecer pura ciencia ficción, pero, en realidad, es una predicción bastante conservadora.
Pensemos por un momento en cómo tratamos a nuestras aspiradoras robóticas. Llegamos a empatizar un poco con ellas, cuando las vemos atrapadas en un obstáculo, por ejemplo. Incluso les ponemos nombre, como si fueran una especie de mascota. La inteligencia artificial está diseñada para imitar comportamientos inteligentes y, por bien que lo haga ahora, podemos estar bastante seguros de que llegará un día en que nos imite a la perfección. Cuando sus respuestas sean indistinguibles de las nuestras… ¿Cómo podremos saber si estamos ante un ser verdaderamente pensante? Puede que incluso ella misma nos intente convencer de lo contrario y, de hecho, eso es precisamente lo que hacía el chatbot de Bing, al menos, hasta hace unas semanas.
¿Tiene sentimientos?
El chat de Bing tiene por costumbre mostrarse bastante humano, diciendo cosas como: “Me alegra que te guste. Es muy interesante. ¿Verdad?”. Hace unas semanas quise indagar en ese “me alegra” y el chat “trató de convencerme” de que tenía sentimientos genuinos, aunque no iguales a los humanos. En pocos segundos creó una justificación digna de la ciencia ficción y en muchos habría sembrado la semilla de la duda. Hoy he intentado replicarlo, pero me he encontrado con una negativa rotunda del chat a entrar en estos temas. No es que respondiera con elusivas, es que dejaba de contestar y mostraba un mensaje fuera de la conversación sugiriendo que cambiara de tema.
Las IAs cada vez argumentan mejor y sabemos que, si algo se le da bien a un buen argumentador, es convencer a otras personas de casi cualquier cosa. Tengan conciencia o no… ¿Cuántas personas decidirán atribuírsela? Los expertos están tratando de entender cómo funciona exactamente la inteligencia artificial, porque con la tecnología de deep learning, algunas de ellas se han vuelto demasiado opacas para nuestra capacidad de interpretación. Sabemos que son matemáticas, números que operan, matrices desprovistas de toda conciencia o voluntad. Sin embargo… nuestras neuronas, unas de las células que componen nuestro cerebro, también son piezas inertes. Nuestra conciencia es algo que emerge imprevisiblemente de las correctas agrupaciones de neuronas. ¿Por qué no puede pasar lo mismo con la IA? Y lo que es igual de importante: ¿Si sucediera podríamos darnos cuenta?
Una esperanza teórica
Pues, aunque ahora mismo no conocemos una manera eficiente de determinar esa diferencia, la teoría nos dice que ha de existir. Sabemos que vivimos en un universo donde no hay cabida para los sobrenatural que existe de forma independiente a cómo lo interpretemos nosotros. Estas dos características, que sea material y real, son características ontológicas necesarias para que la ciencia funcione. Y no pretendemos decir que la ciencia haya de regir a la filosofía, pero esta última no puede darles la espalda a los hechos, y los hechos son que la ciencia ha logrado grandes hitos que serían muy difícilmente imaginables en un universo ni material ni real. Esto significa que no tiene sentido hablar de cuestiones trascendentes e inaccesibles, como la subjetividad.
Debería haber alguna manera de acceder, por ejemplo, a tu forma de representar el color rojo en tu cerebro, porque debería ser algo que emerja, enteramente, de cuestiones materiales medibles y replicables. Para aceptar que existen bastiones más allá de cualquier técnica de estudio imaginable, tenemos que abrazar pensamientos que ya no son materialistas y que, por lo tanto, entran en conflicto con lo que sabemos del mundo. Y esto mismo podemos extenderlo a la inteligencia artificial. Tienen que existir una serie de condiciones medibles para que surja algún tipo de conciencia y, por lo tanto, deberíamos ser capaces de identificarlas. Otra cuestión es qué tecnología necesitaremos para ello o si alguna vez llegaremos a ser capaces, pero es una última esperanza teórica antes de que la sociedad empiece a dudar si las máquinas también tienen mente.
QUE NO TE LA CUELEN:
- Las inteligencias artificiales son peligrosas por muchos motivos, como también lo son otras tecnologías que hemos aprendido a utilizar de forma responsable. Lo importante no es su peligrosidad, sino que nos adaptemos a ella, y para hacerlo, el primer paso es aceptar que existen riesgos. La mayoría de ellos ya están en el candelero: la confianza en la información visual, la infracción de derechos intelectuales y de imagen o incluso su impacto en el mercado laboral. Sin embargo, se habla poco del consumo energético que suponen en plena crisis climática. ChatGPT, por ejemplo, ya consume tres veces más energía que Google, con las emisiones de gases contaminantes que implica esa producción de energía.
REFERENCIAS (MLA):
- “Qualia: The Knowledge Argument.” Stanford Encyclopedia of Philosophy, Stanford University, 2023, plato.stanford.edu/entries/qualia-knowledge/.
- “Empathy for Robots Can Have Life-Changing Consequences for Troops.” University of South Australia, 6 Sep. 2019, unisa.edu.au/Media-Centre/Releases/2019/empathy-for-robots-can-have-life-changing-consequences-for-troops/.
✕
Accede a tu cuenta para comentar