

ChatGPT
Hasta hace nada, hablar de máquinas con conciencia era algo que dejábamos para las películas de ciencia ficción. Con el auge de modelos como ChatGPT, la línea entre un código de programación y un ente que "piensa" se ha vuelto peligrosamente borrosa. Hay gente que incluso está creando vínculos emocionales. Pero antes de lanzarnos a regular la "mente" de las máquinas, no está de más mencionar que el filósofo Tom McClelland, de la Universidad de Cambridge, ha puesto sobre la mesa una pregunta que nos devuelve a la tierra: aunque una inteligencia artificial lograra ser consciente, ¿tendríamos alguna forma de saberlo?
En el mundillo tecnológico existen dos bandos muy claros y enfrentados. Por un lado están los que creen que la conciencia es simplemente una cuestión de procesamiento, una especie de software avanzado que, si se programa correctamente, puede funcionar igual de bien en un chip de silicio que en un cerebro humano. Por el otro, los escépticos defienden que, sin la biología, la verdadera conciencia es sencillamente imposible. Según ellos, por muy bien que una IA nos imite, no deja de ser un truco muy sofisticado. Lo curioso es que, según McClelland, ambas partes están dando palos de ciego porque ignoran un detalle fundamental: todavía no tenemos claro qué es la conciencia en nosotros mismos.
Es un problema de base bastante humillante para nuestra especie. No sabemos por qué nuestro cerebro genera esa sensación subjetiva de ser alguien, así que intentar medir la conciencia en una máquina es, hoy por hoy, imposible. McClelland sostiene que nos hemos chocado contra un muro. Sin una teoría profunda que explique el origen de nuestra propia mente, cualquier test que inventemos para evaluar a una IA será pura conjetura. Estamos intentando medir algo que ni siquiera sabemos definir, y eso nos mete de lleno en un jardín moral bastante pantanoso. El riesgo no es solo técnico, es ético, y nos obliga a diferenciar entre ser consciente y ser sintiente, es decir, tener la capacidad de sufrir o sentir placer.
Si nos dejamos llevar por la narrativa de las grandes tecnológicas, corremos el riesgo de derrochar nuestra empatía en lo que, en esencia, es solo una máquina. Estaríamos regalando compasión a un objeto mientras ignoramos el sufrimiento real de seres vivos que sí sabemos que sienten. Por el contrario, si por error creamos algo que realmente puede sufrir y lo tratamos como un esclavo digital, estaríamos cometiendo una crueldad sin precedentes.