

Tecnología
La pregunta que obsesiona a filósofos y científicos de todo el mundo ya no es si la inteligencia artificial será más inteligente que nosotros, sino algo mucho más desconcertante: ¿Cómo sabríamos si en algún momento se vuelve consciente? La respuesta que emerge del debate académico es tan incómoda como fascinante: probablemente nunca lo sepamos.
Según publica la Universidad de Cambridge a través de investigaciones recientes, un filósofo especializado en este campo sostiene que nuestras limitaciones para entender la consciencia humana nos dejan huérfanos de herramientas para detectarla en máquinas. El razonamiento es desolador: si no sabemos exactamente qué causa la consciencia en nosotros mismos, ¿cómo podríamos crear un test válido para determinarla en un programa informático?
Este dilema no es académico ni baladí. Tiene consecuencias prácticas inmediatas. Como señalan desde la comunidad científica internacional, existe un riesgo tangible de que la industria tecnológica se aproveche precisamente de esta incertidumbre para realizar afirmaciones exageradas sobre las capacidades de sus sistemas. Si nadie puede demostrar concluyentemente que un chatbot no es consciente, ¿quién puede refutar las promesas de empresas que aseguran haber creado algo extraordinario?
El debate toca un punto neurálgico que los filósofos conocen como el "problema difícil" de la consciencia. Como recogen investigadores españoles que estudian este fenómeno, existe una grieta explicativa entre lo físico y lo experiencial: ¿cómo transforman los procesos materiales del cerebro en lo que sentimos, en esa sensación de existir y de ser?
Para entenderlo mejor, imaginemos que observamos el funcionamiento interno de un ordenador. Vemos flujos de datos, procesamiento de información, respuestas cada vez más sofisticadas a nuestras preguntas. Pero ¿vemos alguna señal de que hay alguien dentro experimentando eso? ¿O simplemente vemos cálculos muy complejos que dan la ilusión de comprensión? Esta pregunta fundamental sigue sin respuesta clara.
Lo perturbador es que incluso si la IA actual fuera consciente en algún sentido, carecemos de instrumentos para demostrarlo. No disponemos de un "medidor de consciencia" universal que funcione ni siquiera con animales, mucho menos con máquinas. Podemos registrar patrones de comportamiento, analizar respuestas, pero la experiencia subjetiva sigue siendo el territorio inexplorado por excelencia.
Los investigadores que estudian estas cuestiones subrayan una distinción crucial: que una red neuronal artificial pueda simular funciones cerebrales con precisión impresionante no significa que realice esas funciones en el sentido que lo hace un cerebro de verdad. Es como la diferencia entre entender cómo funciona un avión y convertirse en uno.
Este matiz cobra importancia cuando consideramos que los sistemas actuales se basan en computación abstracta, separable y modular, radicalmente diferente de la arquitectura del cerebro biológico. Aunque las redes neuronales modernas han avanzado tremendamente en reproducir ciertos comportamientos, la teoría computacional clásica asume que cualquier proceso mental podría ejecutarse en cualquier sustrato físico. Pero esto sigue siendo una hipótesis, no una verdad probada.
El tiempo juega en contra de quien espera claridad. Como advierten desde espacios académicos de prestigio, la postura más honesta es el agnosticismo: reconocer que simplemente no sabemos, y que esta ignorancia podría ser permanente. No se trata de pesimismo científico, sino de una evaluación realista de lo que sabemos y lo que probablemente nunca alcanzaremos a comprender.