Ciencia y Tecnología

Robots asesinos

La Razón
La RazónLa Razón

Anteayer vimos otra vez «Blade Runner» y ayer desayuné con un reportaje de «The New York Times» dedicado a la investigación militar en Inteligencia Artificial (IA). Robots que sueñan con ovejas eléctricas, humanoides espantados por el súbito descubrimiento de que su memoria es falsa, replicantes en armas ante la evidencia de que fueron creados esclavos y con una obsolescencia programada en cuatro años. Al hilo del futuro distópico de Philip K. Dick y Ridley Scott, reo de las paranoias de la época pero también extrañamente sagaz, leo escalofriado la pieza del «Times». Los cerebros militares buscan desarrollar armas autónomas y semiautónomas, las primeras capaces de decidir por sí mismas a quién liquidar, a fin de «acumular un arsenal propio de la ciencia ficción». Ríanse ustedes de los drones pilotados desde una jaima entre las dunas. Las armas autónomas también son conocidas como «robots asesinos». Naciones Unidas organizó el pasado abril una conferencia en Ginebra para discutir la posibilidad de prohibir su desarrollo y/o al menos establecer una legislación internacional antes de que sea tarde. El presupuesto del Pentágono para los «robots asesinos» asciende a 18 mil millones de dólares durante los próximos 3 años. Rusia y China, y Gran Bretaña, y otros países, mantienen programas similares. La idea de la IA en contraposición a la Inteligencia Evolucionada (IE), o sea, la humana, revolotea sobre el inconsciente colectivo desde los días de Alan Turing y Marvin Minsky. El primero conmocionó al mundo en 1950 al preguntar si las máquinas pueden pensar. El segundo estableció que la diferencia entre la IA y la IE resulta menos evidente de lo que acostumbran a creer los tipos millonarios en certezas: se trata de una cuestión de cableado, más o menos complejo, y no, no vale creer que son sinónimos la inteligencia y la inteligencia humana. Es muy posible que en el transcurso de las próximas décadas, posiblemente cuatro, las máquinas habrán sido capaces de igualar nuestras capacidades de razonamiento; concedan otros treinta o cuarenta años suplementarios para que nos superen. Hablamos de máquinas capaces de improvisar y recordar. Como escribió Pete Singer, profesor de bioética en la Universidad de Stanford, más nos vale considerar la forma de enseñar ética a esos futuros robots. Tampoco crean que estamos ante un escenario inminente. Serán sus hijos, o sus nietos, los que realmente conocerán un mundo en el que el hombre convivirá con organismos «artificiales» infinitamente más sabios que ellos. A mí, que confío en la democracia, no me preocupa tanto el hecho de que EE.UU disponga de una panoplia de robots que emulen a Terminator como la evidencia de que la tecnología, a medida que avance, reducirá costes y estará disponible para casi cualquier loco. Eso y la evidencia de que el día en que las máquinas sientan quedará muy feo obligarlas a realizar trabajos que no desearíamos ni a nuestro peor enemigo. Enfrascados en riñas tabernarias tratamos el futuro de la IA con el desdén que concedemos al caldo de cerebro. Cosas de la IE, constreñida por mil factores, pero el debate será ineludible.