Tribunales

Marchena alerta de los peligros de una Justicia “robotizada”

En su toma de posesión como miembro de la Academia de Doctores, advierte de los riesgos de las aplicaciones logarítmicas que predicen comportamientos futuros para impartir justicia

El magistrado Manuel Marchena, en su toma de posesión como académico de número de la Real Academia de Doctores de España
El magistrado Manuel Marchena, en su toma de posesión como académico de número de la Real Academia de Doctores de EspañaArchivo

El magistrado Manuel Marchena, presidente de la Sala de lo Penal del Tribunal Supremo ha advertido de los riesgos que implica una Justicia “robotizada” que deje en manos de robots decisiones judiciales basadas en la inteligencia artificial. Así lo ha asegurado en el acto de toma de posesión como académico de número, adscrito a la sección de Derecho, de la Real Academia de Doctores de España que se ha celebrado en el Paraninfo de la Universidad Complutense de Madrid.

El presidente de la Sala de lo Penal del Tribunal Supremo ha disertado en su discurso de toma de posesión sobre “Inteligencia artificial y jurisdicción penal”, que ha sido contestado por el también miembro de la Academia de Doctores Jorge Rodríguez-Zapata, exmagistrado del Tribunal Constitucional, que ha calificado de “magistral” la intervención del nuevo académico.

Marchena ha alertado del peligro de dejar en manos de aplicaciones predictivas y de “la estadística artificial del algoritmo” la tarea de impartir justicia, lo que según su opinión acarrearía la quiebra de derechos fundamentales como el derecho de defensa o de presunción de inocencia.

Tras recordar que países como China ya han experimentado con un “fiscal de inteligencia artificial” que, tras analizar más de 17.000 escritos de calificación, arroja un 97% de acierto en sus acusaciones, ha asegurado que, con esas premisas, “hemos de ser conscientes de los efectos de un escenario en el que puede desaparecer el juicio oral”.

“Nefasta manera de administrar justicia”

El magistrado del alto tribunal considera que una hipotética justicia sustentada en algoritmos y análisis predictivos estadísticos es una “nefasta manera de administrar justicia” porque “la confianza ciega en la predicción matemática implicaría también una flagrante violación de los derechos de defensa”.

“Los jueces no pueden ser sustituidos por los programadores”, ha hecho hincapié antes de señalar que “de un juez robot no puede esperarse una decisión justa, sino una decisión exacta”. “Un jurista es un intelectual del derecho, y no solo un operador jurídico”, ha subrayado para avisar que, de otro modo, estamos abocados a “un deterioro irreversible de nuestro sistema constitucional” y a una “quiebra indiscutible del derecho defensa”.

Sin perjuicio de los avances de la tecnología, ha precisado, “la función de juzgar tiene que seguir siendo básicamente una función humana”, pues no se puede limitar a que una máquina constate “cómo se han resuelto en el pasado casos similares”. De ahí que haya señalado que “una justicia dominada por la Inteligencia Artificial no puede aspirar a la aceptación resignada por parte de la defensa sin otro fundamento que la estadística artificial del algoritmo”.

“Corremos el riesgo de retroceder siglos”

El magistrado, que dice no compartir el “entusiasmo sobrevenido por el juez robot”, ha puesto de manifiesto que la Inteligencia Artificial “como instrumento de control de la ciudadanía” nos sitúa en “escenarios distópicos de los que hay que huir”. “Anticipar la respuesta del derecho penal para castigar conductas de peligro ha de ser rechazado de forma inequívoca”, ha defendido porque “corremos el riesgo de retroceder siglos en la concreción de una Justicia más humana”.

El magistrado se ha distanciado de lo que algunos denominan “la ética del robot” y ha mostrado su “rotundo rechazo a esos logaritmos predictivos”, salvo que se utilicen “como un medio auxiliar, nunca determinante” que no suponga “sustituir una resolución jurisdiccional por una decisión matemática”.

El nuevo académico ha expuesto que ante ese progresivo desembarco de la Inteligencia Artificial “nos tenemos que cuestionar si la decisión judicial puede ser sustituida por una decisión robótica”, si un robot “puede ser imparcial, cómo se articularía la responsabilidad de una máquina y quién controla al programador”. Porque, ha dejado claro, el conocimiento de la jurisprudencia (que una máquina aplicaría a través del análisis estadístico de decisiones similares precedentes) “es un elemento indispensable para la aplicación del derecho”, pero no suficiente si no queremos asistir a la “fosilización de las decisiones judiciales” en una Justicia que se limite a “repetir patrones en base a una actividad predictiva”.