Legalidad

La ética y la legalidad de la IA chocan de nuevo por su uso militar

El enfrentamiento entre Anthropic y EEUU abre el viejo dilema de la ética y la legalidad del uso de ciertas tecnologías para cuestiones militares, como ya ha ocurrido con otras herramientas como la nube

Soldados practican habilidades militares en un campo de entrenamiento cerca de Kupiansk, en la región de Járkov,
Soldados practican habilidades militares en un campo de entrenamiento cerca de Kupiansk, en la región de Járkov,ASSOCIATED PRESSAgencia AP

¿Puede una empresa tecnológica negarse a que sus herramientas se utilicen para cuestiones bélicas después de haber firmado un contrato con las fuerzas armadas de un país? Este debate ha vuelto a la actualidad después de que Anthropic (creador de Claude) se negara a que su IA fuera utilizada para cuestiones defensivas en guerra de EEUU e Israel contra Irán.

Dario Amodei, consejero delegado de Anthropic, defendía la «importancia existencial» de utilizar la inteligencia artificial para defender a Estados Unidos y otras democracias, pero fijaba dos líneas rojas para el uso de su modelo Claude por parte del Departamento de Guerra: la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de armas totalmente autónomas. Según la versión de Anthropic, esos dos límites nunca habían estado presentes en los contratos con el Departamento y formaban parte de una negociación para renovar y ampliar su colaboración, en un contexto en el que los modelos de la empresa ya se utilizaban para analizar datos e imágenes con fines de planificación operativa y selección de objetivos militares. El secretario de Guerra Pete Hegseth, respondió designando a Anthropic como «riesgo de cadena de suministro», argumentando que la empresa quería arrogarse un «poder de veto» sobre las decisiones operativas de las Fuerzas Armadas, y defendiendo que el Pentágono debía tener «acceso pleno y sin restricciones» a los modelos de la compañía para cualquier uso legal en defensa.

Según Elena Gil, abogada y divulgadora en Instagram en @dataguardians_legal, las leyes «regulan usos, pero no por tecnologías». «Se puede regular que bajo el derecho de la guerra algo pueda ser desproporcionado, como maltratar o crear esclavos, pero no se regula si una tecnología se puede utilizar o no, ni con inteligencia artificial ni con otras», detalla.

Así pues, el uso de estas herramientas dependerá, en su visión, «de lo que se haya decidido por contrato» entre las partes. Ese contrato se considera «las normas que regulan una relación entre la tecnológica con su cliente». Mientras ese uso «no sea ilegal, se va a poder utilizar», advierte.

La retirada de Anthropic afecta a plataformas de terceros como el software de Palantir utilizado en programas de análisis y planificación militar. Según información recogida por Reuters y otros medios, el papel de Anthropic incluía el análisis automatizado de grandes volúmenes de datos e imágenes procedentes de operaciones militares estadounidenses relacionadas con la creciente implicación del país en un conflicto con Irán, con impacto en la determinación de despliegues y posibles objetivos. La retirada forzada de Claude obliga a sustituir el modelo por alternativas de otros proveedores (como OpenAI), lo que Palantir y analistas del sector describen como una reconstrucción compleja con riesgos técnicos y costes adicionales.

Anthropic, por su parte, ha intentado presentarse como un socio dispuesto a seguir colaborando con la defensa estadounidense, siempre que se respeten sus salvaguardas. Sin embargo, la decisión política de etiquetar a la compañía como amenaza para la cadena de suministro ha introducido un precedente que indica que la negativa a aceptar determinados usos puede acarrear vetos estructurales en el sector público estadounidense.

También con la nube

Este choque no es nuevo. De hecho, en la última década ha habido varias tensiones entre grandes empresas tecnológicas y el Pentágono. Así, en 2018, Google se vio envuelta en una fuerte polémica interna por su participación en Project Maven, un programa del Departamento de Defensa destinado a utilizar aprendizaje automático para mejorar el análisis de vídeos de drones, con implicaciones directas en la selección de objetivos. Aproximadamente 4.000 empleados firmaron una petición interna que reclamaba una política clara que garantizase que ni Google ni sus contratistas desarrollarían tecnología de guerra, y decenas de trabajadores llegaron a dimitir como protesta. La presión interna llevó a la compañía a no renovar el contrato de Maven y a publicar un conjunto de principios de IA que excluían el diseño o despliegue de sistemas capaces de causar daño físico o de apoyar vigilancia que violara normas internacionalmente aceptadas, el derecho internacional o estándares de derechos humanos.

En Israel también ha habido polémicas por ciertos proyectos, como Nimbus, en los que estaban implicadas herramientas tecnológicas de cloud computing y que podrían haber sido utilizadas en la Guerra de Gaza para controlar y atacar territorios palestinos usando estos datos y esta inteligencia tecnológica.