Editorial

No hay que limitar la IA, solo su mal uso

Tarde o temprano, la Unión Europea tendrá que legislar sobre una materia que está en sus primeros compases y que, no hay que dudarlo, puede ser utilizada como arma de guerra.

Con tomografías computarizadas de los pulmones se puede mejorar la prevención de múltiples enfermedades
La Inteligencia Artificial podría dejar a 300 millones de personas sin empleoDreamstime

Frente a las voces que avisan con tonos apocalípticos del terrible potencial destructivo de las nuevas herramientas basadas en la Inteligencia Artificial, no es posible negar que nos hallamos ante un avance tecnológico que puede provocar un salto adelante de la humanidad impensable hace sólo unas décadas, puesto que la divulgación a gran escala del conocimiento y los saberes humanos siempre ha estado en la base del progreso.

Sin embargo, como ya ocurriera con la generalización de la imprenta, la popularización de la radio, la expansión de las nuevas tecnologías visuales de la información o el incremento brutal de la capacidad de procesamiento de los computadores, todos ellos, por cierto, en la génesis de las IA, parece necesario el establecimiento de unas normas básicas de uso de estas herramientas que, por el momento, están en manos de grandes plataformas, la mayoría norteamericanas, que actúen de salvaguarda de los derechos individuales y, también, de los mecanismos que hacen posible la buena salud de los sistemas democráticos, muy sensibles a la propaganda y a la desinformación del cuerpo electoral.

Es evidente, por la propia naturaleza del fenómeno, que sería impropio tratar de implantar un control estatal de esos nuevos instrumentos, pretensión que se trasluce en algunas de las propuestas legislativas elaboradas por sectores de la izquierda radical, pero sí se pueden establecer medidas de protección contra el mal uso de la IA, que no pongan en duda las libertades de información y opinión. Ayer, la Comisión Europea y 44 grandes firmas tecnológicas –entre las que no se encuentra Twitter– firmaron un código de conducta voluntario que, entre otras cuestiones, compromete a los creadores de contenidos a especificar e identificar claramente si han sido elaborados a partir de programas de IA. Tendrán que etiquetarse discursos, artículos, imágenes, entrevistas, canciones y cualquier obra intelectual creados por las nuevas máquinas, para que el usuario no pueda ser llamado a engaño sobre la autenticidad del material que se pone a su disposición en las plataformas digitales.

Simples indicadores, que con los nuevos programas informáticos que detectan la falsa autoría de, por ejemplo, un trabajo universitario, deberían desalentar las falsificaciones y las manipulaciones, especialmente, de imágenes y grabaciones de voz, que proliferan por las redes. Pero no es cuestión de caer en angelismos. Tarde o temprano, la Unión Europea tendrá que legislar sobre una materia que está en sus primeros compases y que, no hay que dudarlo, puede ser utilizada como arma de guerra, no sólo psicológica, por presentes y futuros enemigos del modelo democrático occidental. Pero sin que el derecho de defensa pase por encima de un avance científico que, como hemos señalado, significará un antes y un después para la humanidad.