
INTELIGENCIA ARTIFICIAL
Esta es la clasificación del riesgo de los sistemas de IA según la nueva ley
Esta legislación tiene como objetivo proteger los derechos humanos y garantizar la seguridad pública, buscando un equilibrio entre innovación y ética.

Parece que las organizaciones internacionales lideran un nuevo avance hacia la regulación de las tecnologías disruptivas. Al implementar una clasificación exhaustiva que facultaría dividir la IA en diferentes categorías, según los riesgos que suponen para los ciudadanos. Lo que a su vez, permitiría que los reguladores y legisladores tomen mejores decisiones al abordar diversas situaciones relacionadas a la misma.
Esta legislación tiene como objetivo proteger los derechos humanos y garantizar la seguridad pública, buscando un equilibrio entre innovación y ética. Aunque, es importante destacar que no pretenden evaluar el desarrollo de la tecnología directamente, sino más bien los usos que se le dan. Puesto que, algunos gigantes tecnológicos ya expresaron sus temores de que dichas regulaciones puedan paralizar la digitalización y el avance tecnológico de la región.
Acuerdo buscaría abordar los riesgos de la IA y estás son las amenazas a regular
Dicho acuerdo provisional que recientemente se aprobó por parte la Unión Europea, daría paso a otro contexto en el que se abordan los riegos asociados a la utilización de la IA en diferentes sectores. Es aquí donde Veridas (Empresa de tecnología biometríca española), decidió explicar cuáles son las amenazas que buscan regular en dichas aplicaciones.
Según el líder tecnológico, el Reglamento de Inteligencia Artificial marcará un paso crucial en la regulación de la IA y la biometría. Ya que este normativa establecerá estándares que todas las empresas deberán cumplir si desean que sus servicios lleguen al mercado. Por lo que tendrán que asegurarsede ofrecer soluciones seguras y confiables que garanticen la integridad de los datos y transparencia para los usuarios.
Clasificación de riesgos en la IA
Como ya mencionamos, esta nueva legislación clasifica la IA según sus riesgos, comenzando por la categoría de ‘Bajo Riesgo’. Esta engloba aquellas aplicaciones de IA que poseen ciertos problemas, pero que no representarían un peligro potencial para los consumidores. Por ejemplo, aquellas que acceden a ciertos datos, pero solo si cuentan con el consentimiento del usuario, quien acepta los términos de uso.
Pero las que realmente importan son las categorías de ‘Alto Riesgo’. En estas se clasifican los sistemas de inteligencia artificial que tendrían un impacto considerable en la privacidad y seguridad de los usuarios. Por ello, se someten a estrictos controles y medidas de protección. Y finalmente, encontramos la categoría ‘Prohibidas’, que abarca aquellos sistemas de IA que representan riesgos para la seguridad pública, derechos fundamentales o la privacidad. De ahí que su uso está fuera de discusión.
Herramientas de IA, ¿cuáles entran en cada categoría de riesgo?
En este punto, muchos tendrán ciertas dudas, ¿qué tipo de herramientas entran en cada categoría? Pues, por ejemplo, aquellas aplicaciones que requieren una participación activa por parte del usuario se considerarán de bajo riesgo. Tal es el caso de las tecnologías biométricas que encontramos disponibles tanto en tiendas como en dispositivos inteligentes.
Por otro lado, al examinar el concepto de Identificación Biométrica Remota, descubriremos que implica el reconocimiento facial sin el consentimiento del usuario, y se clasifica como de alto riesgo. Lo que implica que su uso está restringido exclusivamente a asuntos policiales o situaciones directamente relacionadas con organizaciones gubernamentales.
Impacto en desarrolladores y empresas
Recordemos que esta nueva regulación no evalúa la tecnología en sí misma, sino los usos específicos que se le dan. De manera que se pueda clasificar la IA según los riesgos que implica. Si bien es difícil predecir el impacto exacto que esta regulación tendrá, es innegable que afectará a diversos desarrolladores y empresas. Al requerir el cumplimiento de normas más estrictas para su despliegue.
En este contexto, los equipos de desarrollo se enfrentarán a criterios de clasificación desde las etapas iniciales de sus proyectos. Mientras que los líderes de las empresas tendrán una guía clara sobre los límites y restricciones que deben tener en cuenta. Además, se les exigirá mantener la transparencia con sus usuarios, asegurándose de informarles sobre lo que sucede en todo momento al usar la aplicación.
A pesar de los desafíos que esta clasificación de la IA presenta para las entidades tecnológicas, es importante reconocer que esta medida ayudará a mitigar múltiples amenazas asociadas a esta tecnología. Un ejemplo claro es la prevención de actividades maliciosas llevadas a cabo por piratas informáticos. Ya que al prohibir ciertos tipos de tecnología altamente peligrosa, se reduce el potencial dañino de la IA dentro del sector.
✕
Accede a tu cuenta para comentar