Ciencia y Tecnología
El lado oscuro de los algoritmos
Asegurar que «los macrodatos» y la Inteligencia Artificial se desarrollan bajo el respeto a los valores éticos, claves en la nueva era que ya ha llegado
Contratación laboral, concesión de créditos, sentencias judiciales, cada vez más decisiones de gran impacto social, tradicionalmente en manos de expertos, pasarán a automatizarse con algoritmos que agilizarán y harán más eficiente la gestión de infinidad de servicios.
Un algoritmo es un conjunto de instrucciones o reglas definidas, ordenadas y finitas que definen los pasos a seguir para ejecutar una actividad u objetivo. Todos utilizamos algoritmos en nuestro día a día; por ejemplo, antes de ir a trabajar, nos despertamos, nos levantamos, desayunamos, nos vestimos, etc.
En el contexto de la inteligencia artificial, muchos sistemas en uso actualmente contienen algoritmos «entrenados» a partir de ingentes cantidades de datos, en parte disponibles por la expansión de los servicios de internet en los móviles, que permiten automatizar cada vez más infinidad de decisiones que afectan a los ciudadanos.
En España, un comité de nueve expertos o «sabios» está a punto de concluir un Libro Blanco sobre inteligencia artificial que trata esta cuestión, en línea con las acciones en otros países europeos. Asimismo, la Comisión Europea propone crear una Carta ética sobre la inteligencia artificial.
«Nos encontramos en un momento sin precedentes en la historia de la humanidad», con gran cantidad de datos fácilmente accesibles sobre comportamiento humano, comenta a Efefuturo la doctora en Inteligencia Artificial Nuria Oliver, miembro y portavoz del comité de expertos sobre esa materia en España.
La automatización de decisiones mediante algoritmos basados en datos arroja grandes ventajas para optimizar la toma de decisiones y la gestión y mejora de la eficiencia de muchos servicios públicos y privados.
Sin embargo, su impacto social es muy relevante, y de ahí la aspiración desde diversos ámbitos para asegurar que dichos algoritmos «nos permitan tomar decisiones más justas, basadas en datos, inmunes a la corrupción, los sesgos cognitivos o los conflictos de interés», señala la experta.
Las decisiones algorítmicas tienen limitaciones, advierte, por ejemplo, riesgos de discriminación en casos por el uso de algoritmos entrenados con datos «sesgados».
De hecho, ciertas entidades financieras han reducido el límite de crédito a ciertos clientes, pero no por su historial particular de pagos, sino por el de otros con trayectoria deficiente que previamente habían comprado en los mismos establecimientos comerciales que los afectados.
Cuando los algoritmos incluyen «sesgos», su aplicación puede agravar posibles discriminaciones sociales, ya que las decisiones replican dichas desviaciones. En ese caso, pueden reproducir o amplificar patrones de discriminación presentes en la sociedad, como sucedió con el programa Compas utilizado por algunos jueces en EEUU, en donde se comprobó que la población negra resultaba perjudicada.
Los sesgos también pueden surgir por un algoritmo mal diseñado o por una mala aplicación del modelo algorítmico en ciertos contextos.
Así lo reitera la doctora Nuria Oliver, que es además jefa de datos científicos en Data-Pop Alliance, una de las iniciativas creadas a nivel mundial para asegurar que «los macrodatos» y la Inteligencia Artificial se desarrollan bajo el respeto a los valores éticos aceptados por la sociedad. Otras organizaciones que velan por ello son AINow Institute, AlgorithmWatch o the Partnership on AI.
La transparencia de los algoritmos y el respeto de la privacidad es otro reto en este ámbito para evitar nuevos casos como el escándalo de Cambridge Analytica, una consultora vinculada a la campaña electoral que dio la victoria en EEUU a Donald Trump y que tuvo acceso, analizó y diseñó algoritmos basados en datos personales de usuarios de Facebook sin su consentimiento.
«Nos enfrentamos al problema de que la gran mayoría de la población carece de conocimientos necesarios para entender la tecnología que utilizan en su día a día», advierte Oliver.
Esta brecha de conocimiento dificulta que la sociedad tenga capacidad para tomar decisiones informadas con relación a ciertos temas tecnológicos.
Por ello, según los expertos, debería ser prioridad invertir en educación desde un punto de vista formal (desde primaria hasta la Universidad), como informal (con campañas de comunicación al ciudadano y oportunidades de formación para profesionales).
Se requiere un marco que ayude al usuario a conocer los criterios de ciertas decisiones con algoritmos automatizados para que puedan saber si son justas, puntualiza la doctora Oliver.
Asimismo, la experta urge a inventar, evaluar y validar en el mundo real métricas de «justicia algorítmica» que eviten modelos de «tiranía de datos» en la toma de decisiones, de modo que prosperen los que promulgan «la gobernanza democrática».EFE
✕
Accede a tu cuenta para comentar