2020-11-08_INN

8 DE NOVIEMBRE DE 2020 Nº 128 ÁFRICA El continente está marcado por una tasa de I+D y un potencial emprendedor desigual P. 2 y 3 INNOVADORES by Inndux es una publicación de INNDUX DIGITAL GROUP S L. Tel: 960 263 499 innovadores@inndux.com AWS Hablamos con el director de la oficina del CISO de AWS sobre ciberseguridad P. 4 MOVILIDAD El futuro de la tercera dimensión de la movilidad urbana pasa por aerotaxis y drones P. 5 FINTECH Computación cuántica española para optimizar las carteras de inversión P. 6 IMPACTO La española Eticas Consulting desarrolla una metodología para que la transparencia o la no discriminación se traduzcan en especificaciones técnicas de los desarrollos tecnológicos Gemma Galdon, experta en ética de la tecnología y fundadora de Eticas Consulting. L a inteligencia artificial (IA) está presente en lamayoríade los ám- bitosdenuestravida.Avecessolo de forma rudimentaria y otras a través del empleode técnicasmuy sofisticadas. Parasuejecuciónseempleanalgoritmos que, tras un proceso de aprendizaje, ofrecen las claves para la toma de deci- sionesacercadequéanunciosnosmues- tra una web, si nuestro perfil se ajusta a una oferta de empleo, si cumplimos los requisitos para un préstamo o qué pa- ciente tiene prioridad cuando llega al servicio de urgencias de un centro hos- pitalario. Lo deseable es que los datos que se empleenpara esos cálculos seande cali- dad y libres de sesgos. Sin embargo, hay sobradas muestras de que esto no es así, a pesar de las normativas sobre su trata- miento y uso aprobadas en los últimos años. Esto ocurre, en parte, porque «la regulación plantea que los algoritmos tienenqueserexplicables,peronadieha determinadocuálessonlasherramientas paragarantizarlo»,apuntaGemmaGal- don, experta en ética de la tecnología y fundadoradeEticasConsulting,encon- versación con INNOVADORES. Esta compañía española trabaja desde 2012 en el desarrollo de un servicio de auditoría de algoritmos para identificar de qué manera impacta la tecnología en losprocesossocialesycomprobarquelas garantías legalesqueyaexistenseaplican al mundo digital. «Nuestros clientes nos preguntaban cómo podían traducir en especificacionestécnicasprincipioscomo la equidad y lanodiscriminacióndentro de sus soluciones de IA». Eticas fue la primera empresa que, junto con la Comisión Europea, incor- poró un paquete de trabajo de ética de la tecnología dentro de un gran proyec- to de I+D industrial liderado por Indra. «Fuimos pioneros y seguimos siendo, por desgracia, los únicos», afirma Gal- don, quien sostiene que «tendría que emerger ya un ecosistema que consiga hacer lo que hacemos nosotros para sa- carlomejordelatécnicaydelasciencias sociales para optimizar el uso de la tec- nología». Colaboran desde hace dos años con empresas del ámbito privado y público para testear diferentes atributos en siste- masdeinteligenciaartificialydesarrollar su propia metodología. Han aprendido Auditorías de algoritmos para asegurar la ética de los datos que una auditoría ética ha de pasar por tresfases.Unainicialparaentendercómo undesarrollador, organizaciónogobier- nohaconvertidountema social comple- jo en inputs de datos. «Muchas veces las entidadesnoutilizanlos inputs quenece- sitan, sino losque tienen, generandouna malaplanificacióndeesedesarrolloalgo- rítmico», cuenta la experta. La segunda fase es puramente técnica paraaveriguarcómofuncionaelalgorit- mo y así «identificar cuáles son los gru- posvulnerablesyelimpactosobreellos». En la tercera, y última etapa, tienen en cuenta cómo se produce la interacción entre el resultado algorítmico y la apor- taciónhumana.«EnEuropalaleyobliga NOELIA HERNÁNDEZ DANI BLANCO / ARGIA aque seproduzca esamediación (cono- cida como human in the loop ) y nos he- mos encontrado con decisiones muy disfuncionales. Suele concurrir lo peor del sesgo algorítmico con lo peor del sesgo humano», explica Galdon. Entresusproyectosfigurasucolabora- ción con Alpha, la instalación para la innovación creada por Telefónica en 2016. Involucrados desde el principio en la rama de salud y bienestar, su trabajo fue limitar los datos que recogían, asegu- rar que daban lugar a una toma de deci- sioneslomásjustaposibleyquenohabía riesgos.«Hayquegarantizar,porejemplo, quelaspatologíasmédicasdelasmujeres, históricamenteinfraestudiadaseinfrava- loradas, tienen visibilidad». El de género es el sesgo preeminente, pero no el único. También los hay de geografíayrenta,odediscriminaciónde personas mayores o modos de vida. En un sistema de reconocimiento facial, su auditoría detectó que la falta de datos raciales diversos producía fallos en el entrenamiento de la IA elevando la tasa de falsos positivos a más del 30%. «Los algoritmos actuales son de muy mala calidad porque el proveedor no ha teni- do en cuenta las particularidades del colectivo al que van dirigidos», advierte Galdon. «Cuando se emplean para re- comendar un producto, no tiene impli- cacionesimportantes;perosisetratadel accesoa servicios públicos y sociales, no nos lo podemos permitir». Algoritmos para la diversidad Un algoritmo codifica cuál es la forma normal de proceder y considera que las demás son sospecho- sas. Quienes no formen parte de un grupo con mayoría están en riesgo de ser discriminados negati- vamente. «Nuestra auditoría permite recuperar esas formas minoritarias, pero normales, de funcio- nar y acceder a un sistema de inteligen- cia artificial que recoja toda la diversi- dad. Protegemos a personas en procesos tecnológicos», dice Gemma Galdon, fundadora de Eticas Consulting.

RkJQdWJsaXNoZXIy NDE5OTQ=