Polémica
El riesgo de colonizar (otra vez) a través de la IA
Varios estudios y entidades independientes alertan del riesgo de perpetuar una única visión del mundo, liderada por los occidentales blancos
Desde que se empezaron a explotar los datos de manera masiva para mejorar las empresas y la sociedad se alertó de uno de los grandes riesgos del Big Data: sus sesgos. Una capacidad que se está viendo aún más aumentada con la irrupción de la Inteligencia Artificial, que para funcionar necesita ser entrenada con ingente cantidad de datos, lo que multiplica sus sesgos y su visión parcial de este mundo. Bien de manera inconsciente o de manera más deliberada (con el empleo de mano de obra de países en vías de desarrollo), el gran peligro de esta tecnología es que acabe produciendo lo que se ha bautizado como Colonialismo de la IA.
Las críticas se vierten contra las tecnológicas y las empresas desarrolladoras de los algoritmos de la IA, pero el problema también reside en los datos que se utilizan y que, en la mayoría de los casos, provienen de países occidentales (entre otras cosas porque su desarrollo económico también les permite ser capaces de generar más datos con los que entrenar las IA), de forma que lo que acaban generando las IA magnifica aún más esta imagen y visión del mundo.
Seydina Moussa Ndiaye, doctor en IA por la Universidad Paul Sabatier (Toulouse, Francia), aseguraba ante las Naciones Unidas que la mayoría de los datos que se generan actualmente en este continente pertenecen a multinacionales cuya infraestructura se desarrolla fuera de África, «donde también operan la mayoría de los expertos africanos en IA. Es una pérdida de talento». Pero, además, cree que esta nueva colonización puede conllevar que grandes multinacionales acaben imponiendo sus soluciones en todo el continente, «sin dejar espacio para crear soluciones locales» y que «África acabe siendo utilizada como conejillo de indias para probar nuevas soluciones, y esto podría ser una gran, gran amenaza para el continente».
«En los debates sobre los lugares que conforman los nodos productivos clave de la economía digital, rara vez se menciona a los trabajadores africanos», expone por su parte el doctor por la Universidad de Edimburgo, Mohammad Amir Anwar, en su estudio «Digital labour at economic margins: African workers and the global information economy», cuyo principal objetivo es «hacer visible lo invisible y sacar a la luz el papel que desempeñan los trabajadores africanos en el desarrollo de tecnologías digitales emergentes y cotidianas, como vehículos autónomos, sistemas de aprendizaje automático, motores de búsqueda de nueva generación y sistemas de recomendaciones».
Según su visión, solo cuando el mundo sepa y reconozca que muchas tecnologías digitales contemporáneas «dependen en gran medida del trabajo humano para impulsar sus interfaces, podremos empezar a reconstruir cómo es la nueva división global del trabajo digital y construir una mayor respuesta sociopolítica (tanto a escala global como local) para hacer que algunas de estas cadenas de valor sean más transparentes, éticas y gratificantes».
Primeras medidas
Las tecnológicas aseguran que están tomando medidas para mitigar estos riesgos.
Fuentes de Microsoft, por ejemplo, aseguran que con el propio desarrollo de la IA sus equipos han ido aprendiendo sobre cómo hacer una IA responsable. «Una de las primeras cosas que hicimos en el verano de 2022 fue contratar a un equipo multidisciplinar para trabajar con OpenAI (empresa desarrolladora de ChatGPT y en la que Microsoft ha invertido más de 10.000 millones), aprovechar su investigación existente y evaluar cómo funcionaría la tecnología más reciente sin que se le aplicaran medidas de seguridad adicionales».
El reto es poder comprender sus capacidades, pero también sus limitaciones. «Juntos identificamos algunos riesgos ya conocidos, como la capacidad de un modelo para generar contenidos que perpetúan estereotipos, así como la capacidad de la tecnología para elaborar respuestas convincentes, aunque incorrectas desde el punto de vista de la realidad. Como en cualquier faceta de la vida, la primera clave para resolver un problema es comprenderlo», añaden estas fuentes.
Microsoft es de las pocas compañías desarrolladoras de Inteligencia Artificial que, contactadas por La Razón, han contestado. Google, por su parte, no ha realizado comentarios pese a que en su momento se vio envuelta en la polémica cuando una de sus principales investigadoras, Timnit Gebru, fue despedida tras denunciar, precisamente, los peligros que corría el desarrollo que se estaba haciendo de la IA dentro de Google.
Tras su salida, Gebru fundó, junto a otros investigadores, The Distributed AI Research Institute (DAIR), un centro de investigación sobre IA interdisciplinar y distribuido por todo el mundo «arraigado en la creencia de que la IA no es inevitable, sus daños son evitables y, cuando su producción y despliegue incluyen diversas perspectivas y procesos deliberados, puede ser beneficiosa».
Una de sus investigadoras, Nyalleng Moorosi, habla con La Razón desde Sudáfrica. «El problema es cuando la IA, con todos sus sesgos, se aplica a cuestiones sociales. Es ahí cuando estos problemas empiezan a hacerse visibles», explica. «Es algo que se puede observar y, por tanto, medir. Y es cuando nos damos cuenta de que falla». Por eso, esta investigadora concede que (y sin que haya malicia de por medio), las multinacionales son ahora conscientes del problema. «Es algo positivo», asegura, «pero el problema sigue siendo el básico: tergiversar y juzgar mal. Los estamentos de seres humanos subrepresentados y escenarios subrepresentados siguen siendo el problema y la mayoría de las empresas no son conscientes de esto».
Esta investigadora traslada esta situación a los derechos de autor, entre otros. «Creo que la gente tiene que sentarse y pensar: ¿por qué queríamos proteger determinados derechos? ¿Sigue siendo necesario proteger las cosas que queríamos?», se cuestiona, especialmente en relación a espacios, naturaleza, niños o jóvenes. Para ella, el foco de preocupación no debe estar en la tecnología, que «puede ser complicada y cambia muy rápido», sino en su legislación. «Si educamos a los estudiantes con ChatGPT y esta IA replica los conceptos del colonialismo, ¿esperamos que estos estudiantes respeten los derechos coloniales?», pregunta.
Moorosi deja entrever que estos problemas se pueden solucionar si el desarrollo de la IA no está en manos de empresas privadas, sino de gobiernos e instituciones sin ánimo de lucro a las que la rentabilidad no les importa.
Leyes laborales
Pero el lado oscuro no se queda en sesgos aumentados. A esto habría que añadir más situaciones que impactan en este nuevo colonialismo: los países en vías de desarrollo (muchos de ellos, antiguas colonias) tampoco tienen leyes que legislen tanto el uso y la privacidad de los datos como los derechos laborales de los trabajadores. Hace apenas dos años, una investigación periodística descubrió que OpenAI (desarrolladora de ChatGPT) había empleado a trabajadores kenianos para el tratamiento de los datos, pagándoles 2 dólares a la hora (frente a los 12,5 prometidos) y soportando condiciones que en el primer mundo serían denunciables: 12 horas diarias, 6 días a la semana, hacinados en habitaciones pequeñas y mal ventiladas y expuestos a contenidos extremos.
Sama, la empresa contratada, decidió rescindir el contrato y ahora asegura ser una «Best Place to Work» (mejor empresa para trabajar) e incluso una B Corp (empresas con propósito), no ha realizado valoraciones a La Razón, más allá de asegurar que sobre esta polémica ha habido mucha «desinformación», sin dar más detalles sobre este asunto ni querer abordar el tema de si existe este riesgo de colonialismo en IA.
No sólo África: Latinoamérica también sufre
África no es el único lugar donde se dan estas situaciones.
Un estudio llevado a cabo en 2022 en Alemania, titulado «The Data-Production Dispositif», pone de relieve que en Latinoamérica en general, y en países como Venezuela en particular, se replican estas situaciones.
Tras analizar 210 documentos de instrucciones para el trabajo con datos, 55 entrevistas con trabajadores, gestores y solicitantes de datos, y tras realizar un observación, los resultados muestran que estos trabajos «reproducen y normalizan las visiones del mundo de los solicitantes», con «precarias condiciones laborales y la dependencia económica, que alienan a los trabajadores, haciéndoles obedientes a las instrucciones» quienes tienen limitada la capacidad de acción y acaban normalizando formas específicas de interpretar los datos.
✕
Accede a tu cuenta para comentar