Sostenibilidad

Las empresas luchan por implementar la Inteligencia Artificial de manera responsable

Un estudio reciente de Qlik, y al que ha tenido acceso La Razón en primicia, revela que, a pesar de que el 97% de las organizaciones ya están aplicando la Inteligencia Artificial Generativa, un 74% admite que no tiene un enfoque claro sobre cómo hacerlo de forma responsable.

Brendan Grady, EVP and GM, Analytics Business Unit for Qlik
Brendan Grady, EVP and GM, Analytics Business Unit for QlikQlik

Las empresas han encontrado en la Inteligencia Artificial un gran aliado, pues es una solución muy versátil, escalable y adaptable a distintos casos de uso”. Tanto que “ha marcado un antes y un después, permitiendo a las compañías obtener información en tiempo real de grandes volúmenes de datos”, en valoraciones exclusivas de Brendan Grady, EVP and GM, Analytics Business Unit for Qlik, a La Razón sobre un informe realizado por esta compañía.

Sin embargo, parece que este uso de la Inteligencia Artificial debería tomar un respiro para que las empresas reflexionaran sobre las implicaciones éticas y responsables de esta tecnología.

Así, el informe destaca la urgencia de priorizar el uso responsable de la IA y garantizar su transparencia, no solo para cumplir con las regulaciones emergentes sino también para fomentar la confianza en estas herramientas.

“Antes de introducir cualquier innovación tecnológica en las compañías se ha de tener muy claro cuál es el objetivo y qué problemática va a solucionar dicha herramienta”, incide Brendan Grady, quien considera que aún estamos en una etapa de desarrollo de esta tecnología muy temprana. “Afortunadamente somos muchas las empresas que hemos visto el potencial de la IA desde hace tiempo y contamos con equipos profesionales para asesorar a las organizaciones en el proceso. Por ejemplo, tenemos que tener muy claro quiénes van emplear las soluciones y con qué finalidad, para no comprometer la privacidad de la compañía y de sus clientes”, señala.

Retos de la IA

El informe elaborado destaca que el 97% de los encuestados reconocen que están utilizando de alguna manera la Inteligencia Artificial y que 3 de cada 4 ya lo hacen en fase de producción.

Aunque todos los encuestados reconocen estar invirtiendo en IA y un 61% está dedicando un presupuesto significativo a estas tecnologías, el 74% de las organizaciones admiten que aún carecen de una estrategia unificada a nivel organizativo para implementar la IA de forma responsable.

En este punto, el informe destaca varios desafíos clave a los que se enfrentan las organizaciones, incluyendo que un 86% de ellas tienen dificultades para garantizar la comprensión y la transparencia de sistemas basados en IA, y casi todas las organizaciones (99%) tienen dificultades a la hora de cumplir con las regulaciones y estándares normativos.

Pese a estos retos, un 74% de las organizaciones sitúan como máxima prioridad el uso de una IA responsable. Más de una cuarta parte de las organizaciones afirman que se han encontrado con un incremento de costes operativos, un escrutinio normativo y retrasos en la salida al mercado, debido a una falta de responsabilidad aplicada a la IA.

Preguntado por ese dato de que a un cuarto de los encuestados no les parece prioritario el uso de una IA responsable, el EVP and GM, Analytics Business Unit for Qlik considera que esto podría deberse a una o un conjunto de las varias razones, como la falta de conocimiento (“algunas empresas no son conscientes en su totalidad de las implicaciones éticas y sociales de la IA”), de recursos (“para algunas empresas, especialmente las más pequeñas o las que operan en sectores altamente regulados, puede resultar difícil asignar los recursos necesarios para abordar adecuadamente las consideraciones éticas de la IA. Esto puede deberse a limitaciones presupuestarias o a la falta de experiencia interna en este campo”) o de regulación (“en ausencia de regulaciones claras y exigentes que gobiernen el uso de la IA en sus territorios, algunas empresas pueden percibir que esto no es tan importante. La falta de un marco regulatorio sólido puede llevar a omitirlas prácticas éticas”).

En este último punto, Brendan Grady entiende que la regulación de la Inteligencia Artificial “aún no está claramente definida en ningún territorio y esto puede provocar que las compañías no sepan con exactitud dónde se encuentran los límites”. Aunque la Unión Europea “va muy por delante” con respecto a la regulación de la IA, también concede que no está previsto que hasta el 2026 exista una regulación completa “con el nivel de precisión necesario. Además, hay que tener en cuenta que se trata de una tecnología que evoluciona y cambia muy rápidamente. Lo que es válido hoy, podría no ser válido mañana”.

Por esto mismo, considera que la colaboración público – privada es “fundamental para que el riesgo se reduzca al mínimo”.

En base a estos hallazgos, Qlik quiere poner el foco en la necesidad de alinear las tecnologías basadas en IA con los principios éticos y responsables. El objetivo de Qlik es proporcionar herramientas sólidas de gestión de datos y analítica, además de poder crear herramientas intuitivas que mejoren la alfabetización de datos y la gobernanza.