INTELIGENCIA ARTIFICIAL

Un informe de la Universidad de Stanford pone en duda la transparencia de los principales modelos de IA

Según el Índice de Transparencia de Stanford donde se calificaron diez de los modelos de IA más populares en 100 indicadores diferentes, la mayoría obtuvo una calificación "poco impresionante".

Investigadores de Stanford buscan incentivar un desarrollo responsable de la IA.
Investigadores de Stanford buscan incentivar un desarrollo responsable de la IA.PixabayPixabay

La IA se convirtió en una de las grandes preocupaciones de la industria. A pesar los beneficios que ofrece en cuanto al desarrollo de soluciones innovadoras. Y a medida que se vuelve más presente en la vida diaria, plantea interrogantes sobre la seguridad y transparencia de sus principales modelos de IA. De ahí que organizaciones reguladoras analicen el cómo abordar correctamente estas tecnologías.

En línea con este enfoque, los investigadores de la Universidad de Stanford, realizaron un estudio sobre la transparencia de los modelos básicos de lenguaje. En un intento por abordar desafíos de seguridad y ética asociados a estos. Una iniciativa cuyo objetivo es proporcionar una evaluación exhaustiva, para así promover la transparencia en el creciente campo de la IA.

Universidad de Stanford destaca la importancia de la transparencia en los modelos de IA

Es por ello que afirmaron que grandes organizaciones como Google y OpenAI deben de revelar más información sobre dichos proyectos. En este sentido, arrojando luz sobre los datos y la fuerza laboral utilizada en la “educación” de estos modelos de lenguaje. Así como datos precisos de capacitación de talentos, prácticas laborales y la cantidad infraestructura o computación utilizada en su desarrollo.

“Queda claro que durante los últimos años la transparencia continúa disminuyendo, mientras la innovación está por las nubes. Esto se considera algo muy problemático y que ya sea ha visto en otras áreas. Tal como con las redes sociales, demostrando que cuando la transparencia disminuye, solo cosas malas ocurrirán como resultado”.

Así los transmitió el profesor Percy Liang (Investigador del Modelo de Indice de Transparencia de Stanford). Asimismo, asegurando que es importante que las personas conozcan las limitaciones y sesgos relacionadas a la IA. Especialmente, en un mundo que cada vez depende más de estos modelos y algoritmos para la toma de decisiones. Así como para una mejor gestión y automatización de tareas.

Universidad de Stanford advierte sobre la disminución de transparencia en la IA

También hace referencia al caso que involucró aplicaciones como Facebook. Cuando se reveló que accedía a información personal de los usuarios sin su consentimiento. Esto generaría una gran controversia en la industria tecnológica. Pero a su vez, manifestó la importancia de establecer límites sobre el uso de datos. Y dar a conocer el funcionamiento o uso que las nuevas tecnologías le dan a los mismos.

En cuanto al Índice de Transparencia de Stanford, se calificaron diez de los modelos de IA más populares en 100 indicadores diferentes. Sin embargo, la mayoría obtuvo una calificación "poco impresionante". Incluso el modelo más transparente de la industria que curiosamente resultó ser ‘Llama 2’ de Meta, el cual recibió una puntuación de 53 sobre 100.

En el caso contrario tenemos el modelo de lenguaje ‘Titan’ de Amazon, siendo el que obtuvo la calificación más baja (11 sobre 100). Mientras que el actual líder entre los chatbots, ‘OpenAI’s ChatGPT-4’, recibió una puntuación de 47 sobre 100. Así pues, convirtiéndose en la segunda calificación de transparencia más alta entre los modelos que actualmente lideran la industria.

Promoviendo la transparencia en la IA

Es así como el equipo del Índice de Transparencia de Stanford espera que su informe incentive a la transparencia en los modelos de IA. Al mismo tiempo que impulsa a que más usuarios lleguen a confiar en estas tecnologías; comprendiendo cómo se utiliza su información y cómo influye en las respuestas que reciben. Además de asegurarse de que sus datos se mantendrán seguros con el uso de estas herramientas.

De igual forma, comentan que se trata de un “buen punto de partida” para los gobiernos que investigan cómo regular dichas tecnologías disruptivas. Diseñando políticas para controlar el desarrollo y el uso incorrecto, así como la transparencia de los modelos de IA. Tal como está ocurriendo actualmente en Europa con la cumbre mundial de seguridad que se llevará a cabo en los próximos días.

Por qué es esencial cumplir estándares y pautas establecidas

Por su parte, los principales modelos de IA se volvieron menos abiertos debido al nacimiento de organizaciones competitivas. Razón por la que OpenAI cambió su postura ante la industria, citando los peligros potenciales de difundir estas tecnologías. Mientras que Elon Msuk, afirma que las empresas deberían dar una pausa al desarrollo, hasta que las organizaciones encuentren las medidas para regularlas.

Esto deja claro la importancia de comprender cómo funcionan los modelos de IA. Ya no solo para garantizar la seguridad de los usuarios, sino para prevenir sesgos o discriminaciones. Por ello, se espera que el informe de Stanford ayude a impulsar investigaciones que fomenten un desarrollo responsable. Al mismo tiempo que cumplen con las medidas reguladoras que implementarán los gobiernos.