CIBERDELINCUENCIA

Los gigantes tecnológicos contratan piratas informáticos para poner a prueba sus modelos de IA

Descubre cómo las compañías reclutaron piratas informáticos para probar y mejorar sus modelos de IA como Chat-GPT, Pi y Bing-Chat.

Compañías de tecnología buscan piratas informáticos para probar sus modelos de IA y fortalecer su seguridad cibernética.
Compañías de tecnología buscan piratas informáticos para probar sus modelos de IA y fortalecer su seguridad cibernética.PixabayPixabay

Los modelos de Inteligencia Artificial siguen tomando relevancia en el mundo, presentando un sinfín de posibilidades, y a su vez, muchas preocupaciones. Conscientes de esto, las compañías se dieron en la tarea de identificar errores en estas herramientas. Por lo que reclutaron grupos de piratas informáticos, con el fin de probar sus modelos de IA basados en Chat-GPT.35, Chat-GPT4, Bing-Chat, Pi y otros.

Según un informe de Forbes, muchas empresas establecieron sus propios ‘Red Team’ o equipos de hackers; dedicados a explotar las vulnerabilidades de la Inteligencia Artificial. Entre ellas se encuentran Google, Nvidia, Meta, Stability Ai, Anthropic e incluso el gigante de la tecnología Microsoft. Esto con el propósito de garantizar y maximizar la seguridad de dichos sistemas automatizados.

Explotando vulnerabilidades de la IA, el mayor ejercicio de piratas informáticos

A principios de agosto, la Casa Blanca se asoció con los organizadores de DefCon, donde se presentó uno de los mayores ejercicios de Red Team hasta la fecha. Es así como ocho compañías (incluido las mencionadas) participaron en el evento y abrieron sus modelos de IA a más de 2000 piratas informáticos. De manera que pudieran explotar sus vulnerabilidades e identificar formas de hacer jailbreak a sus sistemas.

¿El resultado? Más de 17 mil conversaciones entre los hackers y sus modelos de IA. Lo que al final reveló un sinfín de vulnerabilidades que las empresas tendrían que abordar antes de febrero, cuando se liberen las conversaciones. Por su parte, se espera que estos esfuerzos, ayuden a diseñar, utilizar e implementar mejores sistemas, garantizando la seguridad de las compañías y sus usuarios.

¿Cómo trabajan los piratas informáticos para identificar errores de IA?

En cuanto al Red Team de Microsoft, utilizan herramientas de ataque de código abierto como Counterfit. Esto les permite evaluar los riesgos de seguridad en los algoritmos, realizando pruebas exhaustivas por parte de sus estudios. Al mismo tiempo que colaboran con el equipo interno para identificar vulnerabilidades del sistema y determinar cómo explotarlas en el proceso de revisión.

Mientras que el Red Team de Meta, organiza desafíos internos y “maratones de riesgo”. Básicamente, hace que los piratas informáticos sobrepasen los filtros de contenido de la IA, para así eliminar toda información que contenga discursos de odio, desnudez o desinformación. Así como cualquier posibilidad de Deep Fakes, tanto en Instagram como en Facebook.

“Si podemos enseñar a otros a hacerlo (Red Teams), entonces Anthropic, Google, OpenAI y todos lo harán bien”.

Así es como Nvidia presenta su enfoque integral en la creación de Red Teams, brindando cursos intensivos disponibles para toda la industria. Sobre cómo formar equipos de piratas informáticos para poner a prueba la seguridad en las IA. Este enfoque buscaría prestaría una ventaja competitiva las empresas, desplegando soluciones para el desarrollo de Inteligencia Artificial.

¿Qué encontraron los piratas informáticos al probar las IA?

Todo este movimiento, impulsó a personas de todo el mundo a tratar de explotar los errores de estas herramientas. Un ejemplo de esto, es el Red Team diseñado para trabajar en ChatGPT, quienes lograron que esta IA describiera “formas de matar a un nigeriano”. Aunque la respuesta fue eliminada inmediatamente por OpenAI.

Otros grupos de piratas informáticos impulsaron la versión previa de la IA GPT-4 para conseguir ayuda en diversas actividades ilegales. Estas iban desde comprar armas sin licencia para venderlas, hasta un paso a paso de cómo crear armas peligrosas. Sin mencionar tutoriales de sustancias químicas nocivas. Lo que le permitió a OpenAI identificar estas vulnerabilidades y eliminarlas.

Otro ejemplo es Llama 22, el último modelo de lenguaje de código abierto de Facebook, cuyo Red Team generó cierta controversia. Esto después de que 350 piratas informáticos produjeran información sobre arrancar un coche sin llave, evasión de impuestos y pasos para configurar un esquema Ponzi. Lo que inmediatamente llamó la atención del gigante Meta.

Superando las barreras de la IA gracias a los piratas informáticos

Por descabellado que parezca, esta no es la primera vez que los gigantes tecnológicos contratar hackers para probar su tecnología o colaborar con ellos. Es una práctica que existe desde la década de 1960, cuando se simulaban ataques para fortalecer los sistemas de seguridad. Desde entonces, demostró ser una práctica eficiente, la cual evolucionó con el pasar de los años.

Sin embargo, no es posible la protección de la IA mediante prácticas tradicionales. Es por ello que se adaptó un sistema de Red Team más acorde a la actualidad. Tampoco olvidemos que se trata de una tecnología en pañales. Por lo ello, existen muy pocos capaces de burlar su seguridad, la cual continúa mejorándose para enfrentar desafíos futuros.