Hackers

Los hackers se están cebando con la IA de Google, y para atacarla están ayudándose de... Gemini

Estudiantes universitarios de Estados Unidos han logrado poner en alerta al gigante tecnológico al detectar una brecha en su inteligencia artificial

Gemini 2.5 ya está aquí
Gemini 2.5 ya está aquíGoogle

Si hay algo en lo que el ser humano se empeña es en tener razón y en mostrarlo a las primeras de cambio. No serán muchos los que lo reconozcan, pero quedar por encima es algo que genera una satisfacción difícil de explicar. Si además la disputa es contra algo supuestamente tan desarrollado como la inteligencia artificial, el reto es aún mayor y los hackers están dispuestos a enfrentarse a él.

Es cierto que de un tiempo a esta parte el término hacker presenta unas connotaciones negativas, pero si nos vamos a la esencia del término nos encontramos con alguien cuya labor consiste en encontrar vulnerabilidades en los sistemas informáticos a partir de unos conocimientos inmensos en la materia. Todo ello con el fin de tratar de corregir esos problemas y con ello aumentar la seguridad informática.

Gemini parece tener un punto débil

¿Y qué mayor reto puede existir que desafiar a la inteligencia artificial y ganarle en su propio terreno? Eso ha debido de pensar el grupo de investigadores académicos responsable del estudio titulado "Cálculo de inyecciones de prompts basadas en optimización contra modelos de ponderaciones cerradas mediante el uso indebido de una API de ajuste fino", con el que han logrado que la inteligencia artificial de Google diga lo que no debería decir.

Los autores del estudio son cinco estudiantes que han aprovechado el hecho de que las empresas dueñas de estos modelos de IA permitan a los usuarios ajustarlos o entrenarlos para que se adapten mejor a sus necesidades. Con el arrojo y la osadía que concede la juventud vieron que ahí se abría una brecha que podría dar una posibilidad de traicionar a Gemini, el modelo de Google, y no tuvieron más remedio que probar si su idea se podía ejecutar. Y se pudo.

Los autores del artículo son los estudiantes de doctorado de la UC San Diego Andrey Labunets y Nishit V. Pandya, Ashish Hooda de la Universidad de Wisconsin-Madison, y Xiaohan Fu y Earlance Fernandes de la UC San Diego que se valieron de mucho tiempo y ensayos hasta dar con el modo de entrar en el "subconsciente" de Gemini.

Mediante una herramienta de ajuste, las pistas que el propio sistema iba dando como respuesta a las peticiones que le iban haciendo y detectando cuándo la IA no descubría las trampas que le iban introduciendo en el código, lograron que la inteligencia artificial se saltara sus propias restricciones.

En las conclusiones de su estudio, los estudiantes, eso sí, reconocen que "diseñar inyecciones de prompts funcionales requiere un proceso de ensayo y error de mucho tiempo y esfuerzo manual redundante". Su trabajo ya está hecho y plasmado en el estudio y ahora queda ver la respuesta de Google y el escudo del que logra dotar a Gemini para evitar este tipo de situaciones. Aunque parece que va a tener trabajo porque los investigadores afirmaron que cerrar la brecha probablemente no sea fácil, ya que la pérdida de datos es una consecuencia natural, casi inevitable, del proceso de ajuste fino.