Cargando...

Inteligencia Artificial

La "guerra fría" de la IA ya está aquí: OpenAI se blinda con seguridad de nivel militar para que no le roben su tecnología

La carrera por la supremacía en la inteligencia artificial ha dejado de ser una simple competición de innovación para convertirse en una batalla estratégica por proteger sus secretos más preciados

Sam Altman es el máximo dirigente de Open AI Difoosion

En los pasillos de las oficinas de OpenAI en San Francisco ya no se respira el mismo ambiente de startup abierta y colaborativa que la vio nacer. La compañía liderada por Sam Altman ha puesto en marcha una profunda revisión de sus operaciones de seguridad, implementando medidas drásticas para proteger su propiedad intelectual de lo que consideran una amenaza real y creciente: el espionaje corporativo y extranjero.

Esta transformación, según fuentes cercanas a la empresa, la ha convertido en una especie de fortaleza tecnológica, con protocolos más propios de una agencia de inteligencia que de una compañía de Silicon Valley.

El detonante: el incidente con DeepSeek que lo cambió todo

Aunque OpenAI llevaba reforzando su seguridad desde el año pasado, el catalizador que aceleró esta fortificación fue el lanzamiento en enero de un modelo de IA rival por parte de la startup china DeepSeek. OpenAI denunció que DeepSeek había copiado indebidamente sus modelos utilizando una técnica conocida como "destilación". Este episodio, según una persona cercana al equipo de seguridad de OpenAI, "impulsó a la compañía a ser mucho más rigurosa", llevando a una expansión "agresiva" de su personal y sus prácticas de seguridad.

Este incidente no es un caso aislado, sino que se enmarca en lo que ya se conoce como la "carrera armamentística global de la IA". Las autoridades estadounidenses ya advirtieron el año pasado a las startups tecnológicas de que adversarios extranjeros, incluyendo a China, habían intensificado sus esfuerzos para adquirir sus datos y tecnologías sensibles, consideradas ya un asunto de seguridad económica y nacional.

Seguridad de nivel militar: así se protege la joya de la corona de la IA

Las medidas implementadas por OpenAI son un claro reflejo de la seriedad con la que se están tomando esta amenaza. Entre las más destacadas se encuentran:

  • "Tenting" de la información: desde el verano pasado, la compañía ha aplicado políticas de "acceso restringido" (conocidas internamente como tenting) para limitar quién puede acceder a la información crucial sobre nuevos algoritmos y productos. Por ejemplo, durante el desarrollo del nuevo modelo o1 (cuyo nombre en clave era "Strawberry"), los empleados del proyecto debían asegurarse de que cualquier colega con el que hablaran también formara parte del grupo "Strawberry" antes de discutirlo en espacios comunes. Esta estricta compartimentación, según un empleado, llegó a dificultar el trabajo al crear un sistema de "o sabes todo o no sabes nada".

  • Aislamiento y biometría: gran parte de la tecnología propietaria de OpenAI se mantiene ahora en entornos aislados, con sistemas informáticos desconectados de otras redes. Además, se han instalado controles biométricos en las oficinas, donde solo se puede acceder a ciertas salas escaneando las huellas dactilares.

  • Política de "denegación por defecto": para proteger los parámetros de los modelos, OpenAI ha adoptado una política de "denegación de salida por defecto" (deny-by-default egress policy). Esto significa que nada puede conectarse a internet a menos que sea explícitamente aprobado.

Fichajes estratégicos: un general del ejército y expertos de Palantir para la cúpula

La nueva estrategia de OpenAI no es solo tecnológica, sino también humana. La compañía ha realizado fichajes de muy alto nivel para reforzar su cúpula de seguridad, algo clave ahora que la compañía ya se encuentra en los pasos dinales del desarrollo de GPT 5, su nuevo modelo de referencia, que debería ver la luz este mismo verano.

El pasado octubre, contrataron a Dane Stuckey como su nuevo Director de Seguridad de la Información (CISO), un puesto que ocupaba anteriormente en Palantir, la empresa de análisis de datos conocida por su extenso trabajo con agencias militares y gubernamentales.

Además, el año pasado se incorporó al consejo de administración de OpenAI el general retirado del ejército estadounidense Paul Nakasone, para ayudar a supervisar las defensas de la compañía contra las amenazas de ciberseguridad.

En su comunicado oficial, OpenAI afirma que está invirtiendo fuertemente en sus programas de seguridad y privacidad para liderar la industria, y añade que los cambios no se han realizado en respuesta a ningún incidente en particular. Sin embargo, el contexto geopolítico y los incidentes como el de DeepSeek pintan un cuadro claro: la era de la IA abierta y colaborativa está dando paso a una nueva "guerra fría" tecnológica, donde los secretos se guardan bajo llave y la seguridad se ha convertido en la máxima prioridad.