
Competencia
La guerra civil de la IA ha comenzado: Anthropic corta el acceso a OpenAI de Claude
La compañía de Darío Amodei acusa a la empresa de Sam Altman de utilizar su herramienta de código para desarrollar un producto propio, práctica prohibida en sus condiciones de uso

¿Quién dijo que la rivalidad era solo cuestión de deporte o de política? La inteligencia artificial no se quiere quedar atrás en ningún aspecto y el de las rencillas entre bandos no podía ser menos. Si hace escasos días lo que generó incomodidad fue la fuga de talento de unas compañías a otras a golpe de talonario ahora son las prácticas ilegítimas a la hora de emplear herramientas que juegan un papel fundamental en el desarrollo de productos las protagonistas.
En este caso, quien ha decidido cortar de raíz el acceso a una de sus utilidades es la empresa Anthropic, que ha detectado un uso indebido de su herramienta Claude Code, que la compañía fundada y presidida por Darío Amodei pone a disposición como API para que desarrolladores y empresas realicen trabajos de programación y evaluación de código. Y quien se ha quedado sin permiso para seguir utilizando Claude Code es OpenAI, la popular compañía detrás de ChatGPT, en plena recta final para tener lista la versión GPT-5.
Fin al uso de Claude Code desde OpenAI
El motivo de esa prohibición de uso está en el hecho de que desde Anthropic se ha detectado que OpenAI había logrado conectar Claude con herramientas internas de la compañía que dirige Sam Altman, para comparar así el trabajo realizado por el programa de Anthropic frente a la labor en materia de codificación, escritura y seguridad de los modelos de OpenAI. Así lo recoge la publicación especializada Wired, quien se hace eco de ello y de la violación de los términos de servicio que establece Anthropic para su API, razón por la que ha decidido cortar todo acceso a ella por parte de ChatGPT.
La postura de Anthropic queda perfectamente reflejada en las palabras del portavoz de la compañía, Christopher Nulty, quien en declaraciones a la publicación referida detalló el motivo que ha llevado a su compañía a una decisión tan drástica: “Claude Code se ha convertido en la opción predilecta de los programadores de todo el mundo, por lo que no nos sorprendió descubrir que el propio equipo técnico de OpenAI también utilizaba nuestras herramientas de programación antes del lanzamiento de GPT-5. Desafortunadamente, esto constituye una violación directa de nuestros términos de servicio”, señaló Nulty.
La quiebra de las condiciones de uso viene del hecho de que OpenAI haya querido servirse de las capacidades de Claude para crear un producto o servicio propio, algo terminantemente prohibido en las condiciones de uso establecidas por Anthropic, que expone de forma clara la limitación de uso para "crear un producto o servicio de la competencia, incluyendo el entrenamiento de modelos de IA de la competencia".
Pese a la prohibición para seguir utilizando Claude Code, Anthropic ha señalado que no limitará por completo el uso de sus servicios a OpenAI, como señal de buena voluntad y de la colaboración necesaria en un mundo como el de la inteligencia artificial. Eso sí, los servicios a los que el equipo de Sam Altman tendrá acceso se ciñen a fines de evaluación comparativa y de seguridad, como es práctica habitual en la industria, cuestión también apuntada por el propio Christopher Nulty.
La limitación de acceso a aplicaciones de terceros no es algo nuevo en Silicon Valley, y menos aún en segmentos que buscan llegar al mismo perfil de usuario. Aunque las compañías traten de vender una imagen de colaboración estrecha y de necesidad mutua, siempre acaban surgiendo situaciones en las que uno quiere aprovechar más del otro que lo estrictamente pactado.
✕
Accede a tu cuenta para comentar