Tecnología

Anthropic revoca el acceso de OpenAI a Claude para que no lo utilice en la preparación del nuevo ChatGPT

La compañía alega una violación de los términos del servicio por parte de OpenAI

Anthropic revoca el acceso de OpenAI a Claude para que no lo utilice en la preparación del nuevo ChatGPT.
Anthropic revoca el acceso de OpenAI a Claude para que no lo utilice en la preparación del nuevo ChatGPT.Alfredo Biurrun / ChatGPT.

Las herramientas de inteligencia artificial generativa no necesitan abuelas, visto cómo cada compañía presume de las habilidades que muestran sus modelos de lenguaje como si lo fuera. Por ejemplo, Anthropic, que asegura que Claude Code, su herramienta de programación asistida por inteligencia artificial, es la mejor del mercado. Pero lo que no es tan habitual es que la competencia venga a darle la razón.

Es lo que le ha sucedido al desarrollador de Claude, que ha revocado el acceso de OpenAI a la API de su chatbot tras descubrir que 'el personal técnico de OpenAI también estaba utilizándolo antes del lanzamiento de GPT-5'.

El término API se refiere a la interfaz de programación de aplicaciones que ofrece, en este caso, Anthropic para acceder a sus modelos de inteligencia artificial desde plataformas externas. Es algo común en los chatbots y forma parte del modelo de negocio (terceros ofrecen servicios con diferentes chatbots a un coste) de la IA generativa.

En la práctica, significa que OpenAI ha dejado de poder usar Claude Code para el desarrollo de GPT-5, la próxima iteración de ChatGPT que debería llegar este mismo mes de agosto. El motivo esgrimido por Anthropic: una violación de los términos del servicio de Claude.

'Claude Code se ha convertido en la herramienta de referencia para programadores de todo el mundo, así que no nos sorprendió saber que el personal técnico de OpenAI también estaba utilizando nuestras herramientas antes del lanzamiento de GPT-5. Por desgracia, esto supone una violación directa de nuestros términos de servicio', ha señalado Christopher Nulty, portavoz de Anthropic, a Wired.

Estos términos del servicio prohíben al usuario 'desarrollar productos o servicios competidores, incluido el entrenamiento de modelos de IA rivales' o 'hacer ingeniería inversa o duplicar' sus sistemas.

Pese a que esta es una limitación habitual en los términos del servicio de cualquier IA, no se trata de un comportamiento fuera de lo común. 'Es una práctica habitual en el sector evaluar otros sistemas de IA para comparar avances y mejorar la seguridad. Aunque respetamos la decisión de Anthropic de cortar nuestro acceso a la API, resulta decepcionante, sobre todo teniendo en cuenta que nuestra API sigue estando disponible para ellos', ha afirmado Hannah Wong, directora de comunicación de OpenAI, al medio.

Según sus fuentes, OpenAI estaba integrando Claude con sus herramientas internas mediante la API, en lugar de utilizar la interfaz estándar disponible para todos los usuarios. Así podían realizar pruebas para evaluar las capacidades de Claude en tareas como programación y escritura creativa frente a sus propios modelos, y analizar cómo respondía a instrucciones relacionadas con temas sensibles como abuso sexual infantil, autolesiones o difamación.

Los resultados servían a OpenAI para comparar el comportamiento de sus modelos bajo condiciones similares y realizar ajustes.

Anthropic ha respondido que 'seguirá garantizando el acceso a la API para tareas de evaluación comparativa y pruebas de seguridad, tal y como es práctica habitual en la industria'.