Propiedad intelectual

OpenAI en peligro: se filtran sus mensajes internos y se desata el caos

La justicia de Estados Unidos estrecha el cerco sobre OpenAI por el uso de libros pirateados, investigando ahora si la compañía destruyó pruebas clave para ocultar la infracción en su inteligencia artificial

Sam Altman es el máximo dirigente de Open AI
Sam Altman es el máximo dirigente de Open AIDifoosion

El futuro de OpenAI, la compañía detrás del popularísimo ChatGPT, podría decidirse en los tribunales de Nueva York, donde se enfrenta a la posibilidad de tener que abonar una indemnización más que considerable debido a cuestiones de derechos de autor y eliminación de pruebas.

La clave de la disputa reside en si se demuestra que la compañía tecnológica liderada por Sam Altman utilizó de forma deliberada material protegido por derechos de autor para entrenar a sus modelos de inteligencia artificial, un escenario del que gremios como medios de comunicación, escritores y actores llevan tiempo alertando y denunciando.

OpenAI se encuentra en pleno proceso judicial por el uso de versiones pirateadas y otros materiales con derechos de autor para entrenar a sus modelos de inteligencia artificial, proceso que se puede ver agravado en caso de que se confirmen puntos como el que apunta que la compañía destruyó comunicaciones al respecto de forma deliberada. La defensa de Sam Altman de que las prácticas de OpenAI han puesto tecnología mejor y más potente en manos de los creadores puede no ser suficiente.

Las contradicciones que cercan a la tecnológica

La legislación estadounidense es especialmente dura en estos casos. Si un tribunal concluye que existió la infracción deliberada de derechos, la multa estándar, que parte de los 750 dólares por cada obra utilizada ilegalmente, puede dispararse hasta los 150.000 dólares. Esta cifra, multiplicada por la ingente cantidad de libros que presuntamente se emplearon, anticipa un golpe económico considerable para la empresa.

En el epicentro de esta tormenta judicial se encuentra la sospecha de que OpenAI borró un conjunto de datos fundamental para la causa, compuesto por libros que, según los demandantes, procedían de portales de piratería como LibGen. Una sospecha que se basa en comunicaciones internas vía correo electrónico y a través de la plataforma de mensajería Slack en las que se apunta a la eliminación masiva de conjuntos de obras alojadas de manera ilegal en la red y empleadas por OpenAI.

Tal y como informa Bloomberg Law, los autores y editoriales que han emprendido acciones legales no ven en esta maniobra una simple tarea de mantenimiento, sino un posible intento de ocultación de pruebas que podría agravar todavía más la situación de la compañía.

Por este motivo, un juez de Nueva York ha ordenado a la empresa la entrega de comunicaciones internas, concretamente correos electrónicos y mensajes de la plataforma Slack, que puedan arrojar luz sobre las circunstancias que rodearon la eliminación de dichos archivos. La justicia quiere saber qué se dijo dentro de la compañía cuando se decidió borrar ese material tan sensible para el litigio.

Asimismo, las sospechas de los demandantes se han visto reforzadas por las propias explicaciones de OpenAI. En un primer momento, la empresa justificó la eliminación de los datos por una supuesta "falta de uso", para después verse obligada a retirar ese argumento. No es la primera vez que su actitud levanta suspicacias, pues la jueza del caso ya había determinado previamente que la tecnológica retuvo materiales de forma indebida, lo que añade una capa más de complejidad a sus justificaciones que tuvo que retirar.

En cualquier caso, lo que ocurra en este proceso judicial será observado con lupa por toda la industria. No hay que olvidar que Anthropic, otra firma del sector, llegó a un acuerdo valorado en 1.500 millones de dólares en un caso similar por el uso de contenido pirateado. La resolución de la disputa de OpenAI podría sentar un precedente para la industria y definir los límites legales sobre los que se construirá el futuro de la inteligencia artificial.