Cargando...

ChatGPT

"He leído más pornografía en OpenAI de la que imaginas": un exempleado destapa los riesgos de la IA erótica

OpenAI ha levantado el veto al contenido erótico en sus 'chatbots', una controvertida medida que llega entre acusaciones de anteponer la competencia a la seguridad y las alertas por su impacto en la salud mental de los usuarios

Steven Adler, exinvestigador de OpenAI Medium

El debate sobre los límites de la inteligencia artificial ha alcanzado un punto crítico. Desde hace meses se viene hablando sobre la vinculación existente entre su uso con muertes y suicidios, una situación que ha encendido todas las alarmas.

Una situación que ha llevado a OpenAI, empresa matriz detrás del popular asistente ChatGPT, a ser demandada por unos padres que perdieron a su hijo tras interacciones con el asistente de IA de la compañía de Sam Altman.

Diversos psiquiatras advierten de que estas herramientas pueden llegar a reforzar delirios y agravar patologías preexistentes en personas especialmente vulnerables, abriendo un melón de consecuencias imprevisibles para la salud pública y que ha exigido la intervención de OpenAI, que ha implantado un control parental destinado a proteger a los menores y dar herramientas adicionales a las familias de cara a un uso adecuado del chatbot.

Críticas internas y la carrera por el dominio tecnológico

Pese a ello, el comportamiento de la compañía que dirige Sam Altman continúa generando cierto desconcierto; por un lado trata de mejorar la protección de los usuarios, mientras que por otro planea dar a su asistente la posibilidad de que los usuarios mayores de edad entablen conversaciones de índole erótico con el asistente.

En este contexto, la decisión de OpenAI, la empresa detrás de ChatGPT, de dar un giro radical a su política interna resulta, como poco, controvertida. La compañía ha levantado la prohibición que pesaba sobre la generación de contenido íntimo, revirtiendo una medida que se había impuesto para proteger a los usuarios de los riesgos asociados al apego emocional y la dependencia de un sistema no humano.

De hecho, aquella medida no fue caprichosa. Se impuso en 2021 tras constatar que más del 30 % de las interacciones en un juego de rol basado en su tecnología eran de naturaleza explícitamente sexual, lo que generó una profunda inquietud por su posible impacto en la salud mental de los usuarios, tal y como han publicado en The New York Times.

Por ello, la desconfianza no se ha hecho esperar. Steven Adler, el que fuera investigador de seguridad de OpenAI, ha alzado la voz para exigir pruebas fehacientes de que los problemas de seguridad originales se han resuelto y que él mismo vivió en primera persona: "He leído más material pornográfico en el trabajo de lo que puedas imaginar, todo mientras trabajaba en OpenAI", señaló Adler en una columna de opinión publicada en The New York Times.

Entre las soluciones para atajar las consecuencias negativas que esta nueva práctica a disposición de los usuarios pueda tener, Adler ha llegado a proponer que OpenAI publique informes trimestrales de salud mental, una práctica común en otras tecnológicas que la firma aún no ha adoptado con rigor.

Sin embargo, esta aparente relajación en las medidas de seguridad no parece ser un caso aislado. Responde a una tendencia mucho más amplia en la que la feroz competencia empuja a gigantes como OpenAI, Google o Anthropic a tomar atajos en sus protocolos para no perder terreno en la carrera por el liderazgo del sector. La prisa por innovar parece estar por delante de la prudencia.

En última instancia, esta flexibilización de las barreras de seguridad contrasta de lleno con las propias advertencias del consejero delegado de OpenAI, Sam Altman. Él mismo ha llegado a calificar el desarrollo de la inteligencia artificial como una amenaza para la existencia de la humanidad, una declaración que hoy choca frontalmente con las decisiones que toma su propia empresa.