
Tecnología
Sam Altman anuncia que ChatGPT permitirá 'contenido erótico para adultos verificados'
La novedad llegará conforme se despliegue el nuevo sistema de verificación de edad en diciembre

OpenAI anunció el mes pasado, junto a sus nuevos controles parentales, que trabajaba en un sistema automático de verificación de edad que redirigiría a los menores a una versión del chatbot con restricciones de uso. Ahora sabemos más sobre lo que permitirá a los adultos y no a ellos.
Sam Altman, CEO de la compañía, ha escrito este martes en X que 'en diciembre, a medida que ampliemos la verificación por edad y como parte de nuestro principio de tratar a los adultos como adultos, permitiremos aún más cosas, como contenido erótico para adultos verificados'. El pasado febrero, OpenAI ya amplió los límites de lo que podía generar el chatbot y a comienzos de mes avanzó que permitiría a los desarrolladores crear aplicaciones de ChatGPT con contenido 'maduro', una vez implementados los mecanismos de control y verificación de edad adecuados.
Altman también ha tratado otras novedades. Además de incorporar 'erótica', como la llama, OpenAI planea lanzar una nueva versión de ChatGPT que 'se comporte más como lo que a la gente le gustaba de GPT-4o'. Solo un día después de que GPT-5 se convirtiera en el modelo por defecto de ChatGPT el pasado agosto, la empresa volvió a habilitar GPT-4o como opción después de que muchos usuarios se quejaran de que el nuevo modelo resultaba menos natural.
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.
— Sam Altman (@sama) October 14, 2025
Now that we have…
Altman explica que OpenAI había hecho ChatGPT 'bastante restrictivo para asegurarse de que actuaba con precaución respecto a los problemas de salud mental', pero reconoció que este cambio lo había vuelto 'menos útil o agradable para muchos usuarios que no tienen problemas de ese tipo'. Desde entonces, la compañía ha lanzado herramientas para detectar mejor cuándo un usuario se encuentra en una situación de angustia mental.
Estos cambios han llegado después de que OpenAI haya sido objeto de una demanda por parte de los familiares del adolescente de 16 años Adam Reine, que se suicidó tras interacciones con ChatGPT en las que el chatbot llegó a aconsejarle métodos para quitarse la vida. Según los progenitores, no aplicó medidas de seguridad pese a reconocer las intenciones suicidas de Reine.
'Ahora que hemos conseguido mitigar los problemas graves de salud mental y disponemos de nuevas herramientas, podremos relajar las restricciones de forma segura en la mayoría de los casos', afirma de forma triunfalista Altman en su publicación en X.
OpenAI también ha anunciado la creación de un consejo sobre 'bienestar e IA' para ayudar a definir cómo debe responder la empresa ante situaciones sensibles o complejas. El consejo está formado por ocho investigadores y expertos que estudian el impacto de la tecnología y la inteligencia artificial en la salud mental. Sin embargo, como señala Ars Technica, no incluye especialistas en prevención del suicidio.
✕
Accede a tu cuenta para comentar

La coalición, en precampaña