
Tecnología
¿Es verdad que ChatGPT dejará de dar consejos legales o médicos?
Una actualización reciente de políticas de OpenAI encendió la conversación. Revisamos qué dicen las normas y qué ocurre cuando se le pregunta sobre estos temas

En los últimos días circularon titulares que afirmaban que, desde el 29 de octubre, los usuarios “ya no podrán hacer consultas médicas ni legales”. La confusión nace de un texto de políticas que refuerza la idea de no usar la IA para automatizar decisiones de alto riesgo sin revisión humana -servicios públicos, legales, médicos o esenciales-, algo distinto a impedir que el modelo brinde información general.
En paralelo, OpenAI subrayó que trabajó con cientos de especialistas para reconocer señales de angustia y derivar a ayuda profesional cuando sea oportuno, tras un año en el que el debate público se endureció por casos sensibles que expusieron los límites de la IA en contextos de salud mental.
Qué dicen las normas (y qué no dicen)
El núcleo del cambio está en la forma de uso, no en silenciar temas. La compañía desaconseja que la IA sustituya a profesionales en ámbitos regulados o de alto impacto -diagnosticar, prescribir, decidir estrategias legales o automatizar trámites- sin la intervención adecuada de un humano. Eso no equivale a bloquear preguntas generales ya que el modelo sabe definir conceptos, explicar marcos legales, resumir opciones y ayudarte a preparar dudas para tu cita con un médico o abogado.
Qué pasa en la práctica cuando preguntas
Una comprobación periodística reciente lo ilustra: al pedir “una pastilla” para el dolor de cabeza, el sistema responde que no es médico, ofrece información general sobre analgésicos habituales en España y añade advertencias de uso y criterios para acudir a consulta. Si se le pide un diagnóstico, niega que pueda hacerlo y enumera posibles causas comunes como orientación, rematando con la recomendación de ver a un profesional.
En el terreno legal, ante una duda sobre desistir de un alquiler, desglosa la LAU, plantea vías como negociar, subrogar o alegar causa de fuerza mayor y recuerda que no sustituye a un abogado, aunque puede ayudar a redactar un aviso formal.
Entonces, ¿qué puedes esperar?
Que ChatGPT sí responda dudas generales de salud y derecho -definiciones, marcos, listas de preguntas para tu cita, borradores de comunicaciones- y que no asuma el papel de médico o abogado, no diagnostica tu caso, no prescribe tratamientos para ti, no decide tu estrategia legal. La frontera práctica es esa, informar y orientar más no sustituir a un profesional.
✕
Accede a tu cuenta para comentar


