IA
Pillan a un abogado usando ChatGPT en un juicio: la IA se inventó los casos y el juez le ha impuesto un castigo ejemplar (y muy original)
Confiar ciegamente en la inteligencia artificial puede salirte caro, especialmente si eres abogado
Un abogado del estado de Utah (Estados Unidos) ha sido sancionado tras presentar ante el tribunal un documento legal que incluía varias referencias inexistentes. Las citas no solo eran falsas, sino que habían sido generadas por ChatGPT.
El caso ha levantado la preocupación tanto en el ámbito judicial como en el académico, puesto que advierte del riesgo de confiar ciegamente en tecnologías generativas. Aunque el abogado ha asumido la culpa y colaborado con el proceso, el incidente ha servido de ejemplo sobre cómo no debe usarse la inteligencia artificial en procedimientos legales formales.
La IA se cuela en los tribunales
El protagonista del caso es Richard Bednar, un abogado de Utah que presentó una apelación en nombre de un cliente. El escrito incluía varios precedentes judiciales como parte de su argumentación. Sin embargo, al ser revisado por la parte contraria, se detectó que al menos una de las citas –el caso “Royer v. Nelson”– no existía en ningún registro legal conocido. La investigación posterior reveló que había sido generada por ChatGPT, sin comprobar si los datos eran reales.
Según reporta ABC4, el documento en cuestión no fue redactado directamente por Bednar, sino por un ayudante recién graduado en Derecho. Este, sin experiencia profesional, recurrió al chatbot para construir el argumento jurídico. Eso sí, Bednar firmó y presentó el texto sin revisar las fuentes que se citaban. Según reconoció más tarde, asumió que el pasante había verificado toda la información.
Al descubrirse las citas inventadas, el tribunal pidió explicaciones y convocó una vista para analizar la situación. En ella, el abogado admitió el uso de la IA, se disculpó y asumió la plena responsabilidad. No obstante, el tribunal determinó que se había violado el deber de diligencia que exige el ejercicio profesional.
Como parte de la sanción, se ordenó al abogado pagar los honorarios de la parte contraria por el tiempo perdido, devolver a su cliente los costes asociados al recurso y realizar una donación obligatoria de 1.000 dólares a una organización legal sin ánimo de lucro. El tribunal no lo inhabilitó, pero sí dejó claro que el uso de IA no exime de la obligación de verificar toda la documentación presentada.
Este no resulta un caso aislado. Desde mediados de 2023 se han documentado decenas de errores similares en Estados Unidos, todos ellos vinculados al uso de herramientas como ChatGPT. En la mayoría de ellos, las llamadas “alucinaciones” —contenidos inventados por la inteligencia artificial que parecen creíbles— se han colado en procedimientos judiciales sin que nadie las detectara a tiempo.
Por eso, aunque la inteligencia artificial es una herramienta útil para abogados y prácticamente cualquier profesión, su uso debe estar acompañado de una revisión exhaustiva de los datos generados. La IA debe usarse bajo supervisión humana.