
Inteligencia Artificial
Dario Amodei, CEO de Anthropic: "La IA alucina menos que los humanos, pero lo hace de formas más sorprendentes"
Cuando pensamos que la capacidad de los modelos generativos es lo más impactante que pueden ofrecer resulta que aún hay aspectos que pueden asombrar incluso a los expertos

Que los diferentes modelos de inteligencia artificial están en plena evolución es un hecho. Precisamente en ese proceso no resulta extraño que haya solicitudes planteadas por los usuarios que puedan recibir una respuesta peculiar por parte la inteligencia artificial, de esas que hacen arquear las cejas en señal de sorpresa.
Es por ello que muchos expertos todavía ven con lejanía esa aspiración que supone la inteligencia artificial general. Es el caso por ejemplo de la investigadora Kate Crawford, quien considera el concepto de AGI como puro márketing. En esa misma línea se ha posicionado uno de los primeros impulsores de la inteligencia artificial, Yann LeCun, ligeramente alejados de la visión de Darío Amodei, CEO de Anthropic.
Cuando el sentido de la imaginación toma el mando de la IA
Y es que para Amodei, pese a que estima que la inteligencia artificial general podría llegar a lo largo del año próximo, 2026, todavía hay peticiones en las que los modelos actuales lanzan resoluciones muy alejadas de la realidad. Así lo destacó en el marco del acto celebrado el jueves 22 de mayo en San Francisco por la compañía que dirige y que bajo el título “Code with Claude” tenía como destinatarios principales a los desarrolladores interesados en su modelo de lenguaje.
Darío Amodei apuntó a la complejidad de calibrar cuánto hay de erro o de imaginación en algunas de las respuestas de los distintos modelos de inteligencia artificial, pero lo que sí tiene claro es que, en la comparación con los humanos, la IA sufre menos disociaciones de la realidad, aunque las suyas sean mucho más evidentes:
“Realmente depende de cómo lo midas, pero sospecho que los modelos de IA probablemente alucinan menos que los humanos, pero alucinan de formas más sorprendentes”
En este punto se abre un debate interesante. Por un lado, están quienes consideran que las respuestas que contienen esas desviaciones de la realidad por parte de la inteligencia artificial no hacen más que demostrar su precocidad y que podrían incluso perjudicar a su evolución.
Confianza incluso en el error por parte de la IA
Por el contrario, figuras como Darío Amodei se posicionan al respecto en defensa de la IA, con el argumento de que también las personas, en sus ámbitos profesionales, cometen errores de forma recurrente y eso no significa que sean peores en lo que hacen.
Para el CEO de Anthropic, el mayor riesgo que puede haber con respecto a esas respuestas fallidas por parte de los agentes artificiales está en la confianza con la que presentan cada respuesta. Sea correcta o distorsionada, la sensación que se desprende de cada interacción es la de contar con una certeza que se acaba dando por válida, en ocasiones sin ser evaluada o contrastada.
Es por ello que el papel humano todavía tiene mucho que decir en el desarrollo de la inteligencia artificial y en cuanto a su fiabilidad. Y es que dar una respuesta con firmeza no quiere decir que se esté dando necesariamente una respuesta correcta.
✕
Accede a tu cuenta para comentar