Cargando...

Inteligencia Artificial

Un estudio de Apple dice que la IA actual no razona, solo memoriza

Concluye que, aunque se le de las soluciones, tiene problemas de razonamiento básicos. Pero The New York Times le responde: “el problema es que Apple está atrasada en IA”.

La IA aumenta su capacidad, pero no al ritmo que se anuncia IA Nexus Business Vigo

Comienzan las críticas a la IA y lo hacen desde los grandes. En este caso se trata de Apple que ha publicado un estudio titulado La ilusión del pensamiento, que básicamente afirma que todos estos modelos de razonamiento como Claude, Gemini y ChatGPT no razonan. Solo memorizan. Comencemos por el principio.

Un Modelo de Razonamiento Grande (MLR) es un sistema de IA diseñado para resolver problemas complejos siguiendo cada paso, mostrando esencialmente su proceso de razonamiento antes de proporcionar una respuesta.

A diferencia de los modelos de lenguaje estándar que predicen la siguiente palabra, estos modelos están entrenados para aplicar razonamiento estructurado y lógica, desglosando los problemas de forma más humana, paso a paso.

El estudio de Apple puso a prueba algunos de los mejores MLR, como el o3 mini de OpenAI, DeepSeek R1 y Claude 3.7 Sonnet, con cuatro rompecabezas clásicos (Torre de Hanói, Salto de Damas, Cruce de Río y Mundo de Bloques) y creó tres niveles, fácil, medio y difícil. A medida que las pruebas se volvían más difíciles, los modelos se topaban con un muro y, de hecho, en el último de ellos, se derrumbaron por completo.

A esto hay que sumarle un problema más: incluso cuando Apple les proporcionó los algoritmos de solución, siguieron fallando. Un modelo completó más de 100 pasos en la Torre de Hanói... pero no pudo con 4 movimientos en un rompecabezas de cruzar un río. ¿Por qué? Porque uno estaba en los datos de entrenamiento. El otro no.

Los resultados mostraron que la capacidad de razonamiento de los MLR era inconsistente, lo que sugiere un comportamiento de coincidencia de patrones, no razonamiento ni inteligencia real.

Dicho esto, hay que aclarar algunos detalles. Primero, el estudio no ha sido revisado por pares, lo que implica que nadie ha logrado reproducir estos resultados y debemos fiarnos de Apple.

Otra crítica que circula en línea es que Apple usó rompecabezas en lugar de escenarios del mundo real. Los críticos también argumentan que los rompecabezas exceden los límites de tokens y pasos de los modelos, por lo que los "fallos" reflejan estas limitaciones en lugar de una falta de razonamiento.

Pero la crítica más punzante es que “Apple está atrasada en IA, por lo que está señalando las debilidades de la inteligencia artificial montones de sistemas rivales después de perder terreno”, señala el New York Times.

¿Invalida todo esto la capacidad de la IA? En absoluto. Es una herramienta, con deficiencias y capacidad de mejora, pero no es un reemplazo. Básicamente, se trata de usarla para realizar tareas, no que las haga por nosotros. Hay margen para mejora y ocurrirá… principalmente para Apple.