
Educación
Un estudio revela que la IA puede sumar hasta dos años de aprendizaje o fomentar la "ley del mínimo esfuerzo"
Constata que puede personalizar la educación y reducir desigualdades en el aula, pero mal aplicada fomenta la dependencia y la "pereza mental"

La inteligencia artificial (IA) ya está en las aulas y promete revolucionar la educación. Más aún, puede ser un buen aliado para una educación personalizada que permita respetar el ritmo de aprendizaje de cada alumno. Pero también puede convertirse en una trampa si no hay un criterio pedagógico, tal y como revela el estudio “Ventajas y desventajas de la IA en la educación: el caso de los tutores individualizados guiados por la IA” de Ismael Sanz, publicado en Papeles de Economía Española, que pone de relieve las luces y sombras de la aplicación de la IA en la educación.
Si miramos la mejor de sus caras, “la IA tiene la capacidad para ofrecer tutorías individualizadas a gran escala”, señala el informe. Esto supone un cambio de paradigma, especialmente para los estudiantes que más lo necesitan o de entornos desfavorecidos. Y pone como ejemplo un programa desarrollado en en Ghana, donde un tutor conversacional de matemáticas por WhatsApp llamado Rori basado en IA, accesible mediante WhatsApp y diseñado para funcionar en teléfonos móviles básicos conectados a redes de baja capacidad, logró un impacto equivalente a un año adicional de aprendizaje por un coste de apenas 5 dólares por alumno. El sistema permitía interacciones mediante lenguaje natural, lo que favorecía una experiencia similar a una tutoría personalizada.
En la misma línea, una experiencia en Nigeria con Microsoft Copilot mostró mejoras equivalentes a “entre 1,5 y 2 años de aprendizaje convencional”. Ambas experiencias analizadas por el estudio ponen en valor la capacidad de la IA para mejorar los resultados educativos, si la tecnología está bien orientada resultando, además, un potente motor de equidad en entornos menos favorecidos.
Pero la IA también tiene otro efecto pernicioso si no se aplica adecuadamente. La investigación de Sanz, profesor de la URJC y la London School of Economics, también pone como ejemplo otra investigación realizada en Turquía comparando dos versiones del modelo GPT-4. Una, configurada como un tutor pedagógico que daba pistas (GPT-Tutor), mejoró el aprendizaje de los alumnos. La otra, que simplemente daba las respuestas completas (GPT-Base), “llevó a los estudiantes a adoptar una actitud pasiva, delegando el esfuerzo cognitivo en la máquina”, dice el estudio. El resultado fue que el grupo que usó la versión fácil “aprendió menos que quienes trabajaron sin ningún tipo de asistencia”.
Este fenómeno, conocido como “cognitive offloading” o "pereza cognitiva", se confirma en otros estudios. Una investigación con universitarios que usaban ChatGPT mostró que, aunque mejoraban sus textos, “mostraron una menor frecuencia de estrategias metacognitivas como la planificación, la monitorización y la autoevaluación”. Es decir, al recibir respuestas bien estructuradas de inmediato, el alumno dejaba de esforzarse.
Además, un informe de la OCDE citado en el estudio alerta sobre otros riesgos: “erosión de habilidades socioemocionales, dependencia tecnológica y desinformación”. Las respuestas de la IA “pueden ser erróneas, incompletas o sesgadas”, por lo que resulta esencial formar a los estudiantes en un espíritu crítico.
Así las cosas, el estudio concluye que el éxito no depende de la tecnología en sí, sino de cómo se use. “El impacto de estos sistemas no depende tanto de su sofisticación técnica como del diseño pedagógico e institucional que los acompaña”, expone. La clave estaría en modelos híbridos que combinen lo mejor de la IA con la guía humana.
Y pone como ejemplo proyectos como “Khanmigo “de la Academia Khan, que ejemplifican esta integración porque está diseñado no para dar respuestas, sino para “fomentar procesos de razonamiento, reflexión y autocomprobación”, se concibe como un “copiloto” tanto para el alumno como para el profesor, ayudando a liberar la carga administrativa del docente.
Otra de las conclusiones del estudio es que el camino no está tanto en prohibir como en integrar con sentido. La IA educativa exige “un nuevo pacto pedagógico que incorpore la IA no como sustituto, sino como catalizador del aprendizaje significativo”. El reto es evitar que, en lugar de ampliar oportunidades, “refuerce las desigualdades preexistentes o genere nuevas formas de dependencia intelectual”, cloncluye.
✕
Accede a tu cuenta para comentar