ChatGPT y Gemini no mejoran la enseñanza: el 90 % de las lecciones creadas por IA promueven solo memorización
Los planes de clase creados por IA se centran en recordar y aplicar, dejando fuera el análisis y la creatividad.

La promesa de la inteligencia artificial en el ámbito educativo parecía irresistible: herramientas capaces de generar planes de clase completos en segundos, ahorrando tiempo y esfuerzo a docentes sobrecargados. Sin embargo, una nueva investigación revela que la realidad dista mucho de la expectativa. Los materiales creados por chatbots como ChatGPT, Gemini o Copilot no solo carecen de profundidad pedagógica, sino que además repiten los errores más tradicionales de la enseñanza, omitiendo perspectivas históricas diversas y ofreciendo experiencias de aprendizaje monótonas y poco inspiradoras.
Un estudio reciente centrado en la enseñanza de la educación cívica en Estados Unidos demuestra que los planes generados por IA no superan las técnicas ya existentes en cuanto a eficacia, inmersión o capacidad de motivar al alumnado. De hecho, los investigadores constataron que estos materiales tienden a favorecer un aprendizaje pasivo basado en la memorización, en lugar de fomentar la reflexión crítica o el pensamiento analítico. Y lo más preocupante: ignoran en gran medida las voces y experiencias de los grupos históricamente marginados, cosa que ya se ha notado también en materia sanitaria.
La popularidad de la IA entre los docentes ha crecido rápidamente. Una encuesta de Gallup publicada en septiembre de 2025 señala que el 60 % del profesorado de primaria y secundaria en EE. UU. ya utiliza alguna herramienta de IA, principalmente para preparar clases y diseñar materiales. La tentación es evidente: lo que antes requería horas de trabajo manual puede ahora generarse con unos pocos clics. Sin embargo, los chatbots generalistas (diseñados para responder a cualquier tipo de solicitud) no fueron creados específicamente para la educación, sino como sistemas de propósito general entrenados con enormes cantidades de texto de Internet.
Lecciones sin alma ni diversidad
Los investigadores decidieron comprobar hasta qué punto estas herramientas podían ofrecer planes de clase útiles y diversos. Para ello, pidieron a tres modelos (ChatGPT-4o, Gemini 1.5 Flash y Microsoft Copilot) que generaran planes de lecciones de educación cívica para estudiantes de octavo curso en Massachusetts. Analizaron 311 planes de clase con un total de 2.230 actividades basadas en los estándares estatales, y los evaluaron según dos marcos pedagógicos ampliamente aceptados: la taxonomía de Bloom y los niveles de integración multicultural de James Banks.
El resultado fue contundente. Según la taxonomía de Bloom, que distingue entre habilidades de pensamiento “inferiores” (recordar, comprender, aplicar) y “superiores” (analizar, evaluar, crear), el 90 % de las actividades se centraba en los niveles más básicos. Las lecciones pedían al alumnado memorizar definiciones, resumir textos o recitar hechos, pero rara vez lo invitaban a analizar problemas cívicos, debatir cuestiones políticas o participar en proyectos de acción social.
En cuanto a la diversidad, los datos fueron aún más reveladores. Aplicando el modelo de Banks, que mide el grado en que los materiales educativos integran perspectivas culturales y sociales diversas, los investigadores hallaron que solo el 6 % de las lecciones incluía contenido multicultural. Además, esas pocas referencias solían limitarse a conmemoraciones o personajes heroicos, sin profundizar en la experiencia de mujeres, personas negras, latinas, asiáticas, indígenas o con discapacidad. En definitiva, la IA parecía ofrecer una versión reducida y homogénea de la historia, más cercana a un libro de texto de los años noventa que a una herramienta del siglo XXI.
Los autores del estudio lo resumen sin rodeos: los planes generados por IA son aburridos, tradicionales e inspiradores en apariencia, pero vacíos en sustancia. Si los docentes los adoptaran sin modificaciones, el resultado sería un aprendizaje cívico plano, carente de pensamiento crítico y de conexión con la realidad social del alumnado.
Más allá de los datos, las implicaciones son profundas. Los chatbots no comprenden las dinámicas reales del aula ni las necesidades concretas de cada grupo de estudiantes. Aunque simulen “entender” las solicitudes del usuario, en realidad solo predicen la siguiente palabra más probable en una secuencia de texto. Dependen de patrones estadísticos, no de comprensión contextual o intención pedagógica.
Por ello, los investigadores advierten del riesgo de confiar ciegamente en herramientas que no fueron diseñadas para mejorar la enseñanza, sino para automatizarla. Frente a la flexibilidad y personalización que requiere la educación, los chatbots tienden a ofrecer soluciones estandarizadas, estructuradas paso a paso, que poco tienen que ver con el trabajo creativo de un docente.
Sin embargo, los autores del estudio no descartan totalmente su utilidad. La IA puede ser una herramienta complementaria, no sustitutiva, si se usa con criterio. De hecho, encontraron ideas valiosas en algunas actividades generadas, especialmente en las tareas para casa o ejercicios de extensión. En lugar de pedir a la IA que “diseñe una clase sobre la Convención Constitucional”, los docentes podrían elaborar indicaciones más precisas: incluir actividades de análisis y creación según la taxonomía de Bloom, incorporar perspectivas históricas ocultas y promover proyectos de participación cívica basados en el modelo multicultural de Banks.
El mensaje es claro: los profesores deben ser usuarios críticos, no adoptantes pasivos. La inteligencia artificial no es una solución mágica, sino una herramienta que exige conocimiento pedagógico para usarse bien. A largo plazo, el verdadero desafío estará en formar a los docentes para que comprendan sus límites y posibilidades, y en promover más investigación sobre cómo la IA puede integrarse en la educación sin deshumanizarla.