La ciencia lo confirma: usar ChatGPT para aprender un tema nuevo es peor que buscarlo en Google 'a la antigua'

Un estudio con 10.000 personas revela que buscar información en Google genera un aprendizaje más profundo que pedirle el resumen a una IA

La ciencia lo confirma: usar ChatGPT para aprender un tema nuevo es peor que buscarlo en Google 'a la antigua'
La "fricción" de tener que buscar y filtrar resultados en la web ayuda a fijar conocimientos, mientras que la respuesta inmediata del chatbot fomenta la pasividad
Publicado en Tecnología
Por por Sergio Agudo

Usar ChatGPT para empaparse de un tema nuevo es rápido y cómodo, pero tiene un precio alto: aprendes menos. Un estudio de la Universidad de Pensilvania ha confirmado que las personas que tiran de IA para documentarse retienen peor la información y escriben textos más pobres que aquellas que hacen el esfuerzo de buscar en Google y sintetizar los datos por su cuenta.

El estudio, firmado por la profesora Shiri Melumad en The Conversation, no es una anécdota: se apoya en siete experimentos con más de 10.000 participantes y los resultados son demoledores. Delegar la búsqueda en la IA provoca una falsa sensación de conocimiento que no se sostiene. Esto choca con el discurso de gigantes como Google, que invierten millones para que la IA sirva para aprender prometiendo una revolución educativa que los datos, hoy por hoy, no respaldan.

La trampa de la comodidad cognitiva

El problema no es que la IA mienta, sino que nos lo pone demasiado fácil. Buscar en Google obliga a navegar, filtrar y conectar ideas, un proceso de "fricción cognitiva" vital para fijar conceptos. Al usar un chatbot, nos saltamos ese esfuerzo mental y nos volvemos pasivos, algo que encaja con los expertos que avisan de que la memoria artificial supera a la humana, pero falla estrepitosamente en el pensamiento crítico.

Y no, la culpa no es de la calidad de los datos. Los investigadores hicieron una prueba ciega mostrando la misma información exacta a dos grupos, unos con formato Google y otros vía chatbot. El resultado fue idéntico: la versión procesada por la IA generó un aprendizaje más superficial. Esto valida el temor docente de que las lecciones creadas por IA solo fomentan la memorización y matan el análisis.

La tensión en las aulas es real. Mientras los estudiantes se abrazan a estas herramientas por pura ley del mínimo esfuerzo, los profesores intentan frenar su uso aunque, irónicamente, ellos mismos las usen para corregir. El estudio sugiere que esta dependencia puede pasar factura, creando una generación que encuentra respuestas en segundos pero es incapaz de construir un mapa mental sólido de lo que estudia.

El riesgo va más allá de suspender un examen. Delegar el pensamiento en algoritmos puede llevar a un deterioro cognitivo similar al "brain rot", un fenómeno que paradójicamente también afecta a las propias máquinas cuando aprenden de contenido basura y se deterioran. Si nos acostumbramos a consumir resúmenes procesados sin cuestionarlos, perdemos la capacidad de discernir matices y calidad.

Las consecuencias ya son visibles en los expedientes académicos. Universidades de todo el mundo están empezando a aplicar sanciones graves por el uso indebido de IA, castigando no solo el plagio, sino la ausencia de esfuerzo intelectual propio. Es el aviso de que la tecnología no puede sustituir el trabajo de comprensión que requiere el aprendizaje real.

Al final, los datos dan la razón a quienes defienden que el "camino difícil" es insustituible. Buscar, contrastar y sintetizar manualmente sigue siendo la única forma de aprender de verdad. La IA puede ser un buen asistente, pero si dejamos que haga todo el trabajo sucio, acabaremos siendo usuarios más cómodos, pero mucho menos sabios.

Para ti
Queremos saber tu opinión. ¡Comenta!