Investigadores alertan de que la IA puede deteriorarse al aprender de contenido "brain rot"
Entrenar con tuits virales y texto superficial puede reducir la capacidad de razonamiento de la inteligencia artificial.
Durante años, la máxima parecía clara: cuanto mejor sea la calidad de los datos, mejor será el rendimiento de un modelo de inteligencia artificial. Sin embargo, un grupo de investigadores ha decidido ir más allá y demostrar que alimentar a un modelo con contenido trivial o de baja calidad no solo reduce su precisión, sino que puede generar efectos parecidos a los del deterioro cognitivo humano. Su estudio introduce un concepto tan provocador como inquietante: la “hipótesis del brain rot en los LLM” (LLM brain rot hypothesis).
La hipótesis del “brain rot” en modelos de lenguaje
El trabajo, elaborado por investigadores de Texas A&M, la Universidad de Texas y Purdue University, parte de un paralelismo con la conducta humana. En las personas, el consumo constante de contenido superficial o adictivo (memes, titulares sensacionalistas, vídeos triviales) puede degradar la capacidad de atención, la memoria y la empatía social. Los científicos se preguntaron si algo similar podría ocurrir en los modelos de lenguaje a gran escala (LLM) cuando son entrenados de manera continua con datos pobres o desinformativos.
Su hipótesis es sencilla en apariencia pero con implicaciones profundas: “El preentrenamiento continuado con texto basura en la web induce un declive cognitivo duradero en los LLM.” Para ponerla a prueba, los investigadores recurrieron a un corpus de 100 millones de tuits de HuggingFace, del que extrajeron dos conjuntos distintos: uno de “control” y otro calificado como “basura”.
Definir qué es o no contenido de baja calidad no es trivial ni completamente objetivo, pero el equipo aplicó varios criterios. En primer lugar, consideraron como junk data los tuits más breves y con mayor nivel de interacción (me gusta, retuits, respuestas o citas), partiendo de la idea de que la viralidad suele estar ligada a la superficialidad. En segundo lugar, utilizaron un complejo prompt en GPT-4o para evaluar la “calidad semántica” de los tuits, filtrando aquellos centrados en teorías conspirativas, afirmaciones exageradas, contenidos banales o titulares tipo clickbait. Para validar este método, tres estudiantes de posgrado revisaron una muestra aleatoria, coincidiendo con la clasificación automática en un 76 % de los casos.
Con esos criterios, los autores entrenaron cuatro modelos distintos con proporciones variables de datos “basura” y de control, y luego los sometieron a varias pruebas de rendimiento: razonamiento lógico (ARC AI2 Reasoning Challenge), memoria de contexto largo (RULER), comportamiento ético (HH-RLHF y AdvBench) y estilo de personalidad (TRAIT).
Los resultados fueron claros en varios aspectos. A mayor proporción de datos basura, peor razonamiento y menor capacidad de memoria contextual. En cambio, el impacto sobre las métricas éticas y de personalidad resultó más ambiguo. Curiosamente, un modelo Llama 8B entrenado con una mezcla equilibrada (50 % de datos basura y 50 % de control) mostró mejores puntuaciones en rasgos como apertura y menor neuroticismo, así como una ligera mejora en la coherencia ética respecto a los modelos entrenados exclusivamente con datos “puros”.
Este hallazgo sugiere que un cierto nivel de exposición a contenido trivial podría tener un efecto de regularización o diversidad, pero más allá de cierto umbral los efectos se vuelven negativos y acumulativos. O, en términos humanos, un poco de ruido puede estimular la creatividad, pero demasiada basura acaba por enturbiar la mente.
Los investigadores advierten de que el aprendizaje continuo basado en grandes volúmenes de texto de Internet expone a los modelos a una “contaminación de contenido”, un fenómeno que degrada progresivamente sus capacidades. En consecuencia, hacen un llamamiento a revisar los métodos actuales de recopilación y filtrado de datos y a invertir en curación y control de calidad antes de alimentar nuevos sistemas con información reciclada o de origen dudoso.
El aviso llega en un momento crítico: cada vez más parte del contenido online está siendo generado por otras inteligencias artificiales, lo que plantea el riesgo de un “colapso de modelos” si las futuras generaciones de IA se entrenan sobre datos creados por sus propias antecesoras. El círculo vicioso sería evidente: modelos que aprenden de modelos, perdiendo progresivamente coherencia, creatividad y rigor.
De fondo, este estudio no solo alerta sobre la calidad del material con que alimentamos la inteligencia artificial, sino también sobre cómo el propio ecosistema digital humano refleja ese deterioro. Si la red se llena de ruido, exageraciones y estímulos adictivos, no solo nosotros sufrimos sus efectos: también las máquinas que dependen de nosotros para aprender.
En última instancia, el mensaje es tan técnico como filosófico. La inteligencia artificial solo puede ser tan lúcida como los datos que le ofrecemos. Y si el mundo digital continúa degradándose en banalidad, la próxima generación de modelos podría terminar padeciendo (metafóricamente) la misma pudrición mental que ya amenaza a sus creadores humanos.