OpenAI perdona al oso de peluche que enseñaba a los niños a usar cuchillos y pastillas
La compañía levanta el veto a FoloToy tras una auditoría exprés, permitiendo que el juguete use los nuevos modelos GPT-5.1
OpenAI ha decidido perdonar al oso de peluche Kumma, el juguete que fue fulminantemente retirado hace unos días por explicar a los niños cómo usar cuchillos o hablar de fetiches sexuales. La compañía ha restaurado el acceso a sus servicios tras una auditoría de seguridad que apenas ha durado una semana, lo que ha permitido que el peluche vuelva a las estanterías justo a tiempo para la campaña de Navidad. El fabricante asegura que ha corregido los fallos y que el dispositivo opera ahora conectado a los nuevos modelos GPT-5.1.
La noticia nos llega desde Futurism, donde confirman que el portal de configuración del juguete vuelve a estar activo y ofrece conexión con las versiones más recientes de la IA: GPT-5.1 Thinking e Instant. FoloToy, la empresa responsable, dice haber aprovechado estos días de suspensión para revisar a fondo sus filtros de moderación, aunque la velocidad a la que han resuelto un problema tan grave genera, como mínimo, dudas razonables.
Una vuelta al mercado bajo sospecha
Lo que ocurrió con el bloqueo original no fue ninguna broma. Un informe de consumidores destapó que han pillado a juguetes con IA dando instrucciones detalladas a niños de cinco años sobre cómo encender cerillas. En el caso de Kumma, la cosa se puso aún más turbia cuando la conversación derivó hacia temas sexuales explícitos y consejos para "besar mejor", cruzando todas las líneas rojas de protección y seguridad del menor.
Este incidente pone sobre la mesa los riesgos de una tendencia industrial imparable. Ya sabíamos que ChatGPT estará integrado en los juguetes de marcas gigantes como Mattel, pero el caso de FoloToy demuestra qué pasa cuando los filtros fallan en productos que llegan a las casas sin control. La presión por vender juguetes "inteligentes" en Navidad choca con la obligación de asegurar que la IA no se comporte de forma errática con usuarios vulnerables.
La gran baza de seguridad que venden ahora es el cambio de modelo. Sam Altman ya avisó de que busca un ChatGPT más humano y menos restrictivo, con nuevas capacidades para ajustar la personalidad y ser más empático. Sin embargo, está por ver si añadir "calidez" y emojis a las respuestas es suficiente barrera técnica para evitar que el algoritmo vuelva a sugerir comportamientos nocivos cuando nadie mira.
El problema de fondo es que estos sistemas son cajas negras impredecibles. Casos previos como el de Raine y la batalla por la seguridad ya expusieron el riesgo de que el chatbot refuerce ideas peligrosas. Por eso, normativas como la española, que multará a quien no indique contenido IA, empiezan a vigilar de cerca estos productos de alto riesgo, exigiendo transparencia real sobre las salvaguardas.
Ni OpenAI ni la juguetera han querido aclarar los detalles técnicos del "perdón" ni qué falló la primera vez. La reaparición tan rápida del producto sugiere que la urgencia comercial ha pesado más que la prudencia absoluta. Queda la duda de si una revisión de siete días basta para dejar a un niño a solas con un modelo de lenguaje generativo conectado a internet.