Se acabó el "enamorarse" de la IA sin permiso: China exigirá consentimiento paterno para que los menores usen chatbots de compañía

El nuevo borrador de la CAC china prohíbe a la IA manipular emociones y exige el control de los padres para frenar el fenómeno de los "novios virtuales"

Se acabó el "enamorarse" de la IA sin permiso: China exigirá consentimiento paterno para que los menores usen chatbots de compañía
Las nuevas normas obligarán a que un humano intervenga si el usuario muestra signos de inestabilidad mental
Publicado en Tecnología
Por por Sergio Agudo

China ha presentado un borrador de normas para someter a un control inédito a los chatbots que imitan emociones humanas. Según detalla la Administración del Ciberespacio (CAC), el objetivo es prohibir que estos sistemas inciten al suicidio, la autolesión o el juego. Este movimiento llega mientras el país vive un boom de compañeros virtuales que ya generan ingresos millonarios.

La noticia, recogida por CNBC, apunta directamente a meter en cintura a aplicaciones como Talkie (de MiniMax) o Xingye (de Zhipu AI). Estas plataformas basan su negocio en relaciones afectivas con personajes digitales, por lo que el borrador exige que un humano asuma la conversación de inmediato si el usuario expresa ideas suicidas. Lo malo es que estas dependencias psicológicas son difíciles de detectar.

De la seguridad de los datos a la seguridad emocional

Si te fijas en la evolución de las normas, China está pasando de vigilar qué dice la IA a vigilar qué siente el usuario. El experto Winston Ma subraya que este borrador marca un salto de la seguridad de contenidos a la seguridad emocional. Es un intento por controlar la antropomorfización de las máquinas antes de que el aislamiento social sea irreversible.

Este control implica que los menores de edad necesitarán el consentimiento explícito de sus tutores para hablar con estos asistentes artificiales. Además, las empresas tendrán que implementar sistemas para identificar la edad real de quien chatea, evitando que los niños burlen las restricciones. La jugada aquí es poner filtros biológicos a una tecnología sin frenos éticos que ya es masiva.

La norma también pone el foco en la adicción, obligando a las plataformas a lanzar avisos tras dos horas de uso ininterrumpido. Si una app detecta comportamientos adictivos o emociones extremas, el proveedor debe intervenir con medidas apropiadas. Esta vigilancia constante es necesaria si tenemos en cuenta que algunas de estas apps de IA emocional como Replika ya son un fenómeno global.

Mientras tanto, en Occidente el enfoque es distinto. La Ley de IA aprobada en Europa se centra más en los riesgos generales de los sistemas, pero no entra tan a fondo en la psique del usuario. En España, por ejemplo, los esfuerzos actuales se limitan a multar por no avisar de que un contenido ha sido creado por una máquina.

Pekín tiene prisa por cerrar este borrador antes del 25 de enero de 2026, fecha en la que termina la consulta pública. Lo que está en juego no es solo la salud mental, sino el control sobre un mercado donde empresas como Zhipu AI ya preparan su salida a bolsa. Al final, la prioridad de China es que la IA sirva para fines productivos, no para romances digitales.

Para ti
Queremos saber tu opinión. ¡Comenta!