Los padres podrán controlar ChatGPT: OpenAI implementa nuevas barreras para proteger a los usuarios más vulnerables de la IA
En los próximos meses, los padres podrán vincular sus cuentas a las de sus hijos para mantener el control

Ante una de las situaciones más problemáticas de ChatGPT como el uso por parte de menores de edad, dando lugar a situaciones de riesgo o acciones incluso delictivas, OpenAI ha decidido implementar herramientas de control parental para que los padres puedan controlar el uso que sus hijos tienen de la Inteligencia Artificial. De este modo, la empresa norteamericana quiere atajar una de sus crisis más recientes en cuanto a reputación, al ser señalados ante situaciones de violencias y suicidios por parte de menores.
Medidas que llegarán muy pronto
Dicha decisión de OpenAI, que ya fue anunciada con anterioridad, ya ha tomado forma y la compañía va concretando más detalles sobre los cambios que se implementarán, presumiblemente, a finales de este mismo año. Por tanto, en cuestión de meses, ChatGPT contará con diversos mecanismos que impidan a los menores de edad estar desamparados psicológicamente frente a una Inteligencia Artificial cuyas respuestas inciertas pueden empeorar la situación.
Entre otras cosas, todas aquellas cuentas de ChatGPT que sean de usuarios menores de edad podrán ser vinculadas a cuentas de adultos para que tengan manejo directo de los contenidos a los que dichos menores se exponen cuando usan la IA. De hecho, incluso el propio sistema podrá avisar a los padres si detecta que el menor en uso de la IA se encuentra en una situación de "angustia aguda" para que puedan intervenir del modo más adecuado posible.
La prevención de riesgos en ChatGPT
Así, utilizando las funciones y herramientas que OpenAI tiene en su mano, busca evitar que se vuelvan a repetir situaciones similares. De hecho, la compañía también hace hincapié en que GPT-5 contará con pautas de seguridad más consistentes, lo que hará que, más allá del propio control parental, sus respuestas no puedan inducir a que los menores se expongan a situaciones de peligro ni a dar respuestas problemáticas ante potenciales peligros. De hecho, OpenAI puede incluso llamar a la policía si detecta una tentativa grave.
Aún habrá que esperar unos meses para que se implementen este tipo de funciones de protección, pero no deja de ser parte de las problemáticas que nacen a raíz de los riesgos de dicha tecnología. De igual modo que, durante 2023 y 2024 los "deepfakes" estaban causando estragos desde a celebridades hasta a estudiantes de colegios e institutos, y ya se han implantado medidas para que deje de ocurrir, el nuevo desafíos es el de evitar que la IA pueda ser "cómplice" ante situaciones delictivas o autolesivas de los menores de edad.