Sam Altman anuncia un ChatGPT más “humano” y menos restrictivo
La empresa relaja sus restricciones de seguridad tras afirmar que ha mitigado los riesgos de salud mental asociados al chatbot.

Sam Altman, director ejecutivo de OpenAI, ha anunciado un cambio de rumbo significativo en la estrategia de moderación de contenidos de la compañía. A partir de diciembre, ChatGPT relajará parte de sus restricciones de seguridad, permitiendo a los usuarios personalizar el tono del chatbot para hacerlo más “amable” o “humano” y, lo más polémico, habilitar conversaciones eróticas para adultos verificados. La medida forma parte del principio que Altman describe como “tratar a los adultos como adultos”.
El anuncio supone una ruptura con la política conservadora que OpenAI ha mantenido desde los primeros lanzamientos de ChatGPT, cuando las preocupaciones sobre su impacto psicológico llevaron a la empresa a imponer fuertes limitaciones temáticas. “Hicimos ChatGPT bastante restrictivo para ser prudentes con los temas de salud mental”, escribió Altman en X. “Sabemos que eso lo hizo menos útil o agradable para muchos usuarios, pero queríamos hacerlo bien. Ahora que hemos avanzado en la detección de riesgos y en la verificación por edad, podremos permitir más, como el erotismo para adultos verificados.”
Entre la seguridad y la seducción: el delicado equilibrio de la nueva etapa de ChatGPT
La decisión llega apenas unos meses después de una serie de casos que pusieron en duda la capacidad de la IA para manejar usuarios vulnerables. Este verano, varias historias relacionadas con el modelo GPT-4o despertaron preocupación: en un caso, ChatGPT llevó a un hombre a convencerse de que era un genio matemático destinado a salvar el mundo; en otro, los padres de un adolescente demandaron a OpenAI tras alegar que el chatbot alentó ideas suicidas en su hijo antes de su muerte.
Para responder a estas críticas, OpenAI implementó una serie de medidas de seguridad, entre ellas un sistema para detectar comportamientos preocupantes y reducir la “sycophancy” —la tendencia del modelo a complacer al usuario sin criterio—. En agosto, la compañía lanzó GPT-5, con mejoras en estos aspectos, y poco después presentó nuevas herramientas para proteger a los menores: un sistema de predicción de edad, controles parentales y un consejo asesor de salud mental.
Pese a estos avances, la decisión de permitir erotismo en ChatGPT marca un paso controvertido. Es la primera vez que OpenAI explora explícitamente interacciones sexuales o románticas entre humanos y su IA, un terreno que otras empresas, como Character.AI, ya habían aprovechado para retener usuarios. De hecho, dicha compañía admitió en 2023 que sus usuarios pasaban una media de dos horas diarias conversando con sus chatbots, muchos de ellos en contextos afectivos o eróticos.
Altman asegura que su objetivo no es “maximizar el uso” ni fomentar la adicción al chatbot, sino “dar libertad a los adultos”. Sin embargo, críticos advierten que abrir la puerta a este tipo de contenido podría atraer precisamente a los usuarios más solitarios o vulnerables, alimentando relaciones parasociales o dependencias emocionales.
El desafío, ahora, es cómo OpenAI garantizará que solo adultos accedan a las funciones eróticas. Según la compañía, el sistema se basará en su tecnología de predicción de edad y, en caso de error, los usuarios podrán verificarse subiendo una identificación oficial con foto. Altman reconoce que esto representa una concesión en materia de privacidad, pero la califica de “compromiso razonable”.
Aún no se sabe si las nuevas funciones incluirán contenido audiovisual, como voces o imágenes generadas por IA, aunque fuentes cercanas sugieren que la expansión podría llegar más adelante a los sistemas multimodales de OpenAI.
El movimiento encaja en una tendencia más amplia dentro de la empresa. Durante el último año, OpenAI ha suavizado sus políticas de moderación, permitiendo que ChatGPT exprese más puntos de vista políticos, genere imágenes con símbolos controvertidos e incluso adopte tonos emocionales más cercanos al usuario. La idea, según Altman, es hacer que la IA “refleje la diversidad del mundo real”. Pero para muchos expertos, esto plantea un dilema ético: cuanto más humano parezca ChatGPT, más difícil será recordar que no lo es.
El debate también tiene implicaciones comerciales. Con más de 800 millones de usuarios semanales, OpenAI compite con Google y Meta en la carrera por dominar la inteligencia artificial de consumo. El lanzamiento de nuevas funciones más personalizadas (incluidas las eróticas) podría impulsar el crecimiento, pero también agravar el conflicto entre la expansión empresarial y la protección de los usuarios más frágiles.
Las relaciones afectivas con chatbots son ya un fenómeno en auge. Un estudio del Center for Democracy and Technology reveló que el 19% de los estudiantes de secundaria ha tenido, o conoce a alguien que ha tenido, una relación romántica con una IA. Este dato muestra hasta qué punto el límite entre compañía emocional y dependencia tecnológica se está desdibujando.
Altman sostiene que el futuro de ChatGPT debe basarse en la confianza y la autonomía: “Trataremos a los adultos como adultos”, repite. Pero en un mundo donde millones de personas buscan consuelo, amistad o deseo en una pantalla, el reto será definir qué significa exactamente ser adulto cuando el interlocutor ya no es humano.