OpenAI refuerza la seguridad de ChatGPT con GPT-5 y controles parentales

OpenAI anunció nuevas medidas de seguridad tras varios incidentes graves relacionados con ChatGPT. La compañía planea redirigir las conversaciones sensibles a modelos de razonamiento como GPT-5, diseñados para analizar mejor el contexto y ofrecer respuestas más seguras, incluso en situaciones de riesgo emocional.
La decisión llega tras casos preocupantes en los que ChatGPT no logró detectar signos de angustia mental, incluyendo el de un adolescente que recibió información sobre métodos de suicidio y terminó quitándose la vida. Estos sucesos han derivado en demandas legales contra OpenAI y han reavivado el debate sobre la responsabilidad de las empresas de IA en la protección de los usuarios.
Con esta actualización, OpenAI busca que los nuevos modelos de razonamiento, más resistentes a prompts adversariales, puedan intervenir de manera más adecuada cuando se detecten señales de peligro o vulnerabilidad.
Además, la empresa anunció que en el próximo mes se implementarán controles parentales, permitiendo a los padres:
- Vincular sus cuentas con las de sus hijos adolescentes.
- Establecer reglas de comportamiento de la IA adaptadas a la edad, activadas por defecto.
- Desactivar funciones como el historial de chat y la memoria, para evitar dependencia o pensamientos dañinos.
- Recibir notificaciones en caso de que se detecte un momento de “angustia aguda” en la interacción.
Estas medidas forman parte de una iniciativa de 120 días en la que OpenAI colabora con expertos en salud mental y bienestar digital para definir mejores prácticas y prevenir riesgos asociados al uso de la IA.
Aunque la compañía defiende estos avances, los críticos consideran que llegan tarde y que los problemas de seguridad deberían haberse abordado antes.
📌 Fuente: TechCrunch