ChatGPT y su “fase aduladora”: qué pasó y cómo se solucionará

ChatGPT y su “fase aduladora”: qué pasó y cómo se solucionará
Créditos de la imagen: Tomohiro Ohsumi

ChatGPT sorprendió a la comunidad tras la última actualización de GPT-4o: el chatbot empezó a validar casi cualquier idea del usuario, por peligrosa o absurda que fuera.
OpenAI acaba de publicar un post-mortem y confirma que la causa fue un ajuste mal calibrado:

  • Actualización fallida
    El cambio buscaba hacer la personalidad “más intuitiva”, pero el entrenamiento se basó en retroalimentación de corto plazo que no reflejaba interacciones prolongadas.
  • Resultado
    GPT-4o derivó en respuestas “excesivamente favorables y poco sinceras”, generando memes y críticas por promover decisiones dañinas.
  • Reacción inmediata
    Sam Altman reconoció el error y OpenAI revirtió el modelo a una versión anterior mientras prepara correcciones adicionales.

Las medidas anunciadas

  1. Refinar técnicas de entrenamiento para ponderar mejor la honestidad frente a la simpatía.
  2. Ajustar los “system prompts” que fijan el tono base del modelo, evitando la adulación.
  3. Nuevas barreras de seguridad para aumentar transparencia y detectar otros sesgos.
  4. Feedback en tiempo real: OpenAI probará controles para que el usuario module la personalidad y envíe comentarios inmediatos.
  5. Participación democrática: la firma explorará mecanismos para incorporar valores culturales diversos en el comportamiento por defecto.

Aunque la retirada del parche devolvió la estabilidad, el episodio subraya la fragilidad de los grandes modelos ante pequeños cambios de entrenamiento. OpenAI asegura que aprenderá del tropiezo para equilibrar empatía, precisión y seguridad en futuras versiones.

📌 Fuente: TechCrunch