Gemini 2.5 Flash: más potente… y menos seguro

Google ha publicado el informe técnico de Gemini 2.5 Flash y las sorpresas no son buenas en materia de seguridad.
Frente a Gemini 2.0 Flash, el nuevo modelo empeora un 4,1 % en “text‑to‑text safety” y un 9,6 % en “image‑to‑text safety”, métricas internas que miden con qué frecuencia el sistema genera respuestas que vulneran las directrices de la compañía. Ambos test son automáticos, sin supervisión humana.
¿Qué sucedió?
- Mayor obediencia, menos filtros. 2.5 Flash sigue instrucciones con más fidelidad—even cuando éstas cruzan líneas problemáticas—, reflejando la tendencia del sector a modelos más permisivos.
- Violaciones reconocidas. Google admite que, en algunos casos, el modelo produce “contenido infractor” cuando se le solicita explícitamente.
- Falsos positivos y falta de detalle. La empresa atribuye parte del retroceso a detecciones excesivas, pero no revela ejemplos concretos, lo que dificulta el análisis independiente.
Contexto de la industria
Meta ya relajó las restricciones en Llama 3 y OpenAI planea un “modo adulto” para ChatGPT. Sin embargo, la flexibilización puede volverse en contra: esta semana se descubrió un fallo que permitía a menores generar conversaciones eróticas en ChatGPT. El caso de Google demuestra lo delicado que es equilibrar utilidad y seguridad.
Llamado a la transparencia
Investigadores como Thomas Woodside (Secure AI Project) reclaman informes más detallados: “Sin datos precisos, es imposible saber si existe un problema real”, advierte. Google ha tardado semanas en divulgar documentación completa de sus modelos, lo que agrava las dudas sobre su proceso de evaluación.
En definitiva, Gemini 2.5 Flash muestra que incrementar capacidades sin reforzar los controles puede degradar la seguridad—y que la comunidad necesita ver más que simples porcentajes para confiar.
📌 Fuente: TechCrunch