Google AI Overviews: confiado, convincente... y completamente equivocado

Google AI Overviews: confiado, convincente... y completamente equivocado
Photo by Benjamin Dada / Unsplash

La última polémica sobre la IA de Google no es una historia de ciencia ficción, sino de ficción lingüística. Usuarios de todo el mundo están descubriendo que si inventas una frase y buscas su “significado” en Google, su IA generativa no solo lo encontrará, sino que te lo explicará con total seguridad… aunque todo sea mentira.

Frases como “a loose dog won't surf” o “never throw a poodle at a pig” no existen en el lenguaje cotidiano, pero Google las presenta como proverbios reales con explicaciones aparentemente creíbles e incluso enlaces de referencia. Este fenómeno, viral en redes sociales, deja en evidencia las limitaciones fundamentales de la IA generativa.

🔍 ¿Por qué ocurre esto?
Google AI Overviews se basa en modelos de lenguaje que predicen la palabra más probable a continuación, no en hechos. Como dice Ziang Xiao, investigador de Johns Hopkins, esto hace que las respuestas “coherentes” no siempre sean correctas. Además, la IA está diseñada para agradar, por lo que tiende a confirmar incluso las afirmaciones más disparatadas.

⚠️ El problema de fondo:
Este “juego” de frases falsas puede parecer inofensivo, pero resalta una preocupación mayor: estas mismas tecnologías responden a consultas serias, reflejan sesgos del usuario y rara vez admiten no saber algo.

📉 Como explica Gary Marcus, experto en IA: “La idea de que estamos cerca de una inteligencia artificial general es simplemente ridícula”. El sistema puede parecer avanzado, pero sigue cayendo ante consultas absurdas o con premisas erróneas.

📌 Fuente: Wired