¿Está llegando al límite la inteligencia artificial con razonamiento?

¿Está llegando al límite la inteligencia artificial con razonamiento?
Créditos de la imagen: Anadmist

Un análisis del instituto sin fines de lucro Epoch AI sugiere que el progreso de los modelos de inteligencia artificial enfocados en razonamiento —como los de OpenAI— podría estar cerca de su límite. Esto pondría en jaque la evolución de herramientas clave para programación, matemáticas y resolución de problemas complejos.

Estos modelos han mostrado avances notables en benchmarks recientes, en parte porque aplican más potencia de cálculo para llegar a soluciones más acertadas. Sin embargo, esto implica tiempos de respuesta más largos y costos más altos.

Puntos clave del análisis:

  • Modelos como OpenAI’s o3 aplican técnicas de aprendizaje por refuerzo (reinforcement learning) que dan retroalimentación a la IA para afinar sus respuestas.
  • Hasta ahora, los laboratorios líderes no han invertido grandes cantidades de computación en esta fase de entrenamiento... pero eso está cambiando.
  • OpenAI multiplicó por 10 la computación usada en o3 respecto a o1, en su mayoría dedicada al aprendizaje por refuerzo.
  • Aun así, hay un límite superior a cuánta computación puede aplicarse de forma efectiva en esta etapa, según Epoch.

El analista Josh You, autor del informe, señala que mientras el rendimiento de modelos convencionales mejora x4 cada año, los avances en razonamiento crecen x10 cada 3-5 meses. Pero esto podría converger o estancarse en 2026, afectando el ritmo de desarrollo.

Además del límite computacional, hay barreras económicas: los modelos con razonamiento son caros de investigar y mantener. Y aunque son potentes, tienden a “alucinar” más que modelos tradicionales.

💡 En resumen: el futuro de la IA de razonamiento no está garantizado. La industria deberá repensar cómo escalar estos modelos sin depender únicamente de más computación.

📌 Fuente: TechCrunch.