Apple presenta actualizaciones AI graduales en WWDC 2025

En la edición del WWDC celebrada este año, Apple presentó una serie de actualizaciones AI graduales durante el keynote del lunes.

Las novedades se centraron en funciones prácticas como "Call Screening", que automatiza respuestas y transcribe las llamadas entrantes. También introdujo mejoras para la función Visual Intelligence, facilitando búsquedas de productos similares a los capturados por la cámara.

El anuncio destacó el acceso abierto al modelo on-device de lenguaje AI desarrollado internamente y su integración en herramientas como Xcode con funciones complementarias. Además, permitió usar ChatGPT para generación de imágenes dentro del ecosistema Apple mediante una demostración.

Estos avances se presentaron sin innovaciones transformadoras ni detalles específicos sobre Siri personalizada, que había sido anunciada previamente pero no implementada públicamente. La ausencia de esta actualización fue notoria en el contexto del anuncio general.

Aunque la compañía abrió su modelo AI para desarrolladores externos e integró capacidades generativas en Xcode (como código y visualización), mantuvo un enfoque prudente, evitando lanzamientos masivos de funciones avanzadas. Esto distinguió sus presentaciones del ritmo acelerado que observan otras empresas.

Las acciones de Apple cerraron con una pérdida potencialmente vinculada a la percepción general del mercado sobre las expectativas no cumplidas en IA y los avances limitados comparados con otros actores. La respuesta fue tibia, enfocándose más en funcionalidades integradas que en rupturas tecnológicas.

Los ejecutivos de Apple reconocieron el potencial colaborativo a través del modelo on-device para desarrolladores, pero no se alinearon directamente con la competencia visible actual. La comunidad técnica observa un patrón dualizador: innovación restringida en productos finales versus apertura controlada hacia las herramientas profesionales.

La estrategia parece balancear cuidadosamente el desarrollo interno de capacidades AI con una presentación pública más moderada, distinguiendo entre funciones directas para usuarios y potenciales integraciones para desarrolladores. La evolución continuará dependiendo del despliegue en aplicaciones reales.

La implementación actual sugiere que Apple está priorizando la integración práctica de capacidades generativas AI sobre interfaces conversacionales transformadoras, enfatizando funcionalidad incremental como Call Screening y Visual Intelligence para mejorar el usuario diario sin grandes cambios conceptuales. La apertura del modelo on-device a desarrolladores marca un punto focal diferente en su estrategia actual.

Analistas señalaron que Apple ha estado bajo presión significativa para entregar resultados concretos tras anuncios previos sobre Siri personalizada, pero estos no se materializaron hoy. La respuesta fue percibida como una continuación de patrones generales más que avances específicos.

La inclusividad del modelo on-device y la integración selectiva en herramientas profesionales reflejan un acercamiento diferente al desarrollo AI, donde las capacidades se implementan gradualmente a través de múltiples puntos de contacto. La evolución futura dependerá de estas implementaciones específicas.

La presentación fue tibia y orientada hacia funcionalidad práctica integrada en productos existentes, más que rupturas tecnológicas o cambios significativos en la interfaz principal del usuario para las funciones AI. El énfasis se puso en capacidades como Call Screening y Visual Intelligence.

La inclusividad de este modelo on-device a desarrolladores externos es un cambio notable respecto al año pasado, donde Apple solo permitió el acceso limitado durante su keynote. Esta apertura podría acelerar la adopción generalizada fuera del ecosistema iOS/Apple℗.

📌 Fuente: Arstechnica