La nueva generación de dispositivos de Apple llega con un fuerte enfoque en la inteligencia artificial, bajo el paraguas de "Apple Intelligence". Estas capacidades, impulsadas por los nuevos chips A19 y A19 Pro, habilitan funciones innovadoras como la traducción en tiempo real y el encuadre automático en cámaras, buscando mejorar la interacción del usuario y la funcionalidad de los equipos. Una de las funciones más destacadas es "Live Translation", integrada en los nuevos AirPods Pro 3 y en iOS 26. Esta herramienta permite la traducción de voz casi instantánea en conversaciones cara a cara, convirtiendo a los audífonos en un traductor personal. En el ámbito fotográfico y de video, la función "Center Stage" debuta en la cámara frontal de 18 MP de toda la serie iPhone 17. Utilizando inteligencia artificial, esta tecnología ajusta automáticamente el encuadre para mantener al usuario centrado durante videollamadas o selfies, incluso si hay varias personas en la toma o si se mueven.
Además, permite tomar selfies en formato horizontal sin necesidad de girar el teléfono.
Estas características se complementan con otras mejoras de IA en iOS 26, como la búsqueda avanzada con imágenes y herramientas de escritura mejoradas. Aunque la versión completamente renovada de Siri con IA avanzada se ha pospuesto para 2026, las funciones actuales demuestran el compromiso de Apple por integrar la inteligencia artificial de manera práctica y funcional en su ecosistema, potenciando desde la comunicación hasta la creación de contenido.
En resumenApple Intelligence se materializa en la nueva gama de productos con funciones prácticas como la traducción en vivo en los AirPods Pro 3 y el encuadre automático Center Stage en los iPhone 17. Estas herramientas, soportadas por los chips A19, mejoran la comunicación y la creación de contenido, sentando las bases para una mayor integración de la IA en el ecosistema de Apple.