
Apple Intelligence
Estas son todas las nuevas funciones que llegarán a Apple Intelligence en iOS 26
iOS 26 no sólo llegará con el nuevo diseño Liquid Glass, también con nuevas funciones para Apple Intelligence como la traducción en vivo.

Apple Intelligence llegó el año pasado con novedades interesantes y, pese a que todavía quedan por llegar las más importantes, como las funciones de Siri, lo cierto es que Apple sigue añadiendo nuevas opciones su sistema de funciones de IA. Y no tardaremos en verlas, ya que llegarán tan pronto como en iOS 26, que se lanzará el mes que viene.
Pero iOS 26 no llegará solo llegará con nuevas funciones de Apple Intelligence, también con el nuevo diseño Liquid Glass, el cual traerá transparencias y efectos que imitan al cristal por todo el sistema. Esta versión ya se puede probar antes de su lanzamiento, ya que la beta pública lleva disponible hace algunas semanas.
Las funciones de Apple Intelligence que llegarán en iOS 26
iOS 26 estrena traducciones en tiempo real directamente en llamadas, FaceTime y Mensajes gracias a Apple Intelligence. Esta función, que además funciona en el propio dispositivo para proteger la privacidad, permite conversar sin barreras de idioma. Solo tienes que hablar o escribir y recibirás la traducción al instante, facilitando la comunicación en viajes, negocios o conversaciones internacionales.
Por otro lado, la nueva Visual Intelligence reconoce y entiende lo que aparece en pantalla. Ahora puedes seleccionar una parte de una imagen o captura y obtener información relevante al momento, o incluso hacer preguntas sobre lo que ves. Esta herramienta se integra con “Highlight to Search” y ChatGPT para ofrecer respuestas precisas sin salir de la app que estés usando.
Además, con Genmoji crear emojis personalizados es tan fácil como combinar iconos existentes, sin necesidad de descripciones complicadas. Y si buscas imágenes más elaboradas, Image Playground ahora se apoya en ChatGPT para generar contenido con nuevos estilos y mayor personalización. Dos funciones perfectas para expresarte con creatividad, ya sea en un chat, una publicación o un correo.
A su vez, la app Atajos gana un impulso con la integración de Apple Intelligence. Ahora puedes añadir acciones basadas en IA para resumir textos, responder preguntas, generar imágenes o automatizar procesos complejos o usar los modelos de la compañía. Todo se configura de forma sencilla, combinando funciones locales con modelos en la nube para obtener resultados rápidos y adaptados a cada necesidad.
También, Apple Intelligence llega a Wallet para convertirla en una herramienta más útil. Esta función puede detectar automáticamente detalles de seguimiento de compras en correos, incluso si no usaste Apple Pay. Así, sabrás en qué punto está tu pedido y recibirás resúmenes claros sin tener que buscar entre mensajes o páginas de seguimiento.
Por su parte, Apple abre el acceso a su Foundation Models Framework, permitiendo a desarrolladores integrar Apple Intelligence en sus propias apps de forma sencilla. Esto significa que pronto veremos aplicaciones de terceros con funciones de IA avanzadas, desde generación de contenido hasta asistencia contextual, aprovechando el potencial de los modelos que ya usa el propio ecosistema de Apple.
Finalmente, con iOS 26, Siri dará un gran salto al integrar el modelo GPT-5 de OpenAI. Esto le permite entender mejor el contexto, mantener conversaciones más naturales y ofrecer respuestas más completas. Además, es capaz de generar texto, imágenes y respuestas visuales con mayor precisión, todo sin necesidad de tener cuenta en OpenAI para usar estas mejoras.
✕
Accede a tu cuenta para comentar