Inteligencia artificial

Apple quiere que su IA se ejecute directamente en el iPhone en lugar de en la nube

Investigadores de la compañía han publicado un estudio con dos técnicas que permiten su ejecución en dispositivos con memoria limitada

Siri, uno de los asistentes de voz más reconocidos.
Apple quiere que su IA se ejecute directamente en el iPhone en lugar de en la nube.UnplashUnplash

La IA generativa ha sido la gran tendencia tecnológica en este 2023, una con la que Apple ha querido mantener distancias. Mientras Google, Microsoft y Meta han acelerado el desarrollo de diversas inteligencias artificiales generativas, Apple no ha lanzado ningún modelo y ha tenido un escrupuloso cuidado en ni siquiera mencionar el término IA cuando ha introducido novedades que la emplean en sus aplicaciones, sino que se ha referido a la tecnología como aprendizaje automático. Eso no significa que Apple esté de brazos cruzados. En julio, Bloomberg informó que está trabajando en su propio modelo de inteligencia artificial, al que internamente denominan AppleGPT y probablemente se integrará con Siri, y ahora se ha conocido en qué puede consistir la apuesta de la compañía con la inteligencia artificial.

Apple está trabajando en una tecnología innovadora que podría permitir que los iPhone y otros dispositivos Apple ejecuten potentes modelos grandes de inteligencia artificial (LLM, por sus siglas en inglés) de forma local y sin comprometer la velocidad o el rendimiento. Un estudio publicado por investigadores de la compañía, LLM in a Flash, propone una forma de utilizar la memoria Flash, empleada para almacenar información en móviles y en los discos duros SSD de los ordenadores, para ejecutar modelos de lenguaje sin necesidad de conectarse a un centro de datos.

Este planteamiento parte de la premisa de que los dispositivos cuentan con mucha más memoria Flash (128/256 Gb en la mayoría de móviles) que RAM (los móviles premium suelen traer 12 GB), esta última un tipo de memoria que los modelos de lenguaje necesitan en grandes cantidades. Flash, al contrario que RAM, es mucho más abundante y barata.

Los investigadores de Apple han ideado una forma de aprovechar la memoria Flash para almacenar y acceder a los datos del LLM. Una técnica de reciclaje llamada Windowing (ventaneo o creación de ventanas) reduce la cantidad de datos que deben transferirse entre la memoria Flash y la RAM. En lugar de cargar datos nuevos cada vez, el LLM reutiliza algunos de los datos ya procesados, ahorrando así tiempo y batería. Por otro lado, Row-Column Bundling (Agrupación de filas y columnas) es un método de lectura que incrementa la velocidad con la que se recuperan los datos de la memoria Flash. En lugar de leer una palabra detrás de otra, el LLM lee grandes cantidades de datos simultáneamente, mejorando su eficiencia y rendimiento.

Según el estudio, esta técnica permite ejecutar modelos de lenguaje de hasta el doble del tamaño que permite la RAM disponible en un dispositivo, multiplicando hasta 4-5 veces la velocidad de ejecución de la IA en la CPU y hasta 20-25 veces en la GPU. Este desempeño es “particularmente crucial para implementar LLM avanzados en entornos con recursos limitados, ampliando así su aplicabilidad y accesibilidad.”

Ejecutar un gran modelo de lenguaje de forma local en dispositivos con poca potencia como son los smartphones puede suponer un gran salto adelante en su desarrollo y adopción. A las compañías evita los costosos centros de datos con la capacidad de cómputo necesaria y para los usuarios supone un aumento de su privacidad al no abandonar sus datos el dispositivo. En esta misma dirección apunta Google con Gemini Nano, la versión de su IA que podrá ejecutarse localmente en móviles.

En el caso de Apple, los iPhone podrán ejecutar modelos de IA avanzados localmente sin depender de servidores en la nube, por tanto sin conexión. Según informó The Information, la IA generativa llegará a sus móviles y tablets a finales del próximo año con iOS e iPadOS 18.