Entendiendo Apple Intelligence, el gran modelo propio de Apple: así queda frente a otras IA y para qué usará ChatGPT

Entendiendo Apple Intelligence, el gran modelo propio de Apple: así queda frente a otras IA y para qué usará ChatGPT

  • Apple ha creado un modelo de IA con 3.000 millones de parámetros

  • ChatGPT funcionará como una capa extra cuando Siri no tenga respuesta, pero ni siquiera será exclusivo

11 comentarios Facebook Twitter Flipboard E-mail
Apple Intelligence Llm Modelo
lyzanor

Enrique Pérez

Editor Senior - Tech

Editor especializado en tecnología de consumo y sociedad de la información. Estudié física, pero desde hace más de diez años me dedico a escribir sobre tecnología, imagen y sonido, economía digital, legislación y protección de datos. Interesado en aquellos proyectos que buscan mejorar la sociedad y democratizar el acceso a la tecnología. LinkedIn

La IA de Apple no ha llegado como pensábamos. Cuando se filtró la colaboración con OpenAI creíamos que la empresa de Sam Altman iba a tener mucho más peso, pero finalmente no ha sido así. Apple Intelligence es un modelo de inteligencia artificial totalmente desarrollado por Apple, sin relación alguna con ChatGPT.

La alianza entre Apple y OpenAI sí es oficial, pero estamos ante dos proyectos separados. Por un lado Apple Intelligence y Siri y por otro el añadido de ChatGPT. Aquí os explicamos qué ha desarrollado Apple, cómo queda el papel de OpenAI y cómo se sitúa Apple Intelligence en esta batalla de la inteligencia artificial donde la empresa de Cupertino ya participa con sus propias armas.

Durante la presentación de Apple Intelligence se dieron a conocer sus funciones, que estaría integrado en iOS 18, iPadOS 18 y macOS Sequoia y que tendría tanto una versión 'on-device' como una versión conectada a la nube, pero de forma privada con lo que llamaron 'Private Cloud Compute'. Pero no dieron detalles técnicos sobre el modelo de IA que estaba detrás.

Afortunadamente desde el equipo de Machine Learning Research de Apple sí han publicado un pequeño informe sobre los datos técnicos del modelo de lenguaje (LLM) que mueve Apple Intelligence. Aquí repasamos sus principales características, que nos servirán para entender mejor hasta dónde llega la IA de Apple que nos han presentado durante la WWDC 2024.

Un modelo de IA propio con 3.000 millones de parámetros

Apple Intelligence es un conjunto de varios modelos de IA especializados en "tareas diarias para usuarios". Estos modelos han sido afinados para destacar en tareas como escribir, resumir, crear imágenes y simplificar interacciones entre aplicaciones. Es decir, muchas de las tareas que podremos realizar desde Siri en el iPhone.

Según describe Apple, su modelo de IA cuenta con unos 3.000 millones de parámetros para la versión en el dispositivo y un modelo todavía mayor que funciona sobre servidores de Apple que funcionan con chips de Apple Silicon y energía renovable. Es decir, un modelo de IA 'on-device' y otro sobre servidores de Apple.

Apple por el momento se reserva a estos dos modelos de IA, pero explica que próximamente dará a conocer nuevos modelos.

Si lo comparamos con su rival directo, Apple Intelligence se encuentra en un nivel prácticamente idéntico a Gemini Nano. Si el de Apple ofrece 3.000 millones de parámetros, Gemini Nano de Google dispone de dos versiones, una con 1.8000 millones para dispositivos con baja memoria RAM y otra con 3.250 millones de parámetros, para los Pixel y otros gama alta de Android.

Para entrenar su modelo se basan en Apple AXLearn, un proyecto open source iniciado en 2023. En cuanto al contenido utilizado para crear este modelo, Apple explica que ha utilizado datos con licencia, así como contenido disponible públicamente, coleccionado por su rastreador web AppleBot.

Apple apunta que nunca utilizan los datos privados de los usuarios ni sus interacciones para crear este modelo de IA y que aplican filtros para eliminar personalmente cualquier información que pudiera identificar usuarios y que esté en la web. Otros filtros aplicados son para eliminar datos de bajo nivel o duplicados. Y finalmente explican que las páginas web que no quieran ver su contenido utilizado para Apple Intelligence, tienen la opción de solicitarlo. Son argumentos que hemos visto repetidos en numerosas ocasiones, lo que nos indica que para crear su IA, Apple ha seguido la receta tradicional.

Adapters

El entrenamiento de la IA también cuenta con su respectiva optimización. Aquí Apple explica que han reducido el uso de memoria necesaria. La versión 'on-device' dispone de un vocabulario de 49K, mientras que el modelo en servidores dispone de 100K. En comparación, Gemini Nano dispone de un límite de tokens de 32K.

Como explicamos inicialmente, el modelo de Apple ha sido entrenado para realizar tareas concretas. Apple lo define como 'adaptadores'. Un conjunto de parámetros específicos para mejorar las tareas que quieren realizar. Por ejemplo a nivel de resumir, Apple emplea 750 preguntas concretas para evaluar si la respuesta es correcta. Entre las tareas en las que han aplicado un trabajo adicional están las de "brainstorming, clasificación, respuesta a preguntas cerradas, programación, extracción, razonamiento matemático, respuesta a preguntas abiertas, reescritura, seguridad, resumen y redacción".

A la altura de GPT-4 Turbo, en tareas concretas

Apple muestra varios benchmarks comparándose con algunos de los principales modelos de IA del momento. En el modelo de IA on-device se compara con Phi-3 mini de Microsoft, Mistral 7-B y Gemma 7-B de Google. Mientras que en el modelo en servidor se compara con GPT-4 Turbo y Mistral 8x22B.

Benchmarks Apple

Según el benchmark IFEval, que mide la capacidad de la IA de seguir instrucciones, los modelos de Apple Intelligence están al nivel e incluso superan a los modelos open source y comerciales de tamaño equivalente.

También enseñan varios benchmarks de escritura y resumen de textos, donde la IA de Apple destaca especialmente. Sin embargo, ninguno de los benchmarks elegidos por Apple es genérico. Habrá que esperar a futuras pruebas para determinar hasta qué punto la IA de Apple consigue competir contra los principales modelos o únicamente está a su altura en las tareas para las que ha sido afinada especialmente.

Apple ha adoptado una estrategia de especialización para su IA, pero no tenemos ni rastro de la multimodalidad. Sí tenemos texto y también voz, pero en ningún momento se hace referencia al vídeo, como sí lo hace Google con Project Astra o OpenAI con GPT-4o. Es una lástima, pues unas futuras Apple Vision Pro podrían darle mucho uso.

Cómo protegerá Apple la información cuando se envíe a la nube

La promesa de Apple Intelligence es la siguiente: las funciones de la IA se realizan en el dispositivo y se procesan con el modelo de IA on-device. Pero cuando la tarea es demasiado compleja, optará por conectarse a los servidores de Apple.

El objetivo es que la mayoría de tareas se hagan directamente en el iPhone, el iPad o el Mac. Para ello, Apple requiere al menos un iPhone 15 Pro (con el A17 Pro) o un procesador M1 o superior. Cuando el procesador de Apple no sea suficiente potente para esa tarea que le pedimos a la IA, entrará en acción Private Cloud Compute. Algunos casos por ejemplo son el análisis de imágenes, el resumen de grandes textos o la búsqueda de información en internet.

Según explica Apple, han creado una infraestructura en la nube específica para la IA. Una que prometen es la "más segura y avanzada nunca creada para la IA en la nube". ¿Y qué es lo que hacen diferente? Estas son algunas de las promesas que Apple explica.

Por ejemplo el envío de datos está cifrado de extremo a extremo y cuando esto no es posible, se "esfuerzan en procesar los datos del usuario de manera efímera o bajos identificadores aleatorios no correlacionados que oscurecen la identidad del usuario."

Desde Apple reconocen que la seguridad y privacidad en la nube son difíciles de verificar y asegurar. Una vez Private Cloud Compute esté disponible en beta para desarrolladores darán a conocer más detalles, pero por el momento prometen que obligarán a cumplir ciertos requisitos como que "los datos de los usuarios exclusivamente pueden utilizarse para el propósito solicitado por el propio usuario" y que ninguno de estos datos será visible, "ni siquiera por los trabajadores de Apple".

A nivel de componentes, Apple pretende que no se utilice ningún tipo de elemento externo para la seguridad. Y en el caso de análisis de errores o métricas del servidor, se apostará por servicios con un alto nivel de privacidad.

El papel de los trabajadores de Apple es relevante y explican que Private Cloud Compute no ofrecerá ningún permiso adicional a los trabajadores para saltarse las restricciones. Finalmente, Apple explica que permitirá a cualquier investigador de seguridad verificar el funcionamiento de su infraestructura para comprobar que se cumplen las garantías.

Siri se conectará con ChatGPT, pero no será el único

Chatgpt Siri

Como vemos, en ningún momento del desarrollo de Apple Intelligence interviene OpenAI. ¿Dónde queda entonces la alianza? Desde finales de este año, ChatGPT estará integrado en Siri y en herramientas de escritura.

Para determinadas preguntas, Siri derivará la respuesta a ChatGPT y este nos contestará directamente. Esto significa que los usuarios de Siri tendrán acceso gratuito a ChatGPT, sin necesidad de crear una nueva cuenta.

Hay un punto que Apple sí ha explicado pero no enseñado. Cuando queramos utilizar ChatGPT, Siri nos enviará una notificación para que aceptemos. A partir de aceptar ese uso de ChatGPT entramos en un terreno distinto. Una vez demos acceso a ChatGPT, nuestros datos sí serán trasladados a los servidores de OpenAI.

Si bien, Apple promete que las solicitudes no podrán ser almacenadas por OpenAI y que las IP de los usuarios serán ocultadas, siguiendo la promesa de Private Cloud Compute. Esta fase del procesamiento de los datos es la que genera más dudas a nivel de privacidad.

La alianza con OpenAI no será exclusiva. Craig Federighi, VP de ingeniería de Apple, explicó durante la conferencia que en el futuro podrán añadirse nuevos sistemas de IA a Siri, más allá de ChatGPT. Sin descartar ni siquiera Google Gemini. Con este movimiento, Apple se guarda un as en la manga para encontrar nuevos aliados; seguir desarrollando su propia IA; no ofrecer un sistema cerrado ante los reguladores y poder abarcar mercados donde ChatGPT no está disponible.

Es el caso de China, un mercado al que Apple aspira y donde los iPhone tienen mucha popularidad. Con esta estrategia de Apple Intelligence, Siri bien podría funcionar junto a los sistemas de IA de empresas como Baidu o incluso una IA estatal. Apple ha creado su propio modelo de IA, pero además ha abierto la puerta a que otras empresas le ayuden a llegar donde ellos no alcanzan.

En Xataka | He probado iOS 18 y estoy tan entusiasmado como confuso

Inicio