Asistimos ayer a una de esas keynotes que pueden acabar siendo históricas sin parecerlo demasiado. El lanzamiento de Apple Intelligence marca un punto de inflexión para Apple y la mete de lleno en esta teórica nueva era de la inteligencia artificial.
La pregunta, por supuesto, cómo de relevantes serán las funciones de IA planteadas por Apple, y aquí tenemos dos conclusiones. La primera, que lo mostrado por Apple en el apartado práctico y funcional no fue en absoluto revolucionario.
La segunda, que quizás eso no sea importante, porque lo que sí lo es es la forma en la que Apple lo pone en marcha: de forma, gratuita, nativa y con un foco absoluto en la privacidad.
Vayamos por partes.
Apple Intelligence no sorprende, pero cumple
Las demostraciones de funciones de IA que Apple realizó durante el evento dejaron claro que aquí no hay sorpresas ni revoluciones. El modelo fundacional de IA de Apple —no dieron detalles— permitirá que los usuarios accedan a muchas de las opciones prácticas que ya estaban disponibles gracias a terceros.
Así, Apple Intelligence es capaz de reescribir textos y correos con otro estilo, resumirlos, priorizar mensajes o contestarlos basándose en el contexto. Las opciones son similares a lo que propusieron hace tiempo Google con Gemini o Microsoft con Copilot.
El modelo de IA de Apple también es capaz de generar imágenes, aunque aquí la compañía es especialmente cauta. Solo ofrece tres estilos (animación, ilustración, boceto) que están claramente pensados para que las imágenes nunca sean demasiado conflictivas y difícilmente puedan ser aprovechadas para generar deepfakes. Es una forma interesante de cubrirse las espaldas, pero desde luego limita las opciones creativas de los usuarios.
Las opciones de edición de fotos son idénticas a las que Google ofrece con su Borrador Mágico, y tampoco fue novedosa la inclusión de funciones para transcribir conversaciones telefónicas o resúmenes en aplicaciones como Notas o Teléfono. Son de nuevo características interesantes —no se habló de traducción en tiempo real, curiosamente—, pero que no son en absoluto novedosas.
Tampoco lo fue esa interacción natural con aplicaciones como Photos, que permite buscar fotos o vídeos con una descripción en lenguaje natural ("Katie con pegatinas en la cara") y que aunque desde luego es potente, también es una repetición de lo que Google mostró recientemente en Google I/O.
Siri gana enteros gracias a Apple Intelligence y permite que hagamos consultas relacionados con fotos, mensajes o documentos que tenemos en nuestros dispositivos, pero además es en cierta medida "modular", y pronto ofrecerá integración con ChatGPT (y posteriormente con otros chatbots, se supone). El asistente es capaz de lanzar aplicaciones ("reproduce el podcast que me envió Sara"), y apunta a ese futuro de agentes de IA.
Aquí las demos que OpenAI mostró en el iPhone cuando lanzó GPT-4o parecían ir más allá de lo que Apple enseñó ayer —sobre todo en su forma de conversar—, pero será interesante ver hacia dónde va este asistente de voz que ahora intenta resurgir.
Así pues, las opciones no son especialmente revolucionarias: llevamos meses pudiendo hacer todo esto con asistentes y plataformas de otras compañías, y lo que Apple ha hecho es llevar todas esas funciones a parte de su ecosistema. Lo importante quizás no es que lo haya hecho, sino cómo lo ha hecho.
Gratis, nativa, privada: los tres grandes argumentos para triunfar
La IA de Apple es por tanto un más de lo mismo, pero lo es a nivel funcional: no hace nada que no hubiéramos visto, e incluso en algunos casos (imágenes) hace bastante menos.
Pero la clave está en la forma en la que ha integrado esas opciones de IA. En primer lugar, lo ha hecho de forma que usar todas estas funciones sea gratis y nativa. Los responsables de la compañía dejaron claro que Apple Intelligence se podrá usar sin coste cuando aparezca, aunque avisaron de que algunas funciones tardarán en llegar y de momento solo las podrán disfrutar en Estados Unidos y en inglés.
Aun con ese limitado despliegue inicial, esto supone un varapalo para muchos servicios de terceros que precisamente ofrecían opciones similares... pero de pago. Microsoft, por ejemplo, propone muchas de esas opciones avanzadas como parte de su servicio Copilot Pro, que tiene un coste mensual de 20 dólares al mes y que apuesta por una notable integración con las aplicaciones de su suite ofimática.
Apple propone en cambio que esas funciones se expandan tanto a sus aplicaciones nativas como a otras que puedas tener instaladas. Así, para que Apple Intelligence te reescriba un párrafo con un tono más formal o más divertido no tendrás que usar solo Mail o Messages: teóricamente podrás hacer lo mismo en Notion o IA Writer, por ejemplo.
Los beneficios hacen que sea difícil encontrar razones para pagar una suscripción de 20 dólares al mes por Copilot Pro cuando Apple Intelligence hace más o menos lo mismo aunque de forma más limitada: solo los usuarios con necesidades muy específicas acabarán pagando por soluciones avanzadas.
Esa integración gratuita de estas opciones pone también en peligro a servicios de terceros que trataron de destacar con esas opciones de IA. De repente no los necesitas porque Apple los ofrecerá de serie (y gratis, insistimos) en macOS, iPadOS e iOS. Eso plantea un futuro difícil para las pequeñas empresas que se especializan en un área (reescritura con IA generativa, resumir textos o analizar PDFs, por ejemplo), ya que si esas funciones están integradas en el sistema operativo, no necesitarás esos otros servicios.
La inercia de los grandes vuelve a plantear un escenario similar al que vivimos en el mundo de los buscadores o los navegadores: puede que haya muchos servicios de IA, pero la inmensa mayoría de la gente usará los dominantes, que probablemente vendrán de Apple, Microsoft o Google. La razón es simple: ellos tienen la sartén por el mango gracias a que sus sistemas operativos dominan el mundo.
El tercer gran componente de Apple Intelligence a nivel estratégico es la privacidad. Está por ver si la propuesta realmente es superior a sus rivales, pero desde luego las bases parecen sólidas.
Aquí Apple hace algo parecido a lo que hace Recall: recolecta información de nuestros documentos, fotos y mensajes, los indexa y los categoriza en un índice semántico. Ese índice es el que luego permite realizar peticiones complejas en lenguaje natural que la IA de Apple es capaz de resolver. Todo queda en el dispositivo, y no hay transferencia de datos a los servidores de Apple en este modo de uso de la IA.
Pero para otras consultas más complejas, Apple nos habló de su Private Cloud Compute, su infraestructura segura y privada de inteligencia artificial en la nube. Aquí la empresa dio información realmente completa sobre la arquitectura que ha creado para garantizar que nuestra interacción con la nube nunca pone en peligro nuestros datos. Los expertos que han dado sus primeras impresiones sobre esa estrategia parecen haber quedado razonablemente convencidos de que Apple ha hecho muy bien las cosas, aunque también hay alguna que otra duda.
Así pues, puede que Apple no necesite revoluciones para lograr que su IA triunfe en el mercado. Ya tiene más de dos mil millones de dispositivos activos para convencernos de ellos. Y eso son muchos dispositivos.
En Xataka | Apple Intelligence, iOS 18, Siri junto a ChatGPT, macOS 15 Sequoia y todo lo anunciado en la WWDC 2024
Ver 19 comentarios