Tras casi dos años de espera, Apple finalmente se ha subido al tren de la inteligencia artificial (IA) generativa, con las grandes novedades que anunció el consejero delegado de la compañía, Tim Cook, en la presentación de su Conferencia Mundial de Desarrolladores (WWDC). En palabras del propio Cook al arrancar su intervención, “estoy emocionado con las nuevas y profundas capacidades que vamos a presentar, que esperamos que hagan a nuestros dispositivos más inteligentes y útiles que nunca”. Sin embargo, los detalles que dio más tarde Apple en la keynote y en su página web limitan y matizan el alcance de ese salto tecnológico, que solo estará al alcance de los actuales usuarios de iPhone que tengan uno de los dos modelos más potentes —el 15 Pro y el 15 Pro Max—, y que en 2024 solo llegarán a quien hable y escriba en inglés de EE UU.
El nuevo sistema Apple Intelligence y la esperada renovación profunda de Siri —que llegarán en otoño, y en fase de prueba, con el nuevo sistema operativo iOS 18— dejarán de lado a bastante más del 90% de los usuarios actuales de iPhone, si no compran un smartphone nuevo. A falta de datos oficiales de la propia compañía tecnológica, las estimaciones indican que hay unos 1.500 millones de usuarios activos de iPhone en todo el mundo; distintos analistas estiman que los iPhone 15 Pro y Pro Max —los más vendidos del mundo— podrían estar ya cerca de los 100 millones de unidades. Eso no alcanzaría, por tanto, ni a un 7% del total de usuarios de teléfonos móviles de Apple; y de ese porcentaje habría que excluir, de momento, al público no estadounidense.
De esos dos iPhones, de los 24 modelos compatibles con el nuevo iOS 18, podrán ejecutar las funciones de Apple Intelligence, como resumir todo tipo documentos y notas, sugerir respuestas a mensajes, corregir el estilo de textos, transcribir llamadas de teléfono —funciones que ya vienen ofreciendo otros gigantes tecnológicos— o incluso crear nuevos emojis e imágenes de cero con unas sencillas indicaciones. El resto de iPhones tampoco tendrán acceso a la renovada Siri, que será capaz de entender mucho mejor a las peticiones, de mantener el hilo de una conversación con el usuario o de pedirle a ChatGPT que resuelva cualquier duda fuera de su alcance. La explicación que ha dado Apple en su presentación del lunes es que para poder añadir esta “inteligencia personal” —como la denominan desde la compañía, en lugar de artificial— y mantener la privacidad, inmediatez y sencillez de uso, la computación ha de hacerse en el propio teléfono; y solo los modelos con procesadores A17 Pro (o superiores) son capaces de ejecutar los modelos grandes de lenguaje (LLM, por sus siglas en inglés) que dan vida a la IA generativa.
Más allá de los teléfonos, Apple Intelligence y la nueva Siri llegarán también a las tabletas y ordenadores que tengan procesadores propios de Apple —M1 o superiores—. En el caso de los iPads, esto beneficiará a cinco de los 15 modelos compatibles con el sistema operativo iPadOS 18; mientras que 13 de los 18 modelos de ordenadores compatibles con macOS 15 Sequoia podrán cumplir esa promesa de Cook de “ser más inteligentes y útiles que nunca”. Apple empezó a vender Macs con esos procesadores en 2020, iPads Pro en 2021 y iPads Air en 2022. Todos los modelos de iPad mini y iPad a secas se quedan fuera de las nuevas funciones inteligentes.
Tampoco llegará ese salto a la IA generativa a las gafas de realidad mixta Vision Pro, pese a que es uno de los dispositivos más modernos y sofisticados de la compañía de la manzana y que está dotado de un procesador M2, con capacidad más que suficiente.
Prometedoras funciones, pero a medio plazo
Pese a que era muy esperada también en los Apple Watch —donde el asistente funciona peor que en los iPhones— y en los HomePod —que solo se controlan por voz con un “Oye, Siri”, igual que los equipos de sonido que responden a las llamadas de “Alexa” o “OK, Google”—, la nueva Siri tampoco llegará de momento ni a los relojes ni a los altavoces inteligentes ni al reproductor de vídeo de Apple.
La compañía no ha facilitado ninguna información sobre si los modelos actuales de las diferentes plataformas de que quedan fuera del nuevo sistema de IA podrán acceder en el futuro a alguna de sus funciones, ya sea por procesamiento en el propio dispositivo o accediendo a la misma red de computación privada en la nube que Apple acaba de presentar y que usará para resolver las peticiones más sofisticadas de IA Generativa. Tampoco hay ningún detalle sobre cuándo llegarán esas funciones a otros idiomas como el español, y el gigante tecnológico se limita advertir lo siguiente: “Apple Intelligence estará disponible en versión beta este otoño en inglés de Estados Unidos. Algunas prestaciones, plataformas de software e idiomas adicionales se irán añadiendo el año que viene”.
La ausencia de la nueva Siri en los relojes y altavoces inteligentes ha defraudado las expectativas de algunos de los analistas con más experiencia en el mundo Apple. Jason Snell, de SixColors y antiguo director de la revista Macworld, había declarado, horas antes de la keynote: “Cuando salgo de paseo suelo ir solo con mi Apple Watch y mis AirPods. En teoría estoy cubierto por Siri, pero en general nunca le hablo porque no es fiable [en el reloj]”. Mark Gurman, de Bloomberg, quien logró la filtración detallada de todos los anuncios clave de la keynote con días de antelación, pronosticaba que la apuesta por la IA de Apple contaría con la ventaja de que la compañía puede llevarla a todos sus dispositivos, advierte ahora de que ese proceso tardará años en dar resultados y completarse y, de momento, “no hará mucho más que dar un gran impulso a las ventas de los nuevos iPhone de este año”.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.