Quelqu'un est-il vraiment surpris qu'Apple développe une IA intégrée aux appareils ?

Quelqu'un est-il vraiment surpris qu'Apple développe une IA intégrée aux appareils ?

Nœud source: 3083594

Commentaires Les efforts d'Apple pour ajouter l'IA générative à ses iDevices ne devraient surprendre personne, mais les utilisations existantes de cette technologie par Cupertino et les contraintes du matériel mobile suggèrent que ce ne sera pas une fonctionnalité importante d'iOS dans un avenir proche.

Apple n'a pas rejoint la récente vague de promotion de l'IA générative, évitant même généralement les termes « IA » ou « Intelligence artificielle » dans ses récentes présentations principales par rapport à de nombreuses entreprises. Pourtant, l’apprentissage automatique a été et continue d’être une capacité clé pour Apple – principalement en arrière-plan, au service d’améliorations subtiles de l’expérience utilisateur.

L'utilisation par Apple de l'IA pour gérer les images est un exemple de la technologie utilisée en arrière-plan. Lorsque iThings capture des photos, des algorithmes d'apprentissage automatique se mettent au travail pour identifier et marquer les sujets, exécutant la reconnaissance optique des caractères et ajoutant des liens.

En 2024, ce type d’IA invisible ne suffit pas. Les concurrents d'Apple présentent l'IA générative comme une capacité essentielle pour chaque appareil et application. Selon un récent Financial Times rapport, Apple a discrètement acheté des sociétés d'IA et développé ses propres grands modèles de langage pour garantir sa capacité à tenir ses promesses.

L'avantage matériel d'Apple

Les unités de traitement neuronal (NPU) du silicium homebrew d'Apple gèrent ses implémentations d'IA existantes. Apple utilise les accélérateurs, qu'il appelle « moteurs neuronaux » depuis le lancement du système sur puce A2017 en 11, et les utilise pour gérer des charges de travail d'apprentissage automatique plus petites afin de libérer le CPU et le GPU d'un appareil pour d'autres tâches.

Les NPU d'Apple sont particulièrement puissants. L'A17 Pro trouvé dans le iPhone 15 Pro est capable de pousser 35 TOPS, le double de celui de son prédécesseur, et environ le double de certains NPU proposés par Intel et AMD pour une utilisation dans les PC.

Les dernières puces Snapdragon de Qualcomm sont à la hauteur de celles d'Apple en termes de performances NPU. Comme Apple, Qualcomm possède également des années d’expérience NPU dans les appareils mobiles. AMD et Intel sont relativement nouveaux dans le domaine.

Apple n'a pas partagé les performances en virgule flottante ou en nombre entier pour le GPU de la puce, bien qu'il ait vanté ses prouesses en matière d'exécution de jeux, comme Resident Evil 4 Remake et Assassin's Creed Mirage. Cela suggère que la puissance de calcul n’est pas le facteur limitant pour exécuter des modèles d’IA plus importants sur la plate-forme.

Cela est également confirmé par le fait que le silicium de la série M d'Apple, utilisé dans ses gammes Mac et iPad, s'est révélé particulièrement puissant pour exécuter des charges de travail d'inférence d'IA. Lors de nos tests, avec une mémoire adéquate (nous avons rencontré des problèmes avec moins de 16 Go), un Macbook Air M1, âgé de trois ans, était plus que capable d'exécuter Llama 2 7B avec une précision de 8 bits et était encore plus vif avec un 4 bits. version quantifiée du modèle. Au fait, si vous voulez essayer ceci sur votre Mac M1, Ollama.ai fait de l'exécution de Llama 2 un jeu d'enfant.

Là où Apple pourrait être obligé de faire des concessions matérielles, c'est avec la mémoire.

De manière générale, les modèles d’IA ont besoin d’environ un gigaoctet de mémoire pour chaque milliard de paramètres, lorsqu’ils fonctionnent avec une précision de 8 bits. Cela peut être réduit de moitié soit en passant à une précision inférieure, quelque chose comme Int-4, soit en développant des modèles quantifiés plus petits.

Llama 2 7B est devenu un point de référence commun pour les PC et smartphones IA en raison de son encombrement relativement mineur et de ses exigences de calcul lors de l'exécution de lots de petite taille. Grâce à la quantification 4 bits, les exigences du modèle peuvent être réduites à 3.5 Go.

Mais même avec 8 Go de RAM sur l'iPhone 15 Pro, nous pensons que la prochaine génération de téléphones d'Apple pourrait avoir besoin de plus de mémoire, ou que les modèles devront être plus petits et plus ciblés. C'est probablement l'une des raisons pour lesquelles Apple choisit de développer ses propres modèles plutôt que de coopter des modèles comme Stable Diffusion ou Llama 2 pour fonctionner à Int-4, comme nous l'avons vu chez Qualcomm.

Il existe également des preuves suggérant qu'Apple aurait pu trouver un moyen de contourner le problème de mémoire. Comme l'a repéré le Financial Times, en décembre, des chercheurs d'Apple ont publié [PDF] un article démontrant la possibilité d'exécuter des LLM sur un appareil à l'aide de la mémoire flash.

Attendez-vous à une approche plus conservatrice de l’IA

Lorsqu’Apple introduit des fonctionnalités d’IA sur ses plates-formes de bureau et mobiles, nous nous attendons à ce qu’il adopte une approche relativement conservatrice.

Transformer Siri en quelque chose que les gens ne pensent pas devoir parler comme un enfant d'âge préscolaire semble un point de départ évident. Cela pourrait signifier confier à un LLM la tâche d'analyser les entrées sous une forme que Siri peut comprendre plus facilement, afin que le robot puisse fournir de meilleures réponses.

Siri pourrait devenir moins facilement confus si vous formulez une requête de manière détournée, ce qui entraînerait des réponses plus efficaces.

En théorie, cela devrait présenter quelques avantages. Le premier étant qu'Apple devrait pouvoir s'en sortir en utilisant un modèle beaucoup plus petit que quelque chose comme Llama 2. Le second est qu'il devrait largement éviter le problème du LLM produisant des réponses erronées.

Nous pouvons nous tromper, mais Apple a l'habitude d'être en retard dans la mise en œuvre des dernières technologies, mais de réussir ensuite là où d'autres ont échoué en prenant le temps d'affiner et de peaufiner les fonctionnalités jusqu'à ce qu'elles soient réellement utiles.

Et pour ce que ça vaut, l'IA générative n'a pas encore prouvé son succès : le grand chatbot de Microsoft a parié pour donner vie à Bing, le moteur de recherche préféré de personne. n'a pas traduit dans une augmentation importante de la part de marché.

Apple, quant à lui, a remporté la couronne en 2024 meilleur vendeur de smartphones tout en déployant uniquement une IA invisible. ®

Horodatage:

Plus de Le registre