Ist irgendjemand wirklich überrascht, dass Apple KI auf dem Gerät entwickelt?

Ist irgendjemand wirklich überrascht, dass Apple KI auf dem Gerät entwickelt?

Quellknoten: 3083594

Kommentar Apples Bemühungen, generative KI zu seinen iDevices hinzuzufügen, sollten niemanden überraschen, aber Cupertinos bestehende Nutzung der Technologie und die Einschränkungen mobiler Hardware lassen darauf schließen, dass sie in naher Zukunft kein großes Feature von iOS sein wird.

Apple hat sich der jüngsten Welle generativer KI-Booster nicht angeschlossen und vermeidet in seinen jüngsten Keynote-Präsentationen im Vergleich zu vielen anderen Unternehmen sogar generell die Begriffe „KI“ oder „Künstliche Intelligenz“. Dennoch war und ist maschinelles Lernen eine Schlüsselfunktion für Apple – meist im Hintergrund und im Dienste subtiler Verbesserungen des Benutzererlebnisses.

Apples Einsatz von KI zur Verarbeitung von Bildern ist ein Beispiel für die Technologie, die im Hintergrund arbeitet. Wenn iThings Fotos aufnimmt, machen sich Algorithmen des maschinellen Lernens an die Arbeit, um Motive zu identifizieren und zu kennzeichnen, eine optische Zeichenerkennung durchzuführen und Links hinzuzufügen.

Im Jahr 2024 reicht diese Art von unsichtbarer KI nicht aus. Apples Konkurrenten preisen generative KI als wesentliche Fähigkeit für jedes Gerät und jede Anwendung an. Laut einer aktuellen Financial Times berichten, Apple hat stillschweigend KI-Unternehmen aufgekauft und eigene große Sprachmodelle entwickelt, um sicherzustellen, dass das Unternehmen liefern kann.

Apples Hardware-Vorteil

Neural Processing Units (NPUs) in Apples Homebrew-Silizium verwalten die vorhandenen KI-Implementierungen. Apple setzt die Beschleuniger, die es „Neural Engines“ nennt, seit dem Debüt des System-on-Chip A2017 im Jahr 11 ein und nutzt sie, um kleinere maschinelle Lernaufgaben zu bewältigen, um die CPU und GPU eines Geräts für andere Aufgaben freizugeben.

Besonders leistungsstark sind die NPUs von Apple. Das A17 Pro gefunden im iPhone 15 Pro ist in der Lage, 35 TOPS zu erreichen, doppelt so viel wie sein Vorgänger, und etwa das doppelte einiger NPUs, die Intel und AMD für den Einsatz in PCs anbieten.

Die neuesten Snapdragon-Chips von Qualcomm liegen hinsichtlich der NPU-Leistung auf Augenhöhe mit denen von Apple. Wie Apple verfügt auch Qualcomm über jahrelange NPU-Erfahrung bei mobilen Geräten. AMD und Intel sind relativ neu auf dem Gebiet.

Apple hat keine Gleitkomma- oder Integer-Leistung für die GPU des Chips preisgegeben, obwohl das Unternehmen seine Leistungsfähigkeit bei der Ausführung von Spielen wie Resident Evil 4 Remake und Assassin's Creed Mirage angepriesen hat. Dies deutet darauf hin, dass die Rechenleistung nicht der limitierende Faktor für die Ausführung größerer KI-Modelle auf der Plattform ist.

Ein weiterer Beleg dafür ist die Tatsache, dass sich Apples M-Serie-Silizium, das in seinen Mac- und iPad-Produktlinien verwendet wird, als besonders leistungsfähig für die Ausführung von KI-Inferenz-Workloads erwiesen hat. Bei unserem Test war ein mittlerweile drei Jahre altes M16 Macbook Air bei ausreichendem Arbeitsspeicher – bei weniger als 1 GB hatten wir Probleme – mehr als in der Lage, Llama 2 7B mit 8-Bit-Präzision auszuführen, und war mit 4 Bit sogar noch schneller quantisierte Version des Modells. Übrigens, wenn Sie dies auf Ihrem M1-Mac ausprobieren möchten, Ollama.ai macht das Laufen von Llama 2 zum Kinderspiel.

Wo Apple möglicherweise zu Zugeständnissen bei der Hardware gezwungen sein könnte, betrifft den Speicher.

Im Allgemeinen benötigen KI-Modelle etwa ein Gigabyte Speicher für jede Milliarde Parameter, wenn sie mit einer 8-Bit-Präzision ausgeführt werden. Dies kann halbiert werden, indem man entweder auf eine niedrigere Präzision, etwa Int-4, zurückgeht oder kleinere, quantisierte Modelle entwickelt.

Llama 2 7B ist aufgrund seines relativ geringen Platzbedarfs und Rechenaufwands bei kleinen Losgrößen zu einem gängigen Bezugspunkt für KI-PCs und Smartphones geworden. Mithilfe der 4-Bit-Quantisierung können die Anforderungen des Modells auf 3.5 GB reduziert werden.

Aber selbst mit 8 GB RAM beim iPhone 15 Pro vermuten wir, dass Apples nächste Telefongeneration mehr Speicher benötigt oder die Modelle kleiner und zielgerichteter sein müssen. Dies ist wahrscheinlich einer der Gründe, warum Apple sich dafür entscheidet, eigene Modelle zu entwickeln, anstatt Modelle wie Stable Diffusion oder Llama 2 für den Betrieb bei Int-4 zu kooptieren, wie wir von Qualcomm gesehen haben.

Es gibt auch einige Hinweise darauf, dass Apple möglicherweise einen Weg gefunden hat, das Speicherproblem zu umgehen. Wie von der entdeckt Financial TimesBereits im Dezember veröffentlichten Apple-Forscher [PDF] ein Artikel, der die Möglichkeit demonstriert, LLMs mithilfe von Flash-Speicher auf dem Gerät auszuführen.

Erwarten Sie einen konservativeren Ansatz in Bezug auf KI

Wenn Apple KI-Funktionalität auf seinen Desktop- und Mobilplattformen einführt, gehen wir davon aus, dass es einen relativ konservativen Ansatz verfolgen wird.

Siri in etwas zu verwandeln, von dem die Leute nicht das Gefühl haben, dass man mit ihm wie mit einem Vorschulkind sprechen muss, scheint ein naheliegender Ansatzpunkt zu sein. Das könnte bedeuten, einem LLM die Aufgabe zu übertragen, Eingaben in eine Form zu analysieren, die Siri leichter verstehen kann, damit der Bot bessere Antworten liefern kann.

Siri könnte weniger leicht verwirrt werden, wenn Sie eine Frage umständlich formulieren, was zu effektiveren Antworten führt.

Theoretisch sollte dies einige Vorteile haben. Erstens sollte Apple in der Lage sein, ein viel kleineres Modell als Llama 2 zu verwenden. Zweitens sollte das Problem, dass das LLM fehlerhafte Antworten erzeugt, weitgehend vermieden werden.

Wir könnten uns irren, aber Apple hat die Erfolgsbilanz darin, die neuesten Technologien zu spät zu implementieren, dann aber dort Erfolg zu haben, wo andere gescheitert sind, indem es sich die Zeit genommen hat, Funktionen zu verfeinern und zu verbessern, bis sie tatsächlich nützlich sind.

Und was es wert ist, die generative KI muss erst noch beweisen, dass sie ein Erfolg ist: Microsofts große Chatbot-Wette, um niemandes Lieblingssuchmaschine, Bing, Leben einzuhauchen wurde nicht übersetzt zu einem deutlichen Anstieg des Marktanteils führen.

Apple hat sich unterdessen als 2024 die Krone gesichert Top-Smartphone-Anbieter während nur unsichtbare KI eingesetzt wird. ®

Zeitstempel:

Mehr von Das Register