Die Rolle der CPU in nachhaltiger KI/ML

Die Rolle der CPU in nachhaltiger KI/ML

Quellknoten: 3093662

Advertorial Während die KI ihre Reichweite auf geschäftliche Computerumgebungen ausdehnt, hat ihre Wirkung einige unerwartete Folgeeffekte zur Folge. Das Neueste von IDC FutureScape Der Bericht prognostiziert beispielsweise, dass die Technologie zu einem Hauptmotivator für Innovationen werden wird, wenn Unternehmen darum kämpfen, KI-gestützte Produkte/Dienstleistungen einzuführen und ihre Kunden bei KI-Implementierungen zu unterstützen.

Eine weitere KI-gesteuerte Änderung dreht sich um das Ausmaß, in dem Rechenzentren möglicherweise CPUs mit diskreten KI-Beschleunigern wie GPUs oder speziellen Architekturen ausgleichen müssen, um die leistungsstarken Rechenfunktionen bereitzustellen, die KI-Entwickler wünschen.

Es handelt sich um eine Debatte, die für Rechenzentrumsbesitzer schwerwiegende Fragen aufwirft, sowohl im Hinblick auf zusätzliche CAPEX-Investitionen als auch auf die Wahrscheinlichkeit, dass typische GPU-gesteuerte KI-Vorgänge (obwohl die Messmethoden ungenau sind) mehr Strom verbrauchen als herkömmliche IT-Workloads.

Der Umgang mit dem höheren Energie-/Kohlenstoff-Overhead von KI stellt ein zusätzliches Problem für den Rechenzentrumsbetrieb dar, der außerdem sicherstellen muss, dass aktualisierte, für KI optimierte Rechenarchitekturen den erhöhten Strombedarf bewältigen können, ohne dass das Risiko einer Überlastung vorhandener Technologien oder Einrichtungen besteht.

Da die erweiterte Regulierung der Nachhaltigkeits-Governance und des CO2-Managements die Betriebe dazu drängt, den Energieverbrauch im gesamten Spektrum der IT-Hardware und -Software zu reduzieren, stellt KI sowohl eine Chance als auch ein Hindernis dar.

Reduzierung des KI-Stromverbrauchs

Zusammengenommen stellen der erhöhte Stromverbrauch und die notwendigen architektonischen Neukonfigurationen, die zur Bewältigung von KI- und maschinellem Lernen erforderlich sind, eine unaufhaltsame Herausforderung für Rechenzentren dar, erklärt Stephan Gillich, Director of Artificial Intelligence GTM im AI Center of Excellence von Intel.

„Es ist in allen vertikalen Sektoren und Branchen ziemlich klar, dass überall dort, wo KI-/maschinelles Lernen-Anwendungen und -Dienste entwickelt, trainiert und betrieben werden, die Fähigkeiten von lokalen und in der Cloud gehosteten IT-Einrichtungen aktualisiert werden müssen, um mit zunehmenden Datenmengen umgehen zu können -intensive Arbeitsbelastung“, sagt Gillich. „Es ist auch klar, dass diese Upgrades mehr als nur die Steigerung der Rechenleistung umfassen müssen.“

Gillich glaubt, dass viel getan werden kann, um die Nachhaltigkeit von KI-fokussierten Rechenzentren zu verbessern, beginnend mit der Neubewertung einiger Annahmen rund um die KI-/Machine-Learning-Landschaft. Prozessoreinheiten sind ein guter Ausgangspunkt, insbesondere wenn Sie entscheiden, ob CPUs oder GPUs besser für die Aufgabe geeignet sind.

Denn während KI-spezifische, rechenintensive Arbeitslasten scheinbar zunehmen (niemand ist sich ganz sicher, in welchem ​​Tempo), muss der Großteil der Rechenzentrumsarbeit (die Nicht-KI-Arbeitslasten) Tag für Tag weiter tuckern, um eine stabile Anwendung zu liefern und Serviceeinnahmenströme dürfen nicht gestört werden.

Die meisten davon werden derzeit von CPUs verwaltet und die Umrüstung eines Standard-Rechenzentrums mit teureren GPUs wäre für viele Einrichtungen eine Überschreitung der Anforderungen. Im Allgemeinen verbraucht eine GPU mehr Watt als eine CPU, um eine ähnliche Aufgabe auszuführen. Abhängig von der Stromversorgung einer bestimmten Rack-Konfiguration erfordert die Integration von GPUs in die Infrastruktur eines Rechenzentrums beispielsweise Upgrades der Stromverteilungssysteme, die zwangsläufig zusätzliche Vorabkosten und höhere Energierechnungen verursachen, sobald sie in Betrieb sind.

Darüber hinaus ist Intels CPU-Entwicklung weiterhin innovativ. In mehreren Anwendungsfällen kann nachgewiesen werden, dass eine CPU eine ebenso gute – und manchmal sogar bessere – Gesamtleistung wie eine GPU erreicht, argumentiert Gillich. Und ihre Leistung kann durch bahnbrechende Technologien wie Intel® AMX (Advanced Matrix Extensions) gesteigert werden, einen Beschleuniger, der in Intel Xeon-CPUs der 4. Generation integriert ist.

„Intel „Auf diese Weise können sie diskrete Beschleuniger einsetzen, um die Investitionsausgaben zu minimieren und die Leistung zu maximieren, während sie gleichzeitig vorhandene Intel Xeon-Verarbeitungsumgebungen nutzen.“

Es müssen KI- und Nicht-KI-Arbeitslasten gemischt werden

Intel AMX ist ein dedizierter Hardwareblock auf dem skalierbaren Intel Es eignet sich für KI-Arbeitslasten wie Empfehlungssysteme für maschinelles Lernen, Bilderkennung und Verarbeitung natürlicher Sprache, die auf Matrixmathematik basieren.

Ein weiteres Argument für erweiterte CPUs besteht darin, dass sie Rechenzentrumsbetreibern eine kostengünstige Möglichkeit bieten, mehr aus bestehenden CPU-Verpflichtungen zu machen, ihre Anlagen zukunftssicher zu machen, sodass sie gemischte Arbeitslasten bewältigen können, und sie in die Lage zu versetzen, bessere Ergebnisse zu erzielen Steuern Sie den Gesamtstromverbrauch.

Dies wiederum kann Anbietern von Rechenzentrumsdiensten (und ihren Kunden) dabei helfen, Nachhaltigkeitsziele zu erreichen, und stellt ein Verkaufsargument für Softwareentwickler (Unternehmen oder Dritte) dar, die nach einer optimierten Plattform suchen, um die Energieeffizienz ihrer Programmierung zu präsentieren Ausgänge.

„Die Realität ist, dass Rechenzentrumsbetreiber erkennen, dass sie eine Reihe von Erfordernissen berücksichtigen sollten, die sowohl von kommerziellen Belangen als auch von technologischen Entscheidungen geprägt sind, anstatt sich auf die Chancen zu stürzen, die KI-Workloads versprechen könnten“, sagt Gillich.

Zu diesen Erfordernissen könnten gehören: die Integration von KI-Workloads mit Nicht-KI-Workloads; die Integration verschiedener Hardware- und Software-Stacks; und weil sie sicherstellen möchten, dass sie über eine Architektur verfügen, die für mehrere unterschiedliche Workloads geeignet ist, die Integration verschiedener Workstream-Typen.

„Diese Fragen weisen auf komplexe Herausforderungen hin, denn die richtige Lösung hat Einfluss auf optimale Technologie- und Energieeffizienz – wobei Energieeffizienz heute ein zentraler Leistungsmaßstab ist, der sich zunehmend auf die wirtschaftliche Rentabilität eines Rechenzentrums auswirkt“, sagt Gillich. „Es ist also noch einmal von größter Bedeutung.“

Aus Gillichs Sicht ist der Schlüssel zur Anpassung an diese sich abzeichnende Realität ein schrittweiser Prozess, der als „KI-Assimilation“ bezeichnet werden kann. Punkt eins ist hier, dass KI-Workloads nicht von anderen Workload-Typen getrennt sind – sie werden in herkömmliche Workloads integriert und nicht separat ausgeführt.

Gillich nennt Videokonferenzen als Beispiel für diese schrittweise Integration: „Bereits beim Streamen von Standard-Audio-/Videoverkehr über Standardanwendungen wird KI integriert, um begleitende Aufgaben wie Zusammenfassung, Übersetzung und Transkription durchzuführen.“ Solche Funktionen werden von KI sehr gut unterstützt.

Durchgängige Energieeinsparungen

Das Erreichen von Energieeffizienz muss ein wirklich umfassendes strategisches Unterfangen sein, argumentiert Gillich. „Es umfasst sowohl die Software-Seite als auch die Hardware-Architekturen – den gesamten Mechanismus, der einen bestimmten Workflow-Prozess ermöglicht. Wo werden Daten gespeichert, um den Zugriff möglichst effizient zu gestalten – rechentechnisch und damit energietechnisch – ist das der beste Ort für Energieeffizienz?“

Der andere Faktor, der in diese Bewertung einbezogen werden muss, besteht darin, festzustellen, wo die Arbeitslast ausgeführt wird. Läuft es beispielsweise auf Clients (z. B. einem KI-PC mit Intel Core Ultra-Prozessoren) und nicht auf Servern im Rechenzentrum? Können einige dieser KI-Workloads tatsächlich auf Clients (neben Servern) ausgeführt werden?

Jede Option sei eine Überlegung wert, wenn sie dabei helfen soll, das Gleichgewicht zwischen KI-Rechenleistung und Stromverbrauch besser in Einklang zu bringen, argumentiert Gillich: „Es ist fast wie eine Rückkehr zur alten Vorstellung des verteilten Rechnens.“

Gillich fügt hinzu: „Manchmal fragen unsere Kunden: ‚Wo wird KI spielen?‘ – Die Antwort ist, dass KI überall eingesetzt wird. Daher konzentrieren wir uns bei Intel auf das, was man die universelle Anpassung von KI nennen könnte, denn wir glauben, dass sie in allen Anwendungsbereichen Einzug halten wird.“

Bei Intel umfasst dies Middleware wie APIs, die wie jeder andere Teil des Software-Stacks so effizient wie möglich sein müssen. „API-Wildwuchs“ kann zu unnötiger Verarbeitung, einer Minimierung des Infrastrukturbedarfs und mangelnder Überwachung und Kontrolle führen.

"Mit Intel OneAPI„können Unternehmen den vollen Wert ihrer Hardware ausschöpfen, leistungsstarken, architekturübergreifenden Code entwickeln und ihre Anwendungen für zukünftige Anforderungen vorbereiten“, erklärt Gillich.

„Intel oneAPI ist ein offenes, branchenübergreifendes, auf Standards basierendes, einheitliches Programmiermodell mit mehreren Architekturen und mehreren Anbietern, das eine gemeinsame Entwicklererfahrung über alle Beschleunigerarchitekturen hinweg bietet – für schnellere Anwendungsleistung und verbesserte Produktivität.“ Die oneAPI-Initiative fördert die Zusammenarbeit an der oneAPI-Spezifikation und kompatiblen oneAPI-Implementierungen im gesamten Ökosystem.“

Gillich fügt hinzu: „oneAPI bietet einen Middleware-Stack, der Standard-Dinge wie KI-Frameworks – wie Pytorch oder TensorFlow [die Open-Source-Softwareplattform für KI und maschinelles Lernen] – auf Maschinenebene übersetzt, und oneAPI ermöglicht einen effizienten Weg dazu.“ TU das. Benutzer können eine gemeinsame API auf Ai-Framework-Ebene verwenden, und wir verfügen über eine API (oneAPI), die die verschiedenen Hardwarevarianten berücksichtigt.“ Eine gemeinsame API bedeutet also, dass Benutzer offene Software erstellen können, die auf einem offenen Software-Stack unterstützt werden kann.

Leistung auf GPU-Niveau zu Preisen auf CPU-Niveau

Der Fortschritt in der IT wird größtenteils durch die Erwartung eines kontinuierlichen technologischen Fortschritts in Verbindung mit erkenntnisbasierten Verbesserungen der Bereitstellungsstrategien vorangetrieben. Es handelt sich um ein Modell, das darauf basiert, das bestmögliche Gleichgewicht zwischen Budgetausgaben und Unternehmens-ROI zu finden, und auf der Erwartung, dass immer weitere Innovationen angestrebt werden müssen. KI stellt den Höhepunkt dieses Ideals dar – sie ist intelligent genug, um ihr eigenes Wertversprechen durch ständige Selbstverbesserung neu zu erfinden.

Durch den Einbau des AMX-Beschleunigers in seine Intel Xeon-CPUs der 4. Generation zeigt Intel, wie Leistung auf GPU-Niveau zu Preisen auf CPU-Niveau erreicht werden kann. Dadurch können Rechenzentren skaliert werden und gleichzeitig der Ertragswert ihrer vorhandenen Intel

Und der geringere Stromverbrauch der CPUs bedeutet, dass die Energieeffizienz im gesamten Betrieb einer Rechenzentrumsanlage ganzheitlich erreicht werden kann – wie etwa Kühlung und Belüftung – und das ist ein weiterer Pluspunkt für nachhaltigkeitsbewusste Softwarearchitekten und Entwickler von AL-Lösungen.

Beitrag von Intel.

Zeitstempel:

Mehr von Das Register