Peran CPU dalam AI/ML berkelanjutan

Peran CPU dalam AI/ML berkelanjutan

Node Sumber: 3093662

iklan Ketika AI memperluas jangkauannya di seluruh lingkungan komputasi bisnis, dampaknya menyebabkan beberapa dampak yang tidak terduga. terbaru dari IDC Masa DepanScape Laporan tersebut, misalnya, memperkirakan bahwa ketika perusahaan berlomba untuk memperkenalkan produk/layanan yang dilengkapi dengan AI dan membantu pelanggan mereka dalam penerapan AI, teknologi tersebut akan menjadi motivator utama dalam inovasi.

Perubahan lain yang didorong oleh AI berkisar pada sejauh mana pusat data harus menyeimbangkan CPU dengan Akselerator AI yang terpisah, seperti GPU atau arsitektur khusus untuk memberikan kemampuan komputasi berkinerja tinggi yang diinginkan oleh pengembang AI.

Ini adalah perdebatan yang menimbulkan permasalahan besar bagi pemilik pusat data, baik dalam hal investasi CAPEX tambahan maupun kemungkinan bahwa (walaupun metode pengukurannya tidak tepat) operasi AI berbasis GPU mengkonsumsi lebih banyak daya dibandingkan beban kerja TI konvensional.

Berurusan dengan overhead daya/karbon AI yang lebih tinggi merupakan tantangan tambahan bagi pengoperasian pusat data, yang juga harus memastikan bahwa arsitektur komputasi yang ditingkatkan dan dioptimalkan untuk AI dapat mengelola peningkatan kebutuhan daya tanpa risiko membebani teknologi atau fasilitas yang ada secara berlebihan.

Jadi, ketika peraturan yang diperluas dalam tata kelola keberlanjutan dan manajemen karbon mendorong operasi untuk mengurangi penggunaan energi di seluruh perangkat keras dan perangkat lunak TI, AI mewakili peluang sekaligus hambatan.

Mengurangi konsumsi daya AI

Secara keseluruhan, peningkatan konsumsi daya, dan konfigurasi ulang arsitektur yang diperlukan untuk mengakomodasi beban kerja AI dan Pembelajaran Mesin menimbulkan tantangan yang tak terhindarkan bagi pusat data, jelas Stephan Gillich, Direktur Kecerdasan Buatan GTM di Pusat Keunggulan AI Intel.

“Sudah cukup jelas bagi sektor dan industri vertikal, di mana pun aplikasi dan layanan AI/Machine Learning dikembangkan, dilatih, dan dijalankan, kemampuan fasilitas TI di lokasi dan yang dihosting di cloud harus ditingkatkan untuk menangani peningkatan volume data. -beban kerja yang intensif,” kata Gillich. “Jelas juga bahwa peningkatan tersebut memerlukan lebih dari sekadar meningkatkan kemampuan komputasi.”

Banyak hal yang dapat dilakukan untuk meningkatkan keberlanjutan pusat data yang berfokus pada AI, menurut Gillich, dimulai dengan mengevaluasi kembali beberapa asumsi seputar lanskap AI/Machine Learning. Unit pemrosesan adalah awal yang baik, terutama ketika memutuskan apakah CPU atau GPU lebih cocok untuk tugas tersebut.

Karena meskipun beban kerja intensif komputasi khusus AI tampaknya sedang meningkat (tidak ada yang yakin dengan kecepatan berapa), sebagian besar pekerjaan pusat data (beban kerja non-AI) harus terus berjalan seiring berjalannya waktu – menghasilkan aplikasi yang stabil dan aliran pendapatan layanan tidak terganggu.

Sebagian besar fasilitas tersebut saat ini ditangani oleh CPU dan menyesuaikan pusat data standar dengan GPU yang lebih mahal akan membuat banyak fasilitas tidak memenuhi kebutuhan. Secara umum, GPU mengonsumsi lebih banyak watt dibandingkan CPU untuk melakukan tugas serupa. Bergantung pada pasokan daya ke konfigurasi rak tertentu, mengintegrasikan GPU ke dalam infrastruktur pusat data memerlukan peningkatan pada sistem distribusi daya, misalnya, yang pasti akan menimbulkan biaya tambahan di muka, selain tagihan energi yang lebih tinggi saat sistem tersebut dijalankan.

Terlebih lagi, pengembangan CPU Intel terus berinovasi. Dalam berbagai kasus penggunaan, CPU dapat dibuktikan mencapai kinerja keseluruhan yang sama baiknya – dan terkadang lebih baik – dibandingkan GPU, kata Gillich. Dan kinerjanya dapat ditingkatkan dengan teknologi terobosan seperti Intel® AMX (Advanced Matrix Extensions) sebuah akselerator yang dibangun pada CPU Intel Xeon generasi ke-4.

“Prosesor Intel Xeon dapat memungkinkan pusat data untuk meningkatkan adopsi AI melalui akselerasi AI bawaan yang meningkatkan kinerja CPU untuk Pembelajaran Mesin, pelatihan, dan inferensi” jelas Gillich. “Dengan cara ini, mereka dapat mengadopsi akselerator terpisah untuk meminimalkan CAPEX dan memaksimalkan kinerja sambil memanfaatkan lingkungan pemrosesan Intel Xeon yang ada.”

Perlu memadukan beban kerja AI dan non-AI

Intel AMX adalah blok perangkat keras khusus pada inti prosesor Intel Xeon yang Dapat Diskalakan yang memungkinkan beban kerja AI dijalankan di CPU alih-alih memindahkannya ke akselerator terpisah, sehingga memberikan peningkatan kinerja yang signifikan. Ini cocok untuk beban kerja AI seperti sistem rekomendasi Machine Learning, pengenalan gambar, dan pemrosesan bahasa alami, yang mengandalkan matematika matriks.

Argumen lain yang mendukung augmented CPU adalah bahwa mereka memberikan rute yang hemat biaya bagi operator pusat data untuk memenuhi lebih banyak komitmen CPU yang ada, mengamankan aset mereka di masa depan sehingga mereka mampu menangani beban kerja yang beragam, dan menempatkan mereka pada posisi yang lebih baik. mengontrol penggunaan daya secara keseluruhan.

Hal ini, pada gilirannya, dapat membantu penyedia layanan pusat data (dan pelanggan mereka) memenuhi target keberlanjutan, dan memberikan nilai jual bagi pengembang perangkat lunak (perusahaan atau pihak ketiga) yang mencari platform yang dioptimalkan untuk menunjukkan efisiensi energi dari pengkodean mereka. keluaran.

“Kenyataannya adalah, alih-alih terburu-buru memanfaatkan peluang yang dapat dijanjikan oleh beban kerja AI, operator pusat data menyadari bahwa mereka harus mempertimbangkan serangkaian hal penting yang didasarkan pada pertimbangan komersial dan pilihan teknologi,” kata Gillich.

Hal-hal penting ini dapat mencakup: integrasi beban kerja AI dengan beban kerja non-AI; integrasi tumpukan perangkat keras dan perangkat lunak yang berbeda; dan karena mereka ingin memastikan bahwa mereka memiliki arsitektur yang cocok untuk beberapa beban kerja yang berbeda, integrasi jenis aliran kerja yang berbeda.

“Pertanyaan-pertanyaan ini menunjukkan tantangan yang kompleks, karena menjawab pertanyaan-pertanyaan tersebut dengan benar akan berdampak pada efisiensi teknologi dan energi yang optimal – dimana efisiensi energi kini menjadi tolok ukur kinerja inti yang akan semakin mempengaruhi kelangsungan komersial pusat data,” kata Gillich. “Jadi sekali lagi, ini sangat penting.”

Dari sudut pandang Gillich, kunci untuk beradaptasi dengan kenyataan yang muncul ini adalah melalui proses bertahap yang disebut dengan 'asimilasi AI'. Poin pertama di sini adalah bahwa beban kerja AI tidak dipisahkan dari jenis beban kerja lainnya – beban kerja tersebut akan diintegrasikan ke dalam beban kerja konvensional, bukan dijalankan secara terpisah.

Gillich memberikan konferensi video sebagai contoh integrasi bertahap ini: “Saat melakukan streaming lalu lintas audio/video standar di seluruh aplikasi standar, AI terintegrasi untuk melakukan tugas-tugas bersamaan seperti peringkasan, terjemahan, transkripsi. Fitur-fitur tersebut didukung dengan sangat baik oleh AI.

Penghematan energi menyeluruh

Pencapaian efisiensi energi harus menjadi upaya strategis yang menyeluruh, kata Gillich. “Ini mencakup sisi perangkat lunak serta arsitektur perangkat keras – mekanisme lengkap yang memungkinkan proses alur kerja tertentu. Di mana data disimpan agar akses menjadi paling efisien – dari segi komputasi dan juga hemat energi – apakah itu tempat terbaik untuk efisiensi energi?”

Faktor lain yang perlu dimasukkan dalam evaluasi ini adalah menentukan di mana beban kerja dijalankan. Misalnya, apakah beban kerja AI ini berjalan di klien (seperti PC AI yang dilengkapi prosesor Intel Core Ultra, bukan di server di pusat data? Bisakah beberapa beban kerja AI ini benar-benar dijalankan di klien (bersama server)?

Setiap opsi patut dipertimbangkan jika hal ini akan membantu menyeimbangkan komputasi AI/konsumsi daya agar lebih selaras, kata Gillich: “Ini hampir seperti kembali ke gagasan lama tentang komputasi terdistribusi.”

Gillich menambahkan: “Terkadang pelanggan kami bertanya, 'Di mana AI akan berperan?' – jawabannya adalah AI akan bermain dimana-mana. Jadi di Intel, ambisi kami terfokus pada apa yang bisa disebut sebagai akomodasi universal AI, karena kami yakin AI akan dapat diterapkan di semua bidang aplikasi.”

Di Intel, hal ini mencakup middleware seperti API, yang sama seperti bagian lain dari tumpukan perangkat lunak, harus seefisien mungkin. 'API sprawl' dapat mengakibatkan pemrosesan yang tidak perlu, meminimalkan jejak infrastruktur, dan kurangnya pemantauan dan pengendalian.

"Dengan Intel oneAPI, perusahaan dapat mewujudkan nilai perangkat keras mereka sepenuhnya, mengembangkan kode lintas arsitektur berkinerja tinggi, dan membuat aplikasi mereka siap untuk kebutuhan masa depan,” jelas Gillich.

“Intel oneAPI adalah model pemrograman multi-vendor yang terbuka, lintas industri, berbasis standar, terpadu, multiarsitektur, yang memberikan pengalaman pengembang umum di seluruh arsitektur akselerator – untuk kinerja aplikasi yang lebih cepat, dan peningkatan produktivitas. Inisiatif oneAPI mendorong kolaborasi pada spesifikasi oneAPI dan implementasi oneAPI yang kompatibel di seluruh ekosistem.”

Gillich menambahkan: “oneAPI menyediakan tumpukan middleware yang mengambil hal-hal standar seperti AI Frameworks – seperti Pytorch atau TensorFlow [platform perangkat lunak sumber terbuka untuk AI dan Machine Learning] – dan menerjemahkannya pada tingkat mesin, dan oneAPI memungkinkan cara yang efisien untuk lakukan itu. Pengguna dapat menggunakan API umum pada tingkat kerangka kerja Ai, dan kami memiliki API (oneAPI) yang menangani berbagai macam perangkat keras.” Jadi API umum berarti pengguna dapat membuat perangkat lunak terbuka yang dapat didukung pada tumpukan perangkat lunak terbuka.

Performa tingkat GPU pada titik harga tingkat CPU

Kemajuan di bidang TI sebagian besar didorong oleh ekspektasi akan kemajuan teknologi berkelanjutan yang dipadukan dengan peningkatan berbasis wawasan dalam strategi penerapan. Ini adalah model yang didasarkan pada upaya menemukan keseimbangan terbaik antara pengeluaran anggaran dan ROI bisnis, serta harapan bahwa selalu ada inovasi lebih lanjut yang perlu diupayakan. AI mewakili puncak cita-cita ini – AI cukup cerdas untuk menemukan kembali proposisi nilainya melalui perbaikan diri secara terus-menerus.

Dengan membangun akselerator AMX ke dalam CPU Intel Xeon generasi ke-4, Intel menunjukkan bagaimana kinerja tingkat GPU dapat dicapai pada titik harga tingkat CPU. Hal ini memungkinkan pusat data untuk melakukan penskalaan sekaligus memaksimalkan nilai pengembalian dari kawasan pemrosesan yang didukung Intel Xeon, namun juga menyediakan model harga yang menurunkan biaya masuk bagi pelanggan dengan beban kerja AI namun anggaran terbatas.

Dan konsumsi daya CPU yang lebih rendah berarti efisiensi energi dapat dicapai secara holistik di seluruh operasional fasilitas pusat data – seperti pendinginan dan ventilasi – dan hal ini merupakan daya tarik lain bagi para arsitek perangkat lunak yang sadar akan keberlanjutan dan pengembang solusi AL.

Dikontribusikan oleh Intel.

Stempel Waktu:

Lebih dari Pendaftaran