Masa Depan Komputasi Adaptif: Pusat Data Komposabel

Node Sumber: 805091

AdobeStock_267083342 (002) .jpeg

Posting blog ini dikutip dari presentasi utama Salil Raje, EVP dan GM Xilinx Data Center Group, diberikan pada 24 Maret 2021, di Xilinx Adapt: ​​Data Center. Untuk melihat keynote on-demand Salil, bersama dengan sejumlah besar presentasi oleh pakar industri, Anda bisa daftar dan lihat isinya di sini.

Sebagian besar dari kita masih bertemu dengan rekan kerja melalui konferensi video online setelah perubahan paradigma yang disebabkan oleh pandemi COVID-19. Anda mungkin tidak terlalu memikirkan apa yang diperlukan untuk melakukan streaming semua konten dan umpan dari rapat Anda. Tetapi jika Anda adalah operator pusat data, Anda mungkin belum banyak tidur selama setahun terakhir karena khawatir tentang bagaimana menangani lonjakan pandemi lalu lintas video yang belum pernah terjadi sebelumnya.

Tidak hanya itu, pusat data saat ini harus menangani ledakan data tidak terstruktur dari berbagai beban kerja seperti konferensi video, konten streaming, game online, dan e-commerce. Banyak dari aplikasi ini sangat sensitif terhadap latensi dan juga tunduk pada standar yang terus berkembang untuk kompresi, enkripsi, dan arsitektur database.

Hal ini telah memaksa pusat data untuk meningkatkan infrastrukturnya guna memenuhi persyaratan kinerja dan latensi dari berbagai beban kerja yang menuntut, sekaligus mencoba meminimalkan biaya dan konsumsi daya. Itu terbukti sangat sulit, dan memaksa operator pusat data untuk memikirkan kembali arsitektur mereka saat ini dan menjelajahi konfigurasi baru yang secara inheren lebih skalabel dan efisien.

Saat ini, sebagian besar pusat data memiliki rak dengan kumpulan sumber daya tetap, yang menggabungkan SSD, CPU, dan Akselerator dalam satu server. Meskipun ini memastikan koneksi bandwidth tinggi antara komputasi dan penyimpanan, ini sangat tidak efisien dalam hal pemanfaatan sumber daya, karena ada rasio penyimpanan dan komputasi tetap di setiap server. Karena beban kerja memerlukan campuran komputasi dan penyimpanan yang berbeda, pulau sumber daya yang tidak digunakan tersisa di setiap server.

Infrastruktur yang Dapat Disusun

Sebuah arsitektur baru muncul yang menjanjikan peningkatan dramatis dalam pemanfaatan sumber daya. Ini dikenal sebagai "infrastruktur yang dapat disusun". Diperlukan infrastruktur yang dapat disusun decoupling sumber daya dan sebagai gantinya menyatukannya dan membuatnya dapat diakses dari mana saja. Infrastruktur yang dapat disusun memungkinkan penyediaan beban kerja dengan jumlah sumber daya yang tepat, dan konfigurasi ulang yang cepat melalui perangkat lunak.

Arsitektur yang dapat disusun dengan kumpulan CPU, SSDS, dan akselerator yang dihubungkan bersama dan dikendalikan oleh kerangka kerja penyediaan berbasis standar menjanjikan efisiensi sumber daya pusat data yang jauh lebih baik. Dalam arsitektur seperti itu, beban kerja yang berbeda mungkin memiliki persyaratan komputasi, penyimpanan, dan akselerasi yang berbeda, dan sumber daya tersebut akan ditetapkan sesuai dengan perangkat keras yang tidak terbuang percuma. Kedengarannya bagus secara teori, tetapi dalam praktiknya, ada satu masalah besar: Latensi.

Tantangan Latensi

Saat Anda memisahkan sumber daya dan memindahkannya lebih jauh, Anda akan mengalami lebih banyak penundaan dan pengurangan bandwidth karena lalu lintas jaringan antara CPU dan SSD, atau antara CPU dan akselerator. Kecuali jika Anda memiliki beberapa cara untuk mengurangi lalu lintas jaringan dan menghubungkan sumber daya dengan cara yang efisien, ini bisa sangat membatasi. Di situlah FPGA memainkan tiga peran utama dalam menyelesaikan tantangan latensi:

  • FPGA bertindak sebagai akselerator yang dapat disesuaikan yang dapat disesuaikan untuk setiap beban kerja untuk kinerja maksimum. 
  • FPGA juga dapat mendekatkan komputasi ke data, sehingga mengurangi latensi dan meminimalkan bandwidth yang diperlukan.
  • Fabrik FPGA yang cerdas dan dapat beradaptasi memungkinkan penyatuan sumber daya yang efisien tanpa menimbulkan penundaan yang berlebihan. 

Akselerasi yang Dapat Diadaptasi

Keuntungan signifikan pertama untuk akselerator komputasi berbasis FPGA adalah kinerja yang ditingkatkan secara dramatis untuk beban kerja yang sangat diminati saat ini. Dalam kasus penggunaan transcoding video untuk aplikasi live streaming, solusi FPGA biasanya mengungguli CPU x86 sebesar 30x, yang membantu operator pusat data memenuhi peningkatan besar dalam jumlah streaming simultan. Contoh lain adalah di bidang kritis sekuensing genom. Pelanggan genomik Xilinx baru-baru ini menemukan bahwa akselerator berbasis FPGA kami memberikan jawaban 90 kali lebih cepat daripada CPU, membantu peneliti medis menguji sampel DNA dalam waktu yang singkat.

Memindahkan Komputasi Lebih Dekat ke Data

Keuntungan utama kedua untuk FPGA di pusat data yang dapat disusun adalah kemampuan untuk mendekatkan komputasi yang dapat disesuaikan dengan data, baik saat diam atau sedang bergerak. Xilinx FPGA yang digunakan dalam perangkat penyimpanan komputasi SmartSSD mempercepat fungsi seperti pencarian berkecepatan tinggi, penguraian, kompresi, dan enkripsi, yang biasanya dilakukan oleh CPU. Ini membantu membongkar CPU untuk tugas yang lebih kompleks, tetapi juga mengurangi lalu lintas antara CPU dan SSD, sehingga mengurangi konsumsi bandwidth dan mengurangi latensi.

Demikian pula, FPGA kami sekarang digunakan di SmartNIC seperti Alveo SN1000 baru kami untuk mempercepat pergerakan data dengan pemrosesan paket kecepatan kabel, kompresi, dan layanan kripto serta kemampuan untuk beradaptasi dengan persyaratan pengalihan khusus untuk pusat data atau pelanggan tertentu.   

Kain Cerdas

When you combine an FPGA’s adaptable compute acceleration with low-latency connectivity, you can go a step further in the composable data center.  You can assign a compute-heavy workload to a cluster of accelerators that are interconnected by an adaptable intelligent fabric - creating a high-performance computer on demand.

Tentu saja, semua ini tidak mungkin dilakukan jika Anda tidak dapat memprogram akselerator komputasi, SmartSSD, dan SmartNIC dengan algoritme akselerasi optimal, lalu menyediakannya dalam jumlah yang tepat untuk setiap beban kerja. Untuk tugas itu, kami telah membuat tumpukan perangkat lunak komprehensif yang memanfaatkan kerangka kerja industri khusus domain seperti TensorFlow dan FFMPEG, yang bekerja bersama dengan platform pengembangan Vitis kami. Kami juga melihat peran kerangka kerja penyediaan tingkat yang lebih tinggi seperti RedFish untuk membantu alokasi sumber daya cerdas.

Masa Depan adalah Sekarang

Janji dari pusat data yang dapat disusun adalah perubahan yang menarik dan perangkat Xilinx serta kartu akselerator adalah elemen penyusun utama untuk arsitektur baru yang efisien ini. Dengan kemampuan konfigurasi ulang yang cepat, latensi rendah, dan arsitektur fleksibel yang dapat beradaptasi dengan perubahan beban kerja, Xilinx berada pada posisi yang tepat untuk menjadi pemain utama dalam evolusi ini.

Sumber: https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Stempel Waktu:

Lebih dari Xlnx