Microsoft mengisi cloud Azure dengan lebih banyak pembelajaran mesin

Microsoft mengisi cloud Azure dengan lebih banyak pembelajaran mesin

Node Sumber: 2677257

Microsoft memastikan untuk menyertakan Azure dalam festival AI yang merupakan konferensi pengembang Build 2023 minggu ini.

Saat perusahaan mempertimbangkan untuk bereksperimen dengan atau menerapkan AI generatif, mereka mungkin akan mencari cloud publik dan komputasi yang dapat diskalakan serta infrastruktur penyimpanan serupa untuk menjalankan hal-hal seperti model bahasa besar (LLM).

Microsoft, dipersenjatai dengan ChatGPT, GPT-4, dan sistem OpenAI lainnya, selama berbulan-bulan telah mendorong kemampuan AI ke setiap sudut dan celah kerajaannya. Azure tidak berbeda – Layanan OpenAI adalah contohnya – dan setelahnya Membangun konferensi, cloud publik Redmond kini memiliki lebih banyak penawaran yang diklaim.

Tinggi pada daftar diperluas kemitraan dengan Nvidia, yang dengan sendirinya bergegas memantapkan dirinya sebagai penyedia teknologi AI yang sangat diperlukan, mulai dari akselerator GPU hingga perangkat lunak. Minggu ini saja pembuat chip meluncurkan sejumlah kemitraan, seperti dengan Dell di Dell Technologies World dan pembuat superkomputer di ISC23.

Membawa sumber daya Nvidia ke Azure

Secara khusus, Microsoft mengintegrasikan rangkaian perangkat lunak, alat pengembangan, kerangka kerja, dan model terlatih AI Nvidia ke dalam Azure Machine Learning, menciptakan apa yang disebut oleh Tina Manghnani, manajer produk untuk platform cloud pembelajaran mesin, sebagai "pertama yang siap untuk perusahaan, aman, dan siap pakai." -platform cloud menyeluruh bagi pengembang untuk membangun, menerapkan, dan mengelola aplikasi AI termasuk model bahasa besar yang disesuaikan."

Pada hari yang sama, Microsoft membuat Azure Machine Learning pendaftar – platform untuk hosting dan berbagi blok bangunan pembelajaran mesin seperti wadah, model, dan data, serta alat untuk mengintegrasikan AI Enterprise ke Azure – tersedia secara umum. AI Enterprise di Azure Machine Learning juga tersedia dalam pratinjau teknis terbatas.

Artinya, bagi pelanggan yang sudah memiliki keterlibatan dan hubungan dengan Azure, mereka dapat menggunakan hubungan tersebut – mereka dapat menggunakan kontrak cloud yang sudah mereka miliki – untuk mendapatkan Nvidia AI Enterprise dan menggunakannya dalam Azure ML untuk mendapatkan ini. pengalaman tingkat perusahaan yang mulus atau secara terpisah pada instans yang mereka pilih," Manuvir Das, wakil presiden komputasi perusahaan di Nvidia, mengatakan kepada jurnalis beberapa hari sebelum Build dibuka.

Mengisolasi jaringan untuk melindungi data AI

Perusahaan yang menjalankan operasi AI di cloud ingin memastikan data mereka tidak terekspos ke perusahaan lain, dengan isolasi jaringan sebagai alat utamanya. Microsoft memiliki fitur seperti ruang kerja tautan pribadi dan perlindungan penyelundupan data, tetapi tidak ada opsi IP publik untuk sumber daya komputasi perusahaan yang melatih model AI. Di Build, vendor mengumumkan isolasi jaringan yang dikelola di Azure Machine Learning untuk memilih mode isolasi yang paling sesuai dengan kebijakan keamanan perusahaan.

Jangan lewatkan liputan Build 2023 kami

Tidak mengherankan, semakin banyak alat sumber terbuka yang masuk ke bidang AI. Microsoft tahun lalu bermitra dengan Hugging Face untuk menghadirkan titik akhir Azure Machine Learning yang didukung oleh teknologi sumber terbuka perusahaan tersebut. Di Build, sepasang organisasi diperluas hubungan mereka.

Memeluk Wajah sudah menawarkan a set kurasi alat dan API serta a hub besar model ML untuk diunduh dan digunakan. Kini kumpulan ribuan model ini akan muncul di katalog Azure Machine Learning Redmond sehingga pelanggan dapat mengakses dan menyebarkannya pada titik akhir terkelola di cloud Microsoft.

Lebih banyak pilihan model pondasi

Redmond juga sedang membuat model pondasi di Azure Machine Learning tersedia dalam pratinjau publik. Model Foundation adalah model pra-pelatihan yang kuat dan berkemampuan tinggi yang dapat disesuaikan oleh organisasi dengan data mereka sendiri untuk tujuan mereka sendiri dan diluncurkan sesuai kebutuhan.

Model pondasi menjadi sangat penting, karena mereka dapat membantu organisasi membangun aplikasi bertenaga ML non-sepele, yang disesuaikan dengan kebutuhan khusus mereka, tanpa harus menghabiskan ratusan juta dolar untuk melatih model dari awal atau memindahkan pemrosesan dan data pelanggan yang sensitif ke cloud.

Nvidia merilis a nemo kerangka kerja yang mungkin berguna di bidang ini, dan bulan ini telah bermitra dengan ServiceNow dan – minggu ini – Dell masuk Proyek Helix sepanjang garis itu.

“Seiring dengan kerja sama kami dengan perusahaan-perusahaan dalam bidang AI generatif dalam beberapa bulan terakhir, apa yang kami pelajari adalah bahwa terdapat sejumlah besar perusahaan enterprise yang ingin memanfaatkan kekuatan AI generatif, namun melakukannya di pusat data mereka sendiri. atau melakukannya di luar cloud publik," kata Das dari Nvidia.

Sumber daya seperti sumber terbuka dan model dasar berjanji untuk mengurangi kompleksitas dan biaya untuk memungkinkan lebih banyak organisasi mengakses AI generatif. ®

Stempel Waktu:

Lebih dari Pendaftaran