Microsoft étoffe le cloud Azure avec plus d'apprentissage automatique

Microsoft étoffe le cloud Azure avec plus d'apprentissage automatique

Nœud source: 2677257

Microsoft s'est assuré d'inclure Azure dans le AI-fest qui était la conférence des développeurs Build 2023 cette semaine.

Alors que les entreprises envisagent d'expérimenter ou de déployer l'IA générative, elles pourraient bien se tourner vers les clouds publics et une infrastructure de calcul et de stockage évolutive similaire pour exécuter des éléments tels que des modèles en grand langage (LLM).

Microsoft, armé avec ChatGPT, GPT-4 et d'autres systèmes OpenAI ont depuis des mois poussé des capacités d'IA dans tous les coins et recoins de son empire. Azure n'est pas différent - le service OpenAI en est un exemple - et après sa Construire une conférence, le cloud public de Redmond propose désormais encore plus d'offres revendiquées.

Haut de la liste est un élargi partenariat avec Nvidia, qui lui-même se précipite pour s'imposer comme le fournisseur incontournable de technologies d'IA, des accélérateurs GPU aux logiciels. Rien que cette semaine, le fabricant de puces a dévoilé une multitude de partenariats, comme avec Dell à Dell Technologies World et des fabricants de superordinateurs à ISC23.

Intégrer des ressources Nvidia dans Azure

Plus précisément, Microsoft intègre la suite de logiciels, d'outils de développement, de frameworks et de modèles pré-entraînés AI Enterprise de Nvidia dans Azure Machine Learning, créant ainsi ce que Tina Manghnani, chef de produit pour la plate-forme cloud d'apprentissage automatique, a appelé « la première solution prête pour l'entreprise, sécurisée et de bout en bout ». Plate-forme cloud de bout en bout permettant aux développeurs de créer, déployer et gérer des applications d'IA, y compris des modèles de langage étendus personnalisés.

Le même jour, Microsoft a créé Azure Machine Learning les registres – une plate-forme pour héberger et partager des blocs de construction d'apprentissage automatique tels que des conteneurs, des modèles et des données et un outil pour intégrer AI Enterprise dans Azure – généralement disponible. AI Enterprise dans Azure Machine Learning est également disponible en version préliminaire technique limitée.

« Cela signifie que pour les clients qui ont des engagements et des relations existants avec Azure, ils peuvent utiliser ces relations – ils peuvent consommer à partir des contrats cloud qu'ils ont déjà – pour obtenir Nvidia AI Enterprise et l'utiliser soit dans Azure ML pour obtenir cela. expérience transparente de niveau entreprise ou séparément sur les instances de leur choix", a déclaré Manuvir Das, vice-président de l'informatique d'entreprise chez Nvidia, aux journalistes quelques jours avant l'ouverture de Build.

Isoler les réseaux pour protéger les données de l'IA

Les entreprises qui exécutent des opérations d'IA dans le cloud veulent s'assurer que leurs données ne soient pas exposées à d'autres entreprises, l'isolation du réseau étant un outil clé. Microsoft propose des fonctionnalités telles qu'un espace de travail de liaison privée et une protection contre l'exfiltration de données, mais aucune option IP publique pour les ressources de calcul des entreprises qui forment des modèles d'IA. Lors de Build, le fournisseur a annoncé isolement réseau géré dans Azure Machine Learning pour choisir le mode d'isolation qui correspond le mieux aux politiques de sécurité d'une entreprise.

Ne manquez pas notre couverture Build 2023

Sans surprise, les outils open source arrivent de plus en plus dans le domaine de l’IA. L'année dernière, Microsoft s'est associé à Hugging Face pour proposer des points de terminaison Azure Machine Learning alimentés par la technologie open source de la société. Chez Build, le duo d'organisations étendu leur relation.

Hugging Face propose déjà une ensemble organisé d'outils et d'API ainsi qu'un énorme hub de modèles ML à télécharger et à utiliser. Désormais, une collection de milliers de ces modèles apparaîtra dans le catalogue Azure Machine Learning de Redmond afin que les clients puissent y accéder et les déployer sur des points de terminaison gérés dans le cloud de Microsoft.

Plus d'options de modèles de fondation

Redmond fait aussi modèles de fondation dans Azure Machine Learning disponible en préversion publique. Les modèles de base sont des modèles pré-entraînés puissants et hautement performants que les organisations peuvent personnaliser avec leurs propres données à leurs propres fins et déployer selon leurs besoins.

Modèles de fondation deviennent très importants, car ils peuvent aider les organisations à créer des applications alimentées par ML non triviales, adaptées à leurs besoins spécifiques, sans avoir à dépenser des centaines de millions de dollars pour former les modèles à partir de zéro ou décharger le traitement et les données clients sensibles vers le cloud.

Nvidia a publié un Némo cadre qui peut être utile dans ce domaine, et ce mois-ci a en partenariat avec ServiceNow et – cette semaine – Dell en Projet Hélix le long de ces lignes.

"En travaillant avec des entreprises sur l'IA générative au cours des derniers mois, ce que nous avons appris, c'est qu'un grand nombre d'entreprises souhaitent exploiter la puissance de l'IA générative, mais le font dans leurs propres centres de données. ou faites-le en dehors du cloud public", a déclaré Das de Nvidia.

Des ressources telles que les modèles open source et de base promettent de réduire la complexité et les coûts pour permettre à davantage d'organisations d'accéder à l'IA générative. ®

Horodatage:

Plus de Le registre