מיקרוסופט ממלאת את ענן Azure עם יותר למידת מכונה

מיקרוסופט ממלאת את ענן Azure עם יותר למידת מכונה

צומת המקור: 2677257

מיקרוסופט דאגה לכלול את Azure ב-AI-fest שהיה כנס המפתחים Build 2023 השבוע.

כאשר ארגונים שוקלים להתנסות או לפרוס בינה מלאכותית גנרטיבית, הם עשויים בהחלט להסתכל על עננים ציבוריים ותשתיות מחשוב ואחסון דומות להרחבה כדי להפעיל דברים כמו מודלים של שפות גדולות (LLMs).

מיקרוסופט, חמוש ב ChatGPT, GPT-4 ומערכות OpenAI אחרות, כבר חודשים דוחפים יכולות AI לכל פינה ופינה באימפריה שלה. Azure אינו שונה - שירות OpenAI הוא דוגמה - ואחריו בניית כנס, לענן הציבורי של רדמונד יש כעת עוד יותר הצעות.

גבוה ברשימה מורחב שותפות עם Nvidia, שבעצמה ממהרת לבסס את עצמה כספקית טכנולוגיות הבינה המלאכותית הכרחית, ממאיצי GPU ועד לתוכנה. רק השבוע חשפה יצרנית השבבים שורה של שותפויות, כמו עם Dell ב-Dell Technologies World ויצרניות מחשבי-על ב-ISC23.

הכנסת משאבי Nvidia לתוך Azure

באופן ספציפי, מיקרוסופט משלבת את חבילת התוכנה, כלי הפיתוח, המסגרות והמודלים המוכשרים של Nvidia של Nvidia ב-Azure Machine Learning, ויוצרת את מה שטינה Manghnani, מנהלת מוצר של פלטפורמת הענן למידת מכונה, כינתה "הקצה הראשון המוכן לארגון, המאובטח. -פלטפורמת ענן לקצה עבור מפתחים לבנות, לפרוס ולנהל יישומי AI כולל מודלים מותאמים אישית של שפות גדולות."

באותו יום יצרה מיקרוסופט את Azure Machine Learning מרשמי - פלטפורמה לאירוח ושיתוף של אבני בניין למידת מכונה כמו קונטיינרים, מודלים ונתונים וכלי לשילוב AI Enterprise לתוך Azure - זמין בדרך כלל. AI Enterprise ב-Azure Machine Learning זמין גם בתצוגה מקדימה טכנית מוגבלת.

"מה זה אומר שעבור לקוחות שיש להם התקשרויות ויחסים קיימים עם Azure, הם יכולים להשתמש בקשרים האלה - הם יכולים לצרוך מחוזי הענן שכבר יש להם - כדי להשיג את Nvidia AI Enterprise ולהשתמש בו בתוך Azure ML כדי להשיג זאת חוויה חלקה ברמה ארגונית או בנפרד על מקרים שהם בוחרים לעשות", אמר Manuvir Das, סגן נשיא למחשוב ארגוני ב-Nvidia, לעיתונאים כמה ימים לפני פתיחת Build.

בידוד רשתות כדי להגן על נתוני AI

ארגונים המנהלים פעולות בינה מלאכותית בענן רוצים להבטיח שהנתונים שלהם לא ייחשפו לחברות אחרות, כאשר בידוד רשת הוא כלי מפתח. למיקרוסופט יש תכונות כמו סביבת עבודה פרטית של קישורים והגנה על חילוץ נתונים, אך אין אפשרות IP ציבורית עבור משאבי מחשוב של חברות המאמנות מודלים של AI. ב-Build, הודיע ​​הספק בידוד רשת מנוהל ב-Azure Machine Learning לבחירת מצב הבידוד המתאים ביותר למדיניות האבטחה של הארגון.

אל תחמיצו את הסיקור של Build 2023 שלנו

באופן לא מפתיע, כלי קוד פתוח נכנסים יותר ויותר למרחב הבינה המלאכותית. מיקרוסופט בשנה שעברה שיתפה פעולה עם Hugging Face כדי להביא נקודות קצה של Azure Machine Learning המופעלות על ידי הטכנולוגיה של חברת הקוד הפתוח. ב-Build, צמד הארגונים מורחב מערכת היחסים שלהם.

חיבוק פייס כבר מציע א סט מאוצר של כלים וממשקי API וכן א רכזת ענקית של דגמי ML להורדה ושימוש. כעת אוסף של אלפי דגמים אלה יופיע בקטלוג Azure Machine Learning של Redmond, כך שלקוחות יוכלו לגשת ולפרוס אותם בנקודות קצה מנוהלות בענן של מיקרוסופט.

אפשרויות נוספות למודל בסיס

רדמונד גם עושה דגמי יסוד ב-Azure Machine Learning זמין בתצוגה מקדימה ציבורית. מודלים של קרן הם מודלים מוכשרים ובעלי יכולת גבוהה ביותר, שארגונים יכולים להתאים אישית עם הנתונים שלהם למטרותיהם ולהפעיל לפי הצורך.

דגמי יסוד הופכים חשובים למדי, מכיוון שהם יכולים לעזור לארגונים לבנות יישומים לא טריוויאליים המופעלים על ידי ML, המעוצבים לפי הדרישות הספציפיות שלהם, מבלי להשקיע מאות מיליוני דולרים באימון המודלים מאפס או הורדת עיבוד ונתוני לקוחות רגישים לענן.

Nvidia פרסמה א נמו מסגרת שעשויה להיות שימושית בתחום זה, ויש לחודש זה שותף עם ServiceNow ו - השבוע - Dell in פרויקט Helix לאורך הקווים האלה.

"כשעבדנו עם חברות ארגוניות על AI גנרטיבי בחודשים האחרונים, מה שלמדנו הוא שיש מספר גדול של חברות ארגוניות שרוצות למנף את הכוח של AI גנרטיבי, אבל עושים זאת במרכזי הנתונים שלהן. או לעשות את זה מחוץ לענן הציבורי", אמר Das של Nvidia.

משאבים כמו קוד פתוח ומודלים של בסיס מבטיחים להפחית את המורכבות והעלויות כדי לאפשר ליותר ארגונים גישה ל-AI גנרטיבי. ®

בול זמן:

עוד מ הקופה