יבמ אומרת שהיא מריץ 'מחשב-על AI' מאז מאי, אבל בחרה עכשיו לספר לעולם

יבמ אומרת שהיא מריץ 'מחשב-על AI' מאז מאי, אבל בחרה עכשיו לספר לעולם

צומת המקור: 1950471

IBM היא ענקית הטכנולוגיה האחרונה שחשפה את "מחשב העל AI" משלה, זה המורכב מחבורה של מכונות וירטואליות הפועלות בתוך IBM Cloud.

המערכת הידועה בשם Vela, שלטענת החברה הייתה מקוונת מאז מאי אשתקד, נחשבת למחשב העל הראשון של יבמ המותאם ל-AI, מקורי ענן, שנוצר במטרה לפתח ולהכשיר דגמי AI בקנה מידה גדול.

לפני שמישהו ממהר להירשם לגישה, IBM הצהירה כי הפלטפורמה שמורה כעת לשימוש על ידי קהילת המחקר של IBM. למעשה, Vela הפכה ל"סביבת הבחירה" של החברה לחוקרים שיצרו יכולות בינה מלאכותית מתקדמות מאז מאי 2022, כולל עבודה על מודלים של יסודות.

יבמ מצהירה כי היא בחרה בארכיטקטורה זו מכיוון שהיא מעניקה לחברה גמישות רבה יותר להרחיב את הגודל כנדרש, וגם את היכולת לפרוס תשתית דומה בכל מרכז נתונים בענן IBM ברחבי העולם.

אבל Vela לא פועלת על אף חומרה ישנה של צומת ענן של IBM; כל אחת מהן היא מערכת כפולה עם מעבדי Xeon Scalable מהדור השני המוגדרים עם 2TB של DRAM, וארבעה כונני הבזק של 1.5TB NVMe, בתוספת שמונה 3.2GB Nvidia A80 GPUs, שהאחרון מחובר באמצעות NVLink ו-NVSwitch.

זה הופך את תשתית Vela לקרובה יותר לזו של אתר מחשוב עם ביצועים גבוהים (HPC) מאשר תשתית ענן טיפוסית, למרות התעקשותה של IBM שהיא נוקטת בנתיב אחר מכיוון ש"מחשבי-על מסורתיים לא תוכננו עבור AI".

ראוי לציין גם ש-IBM בחרה להשתמש במעבדי x86 ולא בשבבי Power 10 משלה, במיוחד כשאלה היו הוצג על ידי ביג בלו כמתאים באופן אידיאלי לעומסי עבודה עתירי זיכרון כגון הסקת AI במודל גדול.

הצמתים מחוברים זה לזה באמצעות ממשקי רשת מרובים של 100Gbps המסודרים במבנה Clos דו-מפלסי, שתוכנן כך שיש מספר נתיבים לנתונים כדי לספק יתירות.

עם זאת, IBM מסבירה בפוסט בבלוג את הסיבות שלה לבחור בארכיטקטורה מקורית בענן, שבמרכזה קיצוץ הזמן הדרוש לבניית ופריסה של דגמי AI בקנה מידה גדול ככל האפשר.

"האם אנחנו בונים את המערכת שלנו במקום, תוך שימוש במודל מחשוב העל המסורתי, או שאנחנו בונים את המערכת הזו לתוך הענן, בעצם בונים מחשב-על שהוא גם ענן?" שואל הבלוג.

יבמ טוענת כי באימוץ הגישה האחרונה היא התפשרה במידה מסוימת על הביצועים, אך הרוויחה במידה ניכרת על הפרודוקטיביות. זה מסתכם ביכולת להגדיר את כל המשאבים הדרושים באמצעות תוכנה, כמו גם גישה לשירותים הזמינים בענן IBM הרחב יותר, עם דוגמה של טעינת מערכי נתונים ל-Cloud Object Store של יבמ במקום צורך לבנות תשתית אחסון ייעודית.

Big Blue גם אמרה שהיא בחרה להפעיל את כל הצמתים ב-Vela כמכונות וירטואליות במקום מופעי מתכת חשופה, מכיוון שהדבר הופך את זה לפשוט יותר להקצות ולספק מחדש את התשתית עם ערימות תוכנה שונות הנדרשות על ידי משתמשי AI שונים.

"מכשירי VM יקלו על צוות התמיכה שלנו להרחיב בצורה גמישה את אשכולות הבינה המלאכותית באופן דינמי ולהעביר משאבים בין עומסי עבודה מסוגים שונים תוך דקות ספורות", מסביר הבלוג של IBM.

אבל החברה טוענת שהיא מצאה דרך לייעל את הביצועים ולמזער את התקורה של הוירטואליזציה עד פחות מ-5 אחוזים, קרוב לביצועי מתכת חשופה.

זה כלל הגדרת מארח המתכת החשופה לווירטואליזציה עם תמיכה בהרחבות מכונה וירטואלית (VMX), וירטואליזציה של IO עם שורש בודד (SR-IOV) ודפים ענקיים, בין שאר תצורות החומרה והתוכנה שלא פורטו.

פרטים נוספים על תשתית Vela ניתן למצוא באתר הבלוג של IBM.

IBM היא לא החברה היחידה שמשתמשת בענן כדי לארח מחשב-על בינה מלאכותית. בשנה שעברה, מיקרוסופט חשפה פלטפורמה משלה באמצעות תשתית Azure בשילוב עם מאיצי ה-GPU של Nvidia, ערכת הרשת וחבילת התוכנה של AI Enterprise. זה היה צפוי להיות זמין עבור לקוחות Azure לגישה, אך לא צוינה מסגרת זמן.

חברות אחרות שבנו מחשבי-על בינה מלאכותית, אך עוקבות אחר המסלול המסורתי של תשתית מקומית, כוללות meta ו טסלה. ®

בול זמן:

עוד מ הקופה