HPE אומרת שההשפעה של AI על הארגון אינה "מוגזמת"

HPE אומרת שההשפעה של AI על הארגון אינה "מוגזמת"

צומת המקור: 2989174

HPE גלה את EMEA כעת, כשכל יצרנית טכנולוגיה גדולה מחפשת נגיסה מעוגת ההכנסות של AI, HPE מתכננת להישאר רלוונטית על ידי אימוץ מה שהמנכ"ל העליון אנטוניו נרי מכנה אסטרטגיית "AI native".

הטענה היא ש-HPE יכולה לתמוך בלקוחות בכל חלק במחזור החיים של מודל AI, מהדרכה ועד לכוונון והסקת מסקנות. חלק מזה תלוי HPE הבעלים של קריי, והיכולת לספק את טכנולוגיית מחשוב העל הדרושה לאימון דגמי בינה מלאכותית גדולים, שלטענת נרי הוא נבדל שאין לחלק מהמתחרים של HPE.

HPE, כמו רבים אחרים בתעשייה, רואה את העתיד כ-AI ועוד AI - אם כי במקרה שלה מועבר דרך פלטפורמת Greenlake. החברה תצטרך לשכנע את השוק שיש לה את חלקי המפתח בפאזל הבינה המלאכותית.

במהלך ההרצאה המרכזית שלו באירוע Discover של HPE בברצלונה, נרי הדגיש הזדמנויות לשימוש בינה מלאכותית בארגונים, והשאיל את המשפט הפרוץ ש-AI תהיה "הטכנולוגיה המשבשת ביותר של חיינו".

הצהרות כאלה הן דבר שבשגרה כרגע, בעקבות התפוצצות העניין במודלים של AI גנרטיביים שנגרמו על ידי OpenAI והצ'אטבוט ChatGPT שלה המבוססים על מודל שפה גדול.

"AI נתפס כהבטחה אי שם באופק לפני 2022 ו-ChatGPT הגיע והרעיד את היסודות", אמר נרי.

"עכשיו דמיינו עתיד שבו כל החלטה עסקית מתאפשרת על ידי AI. עתיד שבו ניתוח חזוי מניע רמות חדשות של פעילויות כדי לעזור לך לקבל החלטות טובות יותר ומהירות יותר ולחזות מגמות לגבי ההזדמנויות העסקיות החדשות", אמר נרי.

כדי לתמוך בכך, הצטרף לנרי על הבמה קארל האוורד, מנכ"ל טייגה ענן, חברה אירופאית הבונה ענן מיוחד לעיבוד בינה מלאכותית.

Taiga משתמשת בצמתי Cray XD של HPE, המצוידים ב-Nvidia H100 GPUs עבור הפלטפורמה שלה, אותה חומרה כמו שירות מחשוב העל GreenLake for Large Language Models של HPE שהוכרז ביוני.

האוורד אמר שהחברה שלו שואפת למכור דמוקרטיזציה של גישה ל-AI גנרטיבי, כך שסטארט-אפים וארגונים קטנים יותר יוכלו לקבל את המשאבים הדרושים להם כדי להכשיר מודלים, במקום לבנות תשתית משלהם או ללכת לעננים הציבוריים הגדולים.

הסכמים עם חברות אחרות הם גם קריטיים עבור HPE, הודה נרי, במיוחד Nvidia, בהתחשב בכך שמעבדי ה-GPU שלה ממלאים תפקיד מרכזי הן במערכות מחשוב העל של HPE עבור AI והן בפתרון הארגוני עבור AI גנרי, האחרון הודיע ​​השבוע ב-Discover.

סמנכ"ל המחשוב הארגוני של Nvidia, Manuvir Das, הופיע במהלך ההרצאה המרכזית כדי להסביר שמשתמשים ארגוניים רבים אינם צריכים להשקיע את כל הזמן והמאמץ כדי לבנות ולהכשיר AI משלהם, אך במקרים רבים יכולים להרים מודל הבסיס ופשוט השתמש בו, או כוונן אותו כך שיתאים יותר לדרישות שלהם.

"עם מודלים של בסיס, מישהו עשה את כל העבודה בשבילך. הם עשו 99 אחוז מהעבודה ואם אני יכול לעשות את האחוז הנותרים, עכשיו המודל הוא שלי", הסביר.

עם זאת, Nvidia היא גם ספק מפתח למתחרות של HPE, בעיקר Dell, שהשיקה מוקדם יותר השנה פלטפורמות משלה להסקת AI והתאמה אישית בתוספת כוונון דגמים. אלה משתמשים גם במעבדי Nvidia GPU ובתוכנת חבילת ה-AI Enterprise שלה.

למרות כל תשומת הלב וההשקעה שהושקעו בהכשרת מודלים של AI כרגע, HPE מאמינה שהסקת מסקנות היא הדבר הגדול יותר, שכן זה מייצג בסופו של דבר את החלק הגדול ביותר ממחזור החיים של מודל AI.

"השימוש בבינה מלאכותית מתרחש כאשר אתה מוכן לפרוס את המודלים האלה, וזה קורה בצד המסיק", אמר נרי בתגובה לשאלה. "זה יכול להיות במרכז הנתונים, אבל אני מאמין שחלק גדול מהמסק יהיה לעזור בעיבוד בזמן אמת היכן שהנתונים נמצאים, היכן שצריך לקבל החלטות מהר יותר."

הדרישה הפוטנציאלית הזו לתשתית חדשה לתמיכה בהסקת AI יכולה להיות בדיוק מה ש-HPE צריך, בעקבות ירידה של 31 אחוז בהכנסות עבור עסקי המחשוב שלה. זאת בעקבות ירידות בהכנסות המדווחות בשני הרבעונים הקודמים.

"עסקי המחשוב, הם לא הולכים להיעלם, וכנראה יקבלו עוד זריקה בגלל הסקת AI", אמר נרי בתגובה לשאלה אחרת.

מה אם התעשייה לא תרכוש את ההבטחה של AI?

אבל עם HPE מהמר גדול על AI, מה יקרה אם זה לא יתברר כנקודת הפיתול העצומה שפרשנים רבים טוענים?

מאט האריס, המנהל המנהל של HPE לבריטניה, אירלנד, המזרח התיכון ואפריקה, נחוש בדעתו שזה ישנה מהותית את הדרך שבה עסקים פועלים.

"אני חושב שה-AI הגנרטיבי ב-ChatGPT הביא את הבינה המלאכותית לקדמת התודעה ותהליך החשיבה של כולם, אבל אני לא חושב שזה מוגזם. אני חושב שבינה מלאכותית תחדור לחיינו, וכבר עשתה זאת, אם אתה חושב איך החיפוש באינטרנט השתפר עם השנים, או השימוש בצ'אטבוטים שמדברים איתך כדי לפתור שאילתות או בעיות של לקוחות, זה כבר די נרחב", אמר האריס. ®

בול זמן:

עוד מ הקופה