מודלים בסיסיים בקצה - בלוג IBM

מודלים בסיסיים בקצה - בלוג IBM

צומת המקור: 2891323

מודלים בסיסיים בקצה - בלוג IBM



מבט אווירי של הבניין

מודלים בסיסיים (FMs) מסמנים את תחילתו של עידן חדש ב למידת מכונה (ML) ו בינה מלאכותית (AI), מה שמוביל לפיתוח מהיר יותר של AI שניתן להתאים למגוון רחב של משימות במורד הזרם ולכוונן עדין עבור מגוון יישומים. 

עם החשיבות ההולכת וגוברת של עיבוד נתונים במקום שבו מתבצעת עבודה, הגשת מודלים של AI בקצה הארגוני מאפשרת תחזיות כמעט בזמן אמת, תוך עמידה בדרישות ריבונות נתונים ופרטיות. על ידי שילוב של IBM watsonx יכולות פלטפורמת נתונים ו-AI עבור FM עם מחשוב קצה, ארגונים יכולים להפעיל עומסי עבודה של AI עבור כוונון עדין של FM והסקת מסקנות בקצה התפעולי. זה מאפשר לארגונים להרחיב פריסות AI בקצה, ולהפחית את הזמן והעלות לפריסה עם זמני תגובה מהירים יותר.

אנא הקפד לבדוק את כל התשלומים בסדרת פוסטים זו בבלוג על מחשוב קצה:

מהם מודלים בסיסיים?

מודלים בסיסיים (FMs), אשר מאומנים על קבוצה רחבה של נתונים ללא תווית בקנה מידה, מניעים יישומי בינה מלאכותית (AI) חדישים. ניתן להתאים אותם למגוון רחב של משימות במורד הזרם ולהתאים אותם למגוון יישומים. מודלים מודרניים של AI, שמבצעים משימות ספציפיות בתחום יחיד, מפנים את מקומם ל-FM מכיוון שהם לומדים באופן כללי יותר ועובדים על פני תחומים ובעיות. כפי שהשם מרמז, FM יכול להיות הבסיס ליישומים רבים של מודל הבינה המלאכותית.

FMs עוסקים בשני אתגרים מרכזיים שמנעו מארגונים להרחיב את אימוץ הבינה המלאכותית. ראשית, ארגונים מייצרים כמות עצומה של נתונים לא מסומנים, שרק חלק מהם מסומן לאימון מודלים של AI. שנית, משימת תיוג והערה זו היא אינטנסיבית ביותר של בני אדם, ולעתים קרובות דורשת כמה מאות שעות מזמנו של מומחה לנושא (SME). זה הופך את עלות ההרחבה לרוחב מקרי שימוש, מכיוון שזה ידרוש צבאות של חברות קטנות ובינוניות ומומחי נתונים. על ידי נטילת כמויות עצומות של נתונים ללא תווית ושימוש בטכניקות בפיקוח עצמי לאימון מודלים, FM הסירו את צווארי הבקבוק הללו ופתחו את הדרך לאימוץ רחב של AI ברחבי הארגון. כמויות הנתונים העצומות הללו שקיימות בכל עסק ממתינות לשחרור כדי להניב תובנות.

מהם מודלים של שפה גדולים?

מודלים של שפה גדולה (LLMs) הם סוג של מודלים בסיסיים (FM) המורכבים משכבות של רשתות עצביות שעברו הכשרה על כמויות עצומות אלה של נתונים ללא תווית. הם משתמשים באלגוריתמי למידה בפיקוח עצמי כדי לבצע מגוון של עיבוד שפה טבעית (NLP) משימות בדרכים הדומות לאופן שבו בני אדם משתמשים בשפה (ראה איור 1).

איור 1. מודלים של שפה גדולים (LLMs) כבשו את תחום הבינה המלאכותית בסערה.
איור 1. מודלים של שפה גדולים (LLMs) כבשו את תחום הבינה המלאכותית בסערה.

קנה קנה מידה והאיץ את ההשפעה של AI

ישנם מספר שלבים לבנייה ופריסה של מודל יסוד (FM). אלה כוללים קליטת נתונים, בחירת נתונים, עיבוד מקדים של נתונים, אימון מקדים ל-FM, כוונון מודלים למשימה אחת או יותר במורד הזרם, הגשת מסקנות, וניהול מודלים של נתונים ו-AI וניהול מחזור חיים - כל אלה יכולים להיות מתוארים כ FMOps.

כדי לעזור בכל זה, IBM מציעה לארגונים את הכלים והיכולות הדרושים כדי למנף את הכוח של מכשירי FM אלה באמצעות IBM watsonx, פלטפורמת בינה מלאכותית ונתונים מוכנה לארגון שנועדה להכפיל את ההשפעה של AI בארגון. IBM watsonx מורכב מהדברים הבאים:

  1. IBM watsonx.ai מביא חדש AI ייצור יכולות - המופעלות על ידי FM ולמידת מכונה מסורתית (ML) - לתוך אולפן רב עוצמה המשתרע על מחזור החיים של AI.
  2. IBM watsonx.data הוא מאגר נתונים מתאים למטרה שנבנה על ארכיטקטורה פתוחה של אגם כדי להתאים את עומסי העבודה של AI עבור כל הנתונים שלך, בכל מקום.
  3. IBM watsonx.governance הוא ערכת כלים לניהול מחזור החיים של בינה מלאכותית אוטומטית מקצה לקצה שנבנתה כדי לאפשר זרימות עבודה אחראיות, שקופות וניתנות להסבר.

וקטור מרכזי נוסף הוא החשיבות ההולכת וגוברת של מחשוב בקצה הארגוני, כגון מקומות תעשייתיים, רצפות ייצור, חנויות קמעונאיות, אתרי קצה של טלקום וכו'. ליתר דיוק, AI בקצה הארגוני מאפשר עיבוד נתונים שבהם מתבצעת עבודה עבור ניתוח כמעט בזמן אמת. היתרון הארגוני הוא המקום שבו נוצרות כמויות עצומות של נתונים ארגוניים והיכן AI יכול לספק תובנות עסקיות בעלות ערך, בזמן וניתן לפעולה.

הגשת מודלים של AI בקצה מאפשרת תחזיות כמעט בזמן אמת תוך עמידה בדרישות ריבונות נתונים ופרטיות. זה מקטין באופן משמעותי את ההשהיה הקשורה לרוב ברכישה, שידור, טרנספורמציה ועיבוד של נתוני בדיקה. עבודה בקצה מאפשרת לנו להגן על נתונים ארגוניים רגישים ולהפחית את עלויות העברת הנתונים עם זמני תגובה מהירים יותר.

אולם, קנה מידה של פריסות AI בקצה, אינה משימה קלה בין אתגרים הקשורים לנתונים (הטרוגניות, נפח ורגולציה) ומשאבים מוגבלים (מחשוב, קישוריות רשת, אחסון ואפילו כישורי IT). ניתן לתאר אותם בגדול בשתי קטגוריות:

  • זמן/עלות לפריסה: כל פריסה מורכבת מכמה שכבות של חומרה ותוכנה שיש להתקין, להגדיר ולבדוק לפני הפריסה. כיום, איש מקצוע יכול לקחת עד שבוע-שבועיים להתקנה בכל מיקום, הגבלה חמורה באיזו מהירות וחסכונית ארגונים יכולים להגדיל פריסות ברחבי הארגון שלהם.                                  
  • ניהול יום 2: המספר העצום של הקצוות הפרוסים והמיקום הגיאוגרפי של כל פריסה עלולים לעתים קרובות לייקר באופן בלתי רגיל לספק תמיכת IT מקומית בכל מיקום לניטור, תחזוקה ועדכון של פריסות אלו.

פריסות בינה מלאכותית של Edge

IBM פיתחה ארכיטקטורת קצה הנותנת מענה לאתגרים הללו על ידי הבאת מודל מכשירי חומרה/תוכנה משולב (HW/SW) לפריסות AI. הוא מורכב מכמה פרדיגמות מפתח המסייעות להרחבה של פריסות AI:

  • הקצאה מבוססת מדיניות ללא מגע של ערימת התוכנה המלאה.
  • ניטור רציף של תקינות מערכת הקצה
  • יכולות לנהל ולדחוף עדכוני תוכנה/אבטחה/תצורה למיקומי קצה רבים - הכל ממיקום מרכזי מבוסס ענן לניהול יום 2.

ניתן להשתמש בארכיטקטורת רכזת ודיבור מבוזרת כדי להגדיל את פריסות AI ארגוניות בקצה, שבה ענן מרכזי או מרכז נתונים ארגוני פועל כרכז והמכשיר הקצה-בקופסה פועל כחישור במיקום קצה. מודל הרכז והחישור הזה, המשתרע על פני סביבות ענן היברידיות וסביבות קצה, ממחיש בצורה הטובה ביותר את האיזון הדרוש לניצול מיטבי של המשאבים הדרושים לפעולות FM (ראה איור 2).

איור 2. תצורת פריסה של רכזת ודיבור עבור AI ארגוני במקומות קצה.
איור 2. תצורת פריסה של רכזת ודיבור עבור AI ארגוני במקומות קצה.

אימון מקדים של מודלים בסיסיים של שפה גדולה (LLMs) וסוגים אחרים של מודלים בסיסיים תוך שימוש בטכניקות בפיקוח עצמי על מערכי נתונים עצומים ללא תווית זקוק לרוב למשאבי מחשוב משמעותיים (GPU) והוא מבוצע בצורה הטובה ביותר ב-hub. משאבי המחשוב הבלתי מוגבלים כמעט וערימות נתונים גדולות המאוחסנות לעתים קרובות בענן מאפשרים אימון מקדים של מודלים של פרמטרים גדולים ושיפור מתמיד בדיוק של מודלים בסיסיים אלה.

מצד שני, כוונון של מכשירי ה-FM הבסיסיים הללו למשימות במורד הזרם - שדורשות רק כמה עשרות או מאות של דגימות נתונים מסווגות והגשת מסקנות - יכול להתבצע רק עם כמה GPUs בקצה הארגוני. זה מאפשר לנתונים מסומנים רגישים (או נתוני תכשיט בכתר ארגוני) להישאר בבטחה בתוך הסביבה התפעולית הארגונית תוך הפחתת עלויות העברת הנתונים.

באמצעות גישת ערימה מלאה לפריסת יישומים עד הקצה, מדען נתונים יכול לבצע כוונון עדין, בדיקה ופריסה של המודלים. ניתן להשיג זאת בסביבה יחידה תוך כיווץ מחזור חיי הפיתוח להגשת דגמי AI חדשים למשתמשי הקצה. פלטפורמות כמו Red Hat OpenShift Data Science (RHODS) וה-Red Hat OpenShift AI שהוכרז לאחרונה מספקות כלים לפיתוח ופריסה מהירה של דגמי AI מוכנים לייצור ב- ענן מבוזר וסביבות קצה.

לבסוף, הגשת מודל הבינה המלאכותית המכווננת בקצה הארגוני מפחיתה משמעותית את ההשהיה הקשורה לרוב ברכישה, שידור, טרנספורמציה ועיבוד של נתונים. ניתוק ההכשרה המוקדמת בענן מכוונון עדין והסקת מסקנות על הקצה מוריד את העלות התפעולית הכוללת על ידי הפחתת הזמן הנדרש ועלויות העברת הנתונים הקשורות לכל משימת הסקה (ראה איור 3).

איור 3. הצעת ערך לכוונון עדין והסקת FM בקצה התפעולי עם קצה-בקופסה. מקרה שימוש מופתי עם מהנדס אזרחי שפורס מודל FM כזה לתובנות כמעט בזמן אמת של זיהוי פגמים באמצעות כניסות של תמונת מזל"ט.
איור 3. הצעת ערך לכוונון עדין והסקת FM בקצה התפעולי עם קצה-בקופסה. מקרה שימוש מופתי עם מהנדס אזרחי שפורס מודל FM כזה לתובנות כמעט בזמן אמת של זיהוי פגמים באמצעות כניסות של תמונת מזל"ט.

כדי להדגים הצעת ערך זו מקצה לקצה, מודל יסוד מבוסס-שנאי חזון לתשתית אזרחית (הוכשר מראש באמצעות מערכי נתונים ציבוריים ומותאמים אישית ספציפיים לתעשייה) כוונן ונפרס להסקת מסקנות בקצה של שלושה צמתים (דיבר) אשכול. ערימת התוכנה כללה את Red Hat OpenShift Container Platform ו-Red Hat OpenShift Data Science. אשכול קצה זה היה מחובר גם למופע של Red Hat Advanced Cluster Management for Kubernetes (RHACM) הרכז הפועל בענן.

אספקת אפס מגע

הקצאה מבוססת מדיניות, אפס מגע נעשתה עם Red Hat Advanced Cluster Management for Kubernetes (RHACM) באמצעות מדיניות ותגיות מיקום, הקושרות אשכולות קצה ספציפיים לקבוצה של רכיבי תוכנה ותצורות. רכיבי התוכנה הללו - המשתרעים על פני כל המחסנית ומכסים את המחשוב, האחסון, הרשת ועומס העבודה בינה מלאכותית - הותקנו באמצעות מפעילי OpenShift שונים, אספקת שירותי יישומים נדרשים ו-S3 Bucket (אחסון).

המודל הבסיסי שהוכשר מראש (FM) לתשתית אזרחית כוונן באמצעות מחברת Jupyter בתוך Red Hat OpenShift Data Science (RHODS) תוך שימוש בנתונים מסווגים כדי לסווג שישה סוגים של פגמים שנמצאו על גשרי בטון. הגשת מסקנות של FM מכוונן זה הודגמה גם באמצעות שרת Triton. יתר על כן, ניטור של תקינות מערכת הקצה הזו התאפשר על ידי צבירת מדדי צפייה ממרכיבי החומרה והתוכנה דרך Prometheus ללוח המחוונים המרכזי של RHACM בענן. ארגוני תשתית אזרחית יכולים לפרוס את מכשירי ה-FM הללו במיקומי הקצה שלהם ולהשתמש בתמונות של מזל"ט כדי לזהות פגמים כמעט בזמן אמת - להאיץ את הזמן עד לתובנה ולהפחית את העלות של העברת כמויות גדולות של נתונים בחדות גבוהה לענן וממנו.

<br> סיכום

שילוב IBM watsonx יכולות פלטפורמת נתונים ו-AI עבור מודלים בסיסיים (FM) עם מכשיר קצה-בקופסה מאפשרים לארגונים להפעיל עומסי עבודה של AI עבור כוונון עדין של FM והסקת מסקנות בקצה התפעולי. מכשיר זה יכול להתמודד עם מקרי שימוש מורכבים מחוץ לקופסה, והוא בונה את המסגרת המרכזית לניהול מרכזי, אוטומציה ושירות עצמי. ניתן לצמצם את פריסות Edge FM משבועות לשעות עם הצלחה חוזרת, חוסן ואבטחה גבוהים יותר.

למידע נוסף על מודלים בסיסיים

אנא הקפד לבדוק את כל התשלומים בסדרת פוסטים זו בבלוג על מחשוב קצה:

כל הקטגוריות

עוד מ-Cloud

Temenos מביאה יכולות תשלומים חדשניות ל-IBM Cloud כדי לעזור לבנקים לבצע שינוי

3 דקות לקרוא - מערכת התשלומים האקולוגית נמצאת בנקודת פיתול של טרנספורמציה, ואנו מאמינים שעכשיו הגיע הזמן לשינוי. בעוד בנקים מחפשים לחדש את מסעות התשלומים שלהם, Temenos Payments Hub הפך לפתרון התשלומים הייעודי הראשון המספק יכולות תשלומים חדשניות ב-IBM Cloud for Financial Services® - פלטפורמה ספציפית לתעשייה שנועדה להאיץ את הטרנספורמציות הדיגיטליות של מוסדות פיננסיים עם אבטחה ב- חֲזִית קִדמִית. זוהי היוזמה האחרונה בהיסטוריה הארוכה שלנו ביחד לעזור ללקוחות לשנות. עם תשלומי Temenos...

הגל הבא של מודרניזציה של תשלומים: צמצום המורכבות כדי להעלות את חווית הלקוח

3 דקות לקרוא - מערכת האקולוגית של התשלומים נמצאת בנקודת פיתול של טרנספורמציה, במיוחד כאשר אנו רואים את עלייתם של משתתפים דיגיטליים משבשים שמציגים שיטות תשלום חדשות, כגון מטבעות קריפטוגרפיים ומטבעות דיגיטליים של בנק מרכזי (CDBC). עם אפשרויות רבות יותר ללקוחות, לכידת נתח הארנק הופכת תחרותית יותר עבור בנקים מסורתיים. זו רק דוגמה אחת מיני רבות שמראות כיצד מרחב התשלומים התפתח. במקביל, אנו רואים יותר ויותר רגולטורים עוקבים יותר מקרוב אחר הענף...

IBM Connected Trade Platform מסייעת להניע את הדיגיטציה של מימון סחר ושרשרת אספקה

4 דקות לקרוא - כיום, אנו רואים שיבוש דיגיטלי משמעותי בעסק של מימון מסחר ושרשרת אספקה ​​המושפע במידה רבה מאירועים גלובליים וגיאופוליטיקה, תקנות משתנות, דרישות ציות ובקרה, התקדמות בטכנולוגיה וחדשנות וגישה להון. כאשר בוחנים מקרוב את המשבשים הללו, ברור שיש מגוון רחב של גורמים שיכולים להשפיע על הסחר העולמי ועל מימון שרשרת האספקה. אלה יכולים לנוע כל הדרך בין אינפלציה מוגברת (שיש לה פוטנציאל לגרום למרווח...

הקלט באופן מאובטח הפעלות SSH ב-RHEL ברשת VPC פרטית

5 דקות לקרוא - בפוסט זה בבלוג, תלמד כיצד להקליט הפעלות SSH על Red Hat Enterprise Linux (RHEL) VSI ברשת VPC פרטית באמצעות חבילות מובנות. הרשת הפרטית VPC מסופקת דרך Terraform וחבילות RHEL מותקנות באמצעות אוטומציה של Ansible. בנוסף, תלמד כיצד להגדיר מארח מעוז זמין במיוחד. מהי הקלטת הפעלה ולמה היא נדרשת? מארח מעוז ושרת קפיצה הם שניהם מנגנוני אבטחה המשמשים ברשת ו...

בול זמן:

עוד מ יבמ